Heft 1/2007 als PDF
Transcription
Heft 1/2007 als PDF
58. Jahrgang, Nr. 1 – Januar/Februar 2007 – NADOAW 58 (1) 1-64 – ISSN 1434-4653 – D 11721 1/2007 Hochschule: Lehre, Studium,Weiterbildung Kommunikationswege beim E-Learning Information Science and Engineering / Informationswissenschaft in Darmstadt Evaluation informationswissenschaftlicher Lehrveranstaltungen Plattform für akademische Weiterbildung und E-Learning Usability-Tests für das Redesign eines Medienportals Erfahrungen als LIS-Studentin in London Hype und Wirklichkeit an den Universitäten Themenentdeckung und -verfolgung bei Nachrichten Elektronische Medien in der Chemie Zur Terminologie der Information und Dokumentation iwp Herausgeber: Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis e. V. DGI Editorial Liebe Leserinnen und Leser, der Vorstand der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis und Ihre IWP Redaktion wünschen Ihnen ein gutes und erfolgreiches Jahr 2007. Es ist so weit. Mit der ersten Ausgabe 2007 der IWP erscheint unsere Fachzeitschrift weiterhin gedruckt und zugleich online. Wir setzen damit ein Votum unserer Mitglieder um, die sich mit beeindruckender Mehrheit für beide Erscheinungsformen im Ergebnis einer repräsentativen Umfrage entschieden haben. Nachdem die DGI über Jahre keine Preissteigerungen weitergegeben hat, hat der Vorstand der DGI beschlossen, dass die Mehrkosten für die gedruckte Ausgabe durch einen jährlichen Kostenbeitrag in Höhe von 15 Euro den Mitgliedern separat in Rechnung gestellt werden sollen Die gedruckte Ausgabe kommt weiterhin frei Haus zu Ihnen und die Online-Ausgabe erhalten Sie über unsere neue Website in einem Passwort geschützten Bereich. Zugleich sind die Abhandlungen und Berichte aller Hefte der Jahre 2005 und 2006 bereits jetzt erschlossen in einem Archiv abrufbar. Unser neuer Webauftritt bietet aber noch mehr Service. Er hält in Kürze eine aktuell gepflegte Mitgliederdatei vor, den Nachweis unserer selbständigen Information Professionals, News für und aus unserer Branche, Bestellmöglichkeiten und vieles mehr. Überzeugen Sie sich selbst. Zum Gelingen dieser neuen Dienstleistungen haben namhaft Marlies Ockenfeld, Chefredakteurin der IWP, Sylwia Rolka, Online Information Services GmbH, und Manfred Hauer, AGI – Information Management Consultants, sowie die Mitglieder der DGI-Arbeitsgruppe, Ulrich Kämper, Dr. Dirk Lewandowski und Christine Fisch, beigetragen, denen wir gern an dieser Stelle öffentlich und offiziell Dank sagen. 58(2007)1, 1 Es ist eine gute Tradition, in der ersten IWP-Ausgabe des Jahres Rück- und Ausblick zu halten. Das zurückliegende Jahr war insbesondere gekennzeichnet durch die Vorbreitungen zum Web-Relaunch und zur IWP online sowie die Durchführung der ersten Online-Tagung im Rahmen der Frankfurter Buchmesse. Im Kongresszentrum der Frankfurter Messe trafen sich rund 400 Informationsfachleute zu ihrer Fachtagung und in der Halle 4.2, in der alles ums elektronische Publizieren und um digitale Dienste ging, konnte ein Ausstellerrekord mit über 400 Anbietern erreicht werden. Das gemeinsame Konzept von DGI und Frankfurter Buchmesse ist aufgegangen. So wird auch 2007 die Online-Tagung in Frankfurt am Main stattfinden und noch mehr Besucher und Aussteller anlocken. Das Programmkomitee, zusammengesetzt aus DGI-Mitgliedern und Vertretern anderer Verbände, hat bereits den Call for Papers vorgelegt. Er liegt dieser Ausgabe bei. Das Programm wird stärker als bisher Neuentwicklungen, Diskussionsforen und Beiträge aus verwandten Branchen und dem Ausland bereithalten. Für kostengünstige Übernachtungsmöglichkeiten und einen gelungenen Gesellschaftsabend wird ebenfalls Sorge getragen. Besuchen Sie uns vom 10. bis 12. Oktober 2007 in Frankfurt am Main. Aber bereits im März findet der nächste gemeinsame Kongress von BID und DGI in Leipzig statt. Zwei Tage vor Eröffnung der Leipziger Buchmesse öffnen sich die Tore im benachbarten Kongresszentrum unter dem traditionellen Motto Bibliothek und Information. Alle drei Jahre tauschen hier die Branchen der Dokumentation und des Bibliothekswesens Erfahrungen aus. Begleitet wird der Kongress von einer großen Ausstellung, die erstmals im Herzen des Kongresszentrums sein wird und kurze Wege zwischen Veranstal- tungsräumen und Ausstellungsfläche bietet. Die DGI, eine inhomogene Fachgesellschaft aus Informationsanbietern und Nutzern, stellt sich den Veränderungen am Markt. Noch im Januar 2007 nimmt eine Task Force zur Neuausrichtung der DGI unter der Leitung des Altpräsidenten Arnoud de Kemp ihre Arbeit auf. Ziel ist es, Mehrwerte für die Mitglieder aus der Mitgliedschaft in der DGI zu regenerieren und dadurch auch neue Mitglieder zu gewinnen. Auf dem Abschlussforum der Online-Tagung 2006 haben uns dazu sowohl junge als auch langjährige erfahrene Mitglieder Anregungen und überzeugende Hinweise übermittelt und einen Auftrag erteilt. Der Wert der Information ist in unserer Gesellschaft eminent. Die DGI vereint die Anbieter und Vermittler von qualifizierter und strukturierter Information. Keine andere Fachgesellschaft ist deshalb prädestinierter, den Wert der qualifizierten Information und unseres Berufsstandes in der Öffentlichkeit sichtbar zu machen. Sobald die Task Force ihr Ergebnis vorgelegt hat, freuen wir uns auf eine interessante und kritische Diskussion mit Ihnen. Das Jahr 2007 wird viel Neues, aber auch Bewährtes für Sie bereithalten. Das alles ist ohne Ihre Mitwirkung, Ihr Lob und Ihre konstruktive Kritik nicht möglich. So ist es mir eine besondere Freude Ihnen für Ihre Treue zu danken. Mit herzlichen Grüßen Ihre Prof. Dr. Gabriele Beger Präsidentin der DGI 1 Inhalt 1/2007 1 EDITORIAL 27 Gabriele Beger DGI 2007 6 INFORMATIONEN Professionelle Regiostererstellung. Das DNI informierte auf der Frankfurter Buchmesse 2006 (J. Fassbender) 4 NACHRICHTEN Deutsche Akademie für Sprache und Dichtung: Diskussion über „Die Sprache der Bahn“ DPMA: Änderungen Internationale Klassifikation von Waren und Dienstleistungen Referat Fachinformation aufgelöst – Personalkarussell im BMBF DIMDI veröffentlicht endgültige Fassung der ICD-10-GM Version 2007 Buchhandlungen und Neue Medien – Studie zu Kundenwünschen ZPID-Monitor 2004: Ausführlicher Ergebnisbericht 7 15 21 29 35 2 HOCHSCHULE Gesa Koschinsky und Reginald Ferber Kommunikationswege beim E-Learning – eine empirische Untersuchung an der Hochschule Darmstadt Berthold Meier und Christian Otto Informationsspezialisten made in Darmstadt: Der neue Studiengang „Information Science and Engineering / Informationswissenschaft“ Gerhard Reichmann Evaluation informationswissenschaftlicher Lehrveranstaltungen: Eine Längsschnittuntersuchung Nicole Petrucela »Find out what works«. Auswahl und Anwendung von Usability-Tests für das Redesign eines Medienportals Sabine Fincke, Jana False, Kerstin Grosch, Heinz-Dietrich Wuttke Die akademische Weiterbildungslandschaft in Thüringen. Bildungsportal Thüringen – Plattform für akademische Weiterbildung und E-Learning in Thüringen NEWCOMER CORNER Antje Schroeder Erfahrungen als LIS-Studentin in London 41 INFORMATIONSDIENSTE Wolfgang G. Stock Themenentdeckung und -verfolgung und ihr Einsatz bei Informationsdiensten für Nachrichten 47 TERMINOLOGIE UND SPRACHFRAGEN Eberhardt Gering Diskussionsbeitrag: Zur Terminologie der Information und Dokumentation 51 INFORMATIONSPRAXIS Gregor Fels Elektronische Medien in der Chemie. Chemieinformation gestern, heute, morgen 38 57 TAGUNGSBERICHTE Michael Huter Hype und Wirklichkeit an den Universitäten. „eUniversity – Update Bologna“: Tagung zur Zukunft der Universitäten Bonn, November 2006 Caroline Pförtner Forschung, Industrie und Hochschule diskutieren den Einsatz semantischer Lösungen Bericht über einen Workshop in Darmstadt 59 REZENSION ASIS&T Thesaurus of Information Science, Technology, and Librarianship (J. Fassbender) 5 IMPRESSUM 61 63 u3 LITERATURAUSLESE MEDIAINFO TERMINKALENDER Beilagenhinweis: Einem Teil dieser Ausgabe liegt eine Beilage der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (DGI) bei. Wir bitten um freundliche Beachtung. 58(2007)1, 2 E-Books via EBSCO Ihr Partner für elektronische Fachinformationen EBSCO ist ein führender Anbieter von E-Books. Als Partner renommierter Verlage können wir Ihnen die Fachinformation bieten, die Sie in Ihrer Bibliothek benötigen. Profitieren Sie von unserer Zusammenarbeit mit Verlagen wie Blackwell, Cambridge University Press, Pan American Health Organization, Taylor & Francis, Wiley und natürlich mit Springer, der viele Inhalte auch in deutscher Sprache anbietet. Bieten Sie Ihren Nutzern schnelleren und einfachen Zugriff auf Informationen von hoher Qualität. Wir unterstützen Sie bei der Erwerbung, Lizenzierung und Verwaltung Ihrer E-Books. Sind Sie interessiert? Kontaktieren Sie uns unter [email protected] www.ebsco.com squeeze4c-180x257mm-18866.indd 1 1/10/07 4:41:49 PM nachrichten Deutsche Akademie für Sprache DPMA: Änderungen Internationale und Dichtung:Diskussion über Klassifikation von Waren und „Die Sprache der Bahn“ Dienstleistungen Erstmals hat es eine Publikation der Reihe Informationswissenschaft der DGI nicht nur in die FAZ Sonntagszeitung geschafft, wo am 8. Oktober eine fünfspaltige Rezension erschienen ist, sondern auch in den Veranstaltungskalender der Deutschen Akademie für Sprache und Dichtung. Dort findet im Glückert Haus auf der Darmstädter Mathildenhöhe (Alexandraweg 23) am 27. Januar 2007 um 19.00 Uhr eine Diskussionsveranstaltung statt. In der Ankündigung heißt es: „Wer würde bei uns heute noch von Perron oder Billet sprechen? Und Bahnsteig oder Fahrkarte werden bald vielleicht durch Plattform und Ticket ersetzt sein. Die Sprache der Eisenbahn hat die Entwicklungen dieses Verkehrsmittels begleitet, von den ersten Dampfwagen auf eisernen Kunststraßen bis hin zur modernen Bahn und ihren Reformbemühungen. Am Sprachwandel läßt sich beispielhaft die technische, kulturelle, soziale oder politische Geschichte des Verkehrswesens nachzeichnen, bis hin zu den Erfahrungen der Zusammenarbeit in europäischen oder internationalen Organisationen. Die Sprache der Bahn hat zwei Gesichter: Zunächst geht es im Eisenbahnbetrieb um die Eindeutigkeit und Genauigkeit bei der Verständigung, um präzise Bezeichnung und eindeutige Anweisung, die auch bei der Übertragung in eine andere Sprache erhalten bleiben müssen. Dies war und ist das Feld der sich verändernden Fachsprache[n], die nicht erst heute unter dem enormen Druck der Internationalisierung stehen. Die Eisenbahn wendet sich aber auch an ihre [einst] Passagiere oder [jetzt] Kunden, und hier berühren sich die Geschichte der Fachterminologie und die Entwicklung des allgemeinen Sprachgebrauchs. Anlässlich des Erscheinens von „Die Sprache der Bahn. Zur Eisenbahnsprache im europäischen Kontext“ diskutieren über diese spannenden Themen die Autoren Klaus Ebeling [Rechtsanwalt, Generalsekretär EIA – European Intermodal Association], Lothar Hums [Sprachforscher, insbesondere zur Eisenbahngeschichte] und Armin Schmidt [Eisenbahner, Leiter von Terminologieund Thesaurusprojekten bei der DB, UIC und OSShD] sowie Peter Eisenberg [Sprachwissenschaftler, Deutsche Akademie für Sprache und Dichtung] u.a. Der Eintritt ist frei. Das Buch ist bei der Geschäftsstelle der DGI zum Preis von 24,80 Euro (DGI-Mitglieder zahlen 19,80 Euro) erhältlich. 4 Das Deutsche Patent- und Markenamt informiert auf seiner Website unter www.dpma.de/veroeffentlichungen/mit teilungen/anlage_mittlg_16.pdf. (5 Seiten PDF-Format) über die zum 1. Januar 2007 in Kraft getretenen Änderungen der Internationalen Klassifikation von Waren und Dienstleistungen für die Eintragung von Marken (Klassifikation von Nizza). Änderungen für Dienstleistungen des Groß- und Einzelhandels in Klasse 35 waren bereits vorher erfolgt. Auf Basis des Urteils des EuGH vom 7. Juli 2005 C-418/02 („Praktiker“) (www. dpma.de/infos/einsteiger/einsteiger_ marke03b.html) ergaben sich einige Veränderungen bezüglich akzeptierter Formulierungen bei Markenanmeldungen in der Klasse 35. Was ist jetzt zulässig? Neben der vom EuGH ausdrücklich entschiedenen Formulierung wird das Deutsche Patent- und Markenamt im Vorgriff auf die am 1. Januar 2007 in Kraft tretende 9. Ausgabe der Klassifikation von Nizza eine Reihe weiterer Dienstleistungsbezeichnungen zulassen, die sachlich gleichgelagert sind und nicht anders behandelt werden können als die Einzelhandelsdienstleistungen. Dazu gehören etwa ■ Großhandelsdienstleistungen mit ... ■ Einzelhandelsdienstleistungen für den Versandhandel mit ... ■ Dienstleistungen des Einzel-/Großhandels über das Internet mit ... ■ Einzelhandelsdienstleistungen mittels Teleshopping-Sendungen mit ... Was ist nach wie vor nicht zulässig? Alle Beteiligte in dem Verfahren vor dem EuGH sind davon ausgegangen, dass der reine „Verkauf“ keine Dienstleistung darstellt, sondern mit der Warenmarke umfasst ist. Für Formulierungen wie „Verkauf“, „Vertrieb“, „Handel“ kann daher nach wie vor keine Dienstleistungsmarke in Klasse 35 erlangt werden. Auch ist deutlich zu machen, dass Dienstleistungen für Dritte erbracht werden, deshalb sind Formulierungen wie „Betrieb eines Verkaufsgeschäfts...“, „Betreiben eines Versandhandels...“ nicht zulässig. In der Klasse 35 betreffen wesentliche Neuerungen die Klassen 14 und 42. Gebrauchsgegenstände „aus Edelmetall“ werden künftig nicht mehr in der Klasse 14, sondern in der Klasse der Funktion klassifiziert; der Zusatz „aus Edelmetall/nicht aus Edelmetall“ wird dadurch überflüssig. Die erstmals in der 9. Ausgabe so genannten „Juristischen Dienstleistun- gen“ werden der Klasse 45 anstatt wie bisher der Klasse 42 zugeordnet. Referat Fachinformation aufgelöst – Personalkarussell im BMBF Das am 15. November hochgeladene Organigramm (www.bmbf.de/pub/org plan.pdf) auf der Website des BMBF weist das ehemalige Referat „Wissenschaftliche Information; e-Science“ nicht mehr auf. Statt bisher sechs gibt es in der Unterabteilung 52 nur noch fünf Referate. Die bislang für die Fachinformation zuständige Referatsleiterin Dr. Christine Thomas hat das Nachbarreferat 522 „Sicherheitsforschung“ übernommen, das mit dem Zehnfachen des Budgets ihres bisherigen Referats Fachinformation ausgestattet ist. Die Bezeichnung des Referats 524 „Softwaretechnologie“ wurde um „Wissenstechnologie“ erweitert und hat vom ehemaligen Referat 523 die E-ScienceInitiative und das Thema Langzeitarchivierung mit den begonnen Projekten aufgenommen. Referatsleiter ist weiterhin Dr. Rainer Jansen, jetzt allerdings alleine, ohne Dr. Bernd Reuse. Die Zuständigkeit für die fachliche und administrative Betreuung der Einrichtungen Fachinformationszentrum (FIZ) Karlsruhe GmbH, FIZ Chemie GmbH, Technische Informationsbibliothek (TIB) Hannover sind in die Unterabteilung 51 in das Referat 515 unter Leitung von Annette Eickmeyer-Hehn übergegangen, dahin, wo auch die Forschung an Fachhochschulen und der Ingenieurnachwuchs angesiedelt sind . Die Deutsche Nationalbibliothek wird im BMBF ebenfalls von Referat 515 fachlich betreut (Federführung liegt hier beim BKM). Neuer Aufsichtsratsvorsitzender im FIZ Karlsruhe ist MinDirig Dr. Wolfgang Stöffler, Leiter der Unterabteilung 51 „Schlüsseltechnologien – Produktionsforschung“. Er ist im Aufsichtsrat Nachfolger von Frau Dr. Thomas, die dem Aufsichtsrat seit September 2001 angehörte, aber erst im April 2006 neue Aufsichtsratsvorsitzende geworden war. Weiter wurde Christian Stertz als Nachfolger für Erasmus Landvogt in den Aufsichtsrat berufen. Im FIZ Chemie liegt der AR-Vorsitz unverändert bei Herrn Lietzau als Sitzlandsvertreter. Christian Stertz folgt Frau Dr. Thomas als AR-Mitglied nach und wurde in der Sitzung am 10. November 2006 zum stellvertretenden ARVorsitzenden gewählt. Der Projektträger Neue Medien in der Bildung + Fachinformation in Darmstadt unterstützt das BMBF derzeit noch in seinem Förderbereich „Softwaresys- 58(2007)1, 4-5 Nachrichten teme; Wissenstechnologien“ bei der Umsetzung der Programme ■ eScience Initiative ■ Förderprogramm Informations- und Kommunikationstechnik „IT-Forschung 2006“ ■ Strategisches Positionspapier „Information vernetzen – Wissen aktivieren“ ■ Aktionsprogramm „Informationsgesellschaft Deutschland 2006“ (Seite 45-48) Die Projektträgerschaft für neue Programme soll ausgeschrieben werden. (mo) DIMDI veröffentlicht endgültige Fassung der ICD-10-GM Version 2007 Das DIMDI hat die endgültige Fassung der Internationalen Klassifikation der Krankheiten und verwandter Gesundheitsprobleme, German Modification (ICD-10-GM), Version 2007, auf seinen Internetseiten veröffentlicht. Die Klassifikation bildet die Basis für das pauschalierende Vergütungssystem der German Diagnosis Related Groups (GDRG). In die neue Version 2007 flossen über 50 Vorschläge aus Fachgesellschaften und von Fachleuten aus Ärzteschaft, Krankenkassen und Kliniken ein. Ärzte und Dokumentare in den Krankenhäusern sind verpflichtet, die Diagnosen nach den Deutschen Kodierrichtlinien (DKR) der für das G-DRGVergütungssystem zuständigen Selbstverwaltungspartner zu kodieren. Die Verschlüsselung erfolgt mithilfe der ICD-10-GM in Form eines Systematischen Verzeichnisses und eines Alphabetischen Verzeichnisses, das die Arbeit mit der ICD in der Praxis erleichtert. Ärzte, Dokumentare und Pflegekräfte in Kliniken und Praxen können mit der neuen ICD-Version 2007 einige wichtige Krankheiten für die Abrechnung künftig differenzierter als bisher verschlüsseln. Der Kommentar im Vorspann des Systematischen Verzeichnisses erläutert wichtige Neuerungen in den einzelnen Kapiteln. Die Neuerungen im Detail sind in der Aktualisierungsliste zusammengestellt. Die Differenzliste enthält die Veränderungen der endgültigen Fassung gegenüber der Vorabversion. Download der Dateien Referenzausgaben und Aktualisierungsliste zur ICD-10-GM 2007 finden Sie als kostenfreie PDF-Dateien im Downloadcenter: www.dimdi.de – Klassifikationen – Downloadcenter – ICD-10-GM – Version 2007. Alle anderen Dateifassungen (ASCII-, SGML-, HTML- und RTF-Datei sowie Metadaten) und die Überleitungstabelle sind 58(2007)1, 4-5 im DIMDI Webshop erhältlich. Nur das erstmalige Herunterladen der Dateien einer Jahrgangsversion aus dem DIMDI Webshop wird berechnet. Jedes weitere Herunterladen einer einmal gekauften Datei (z. B. bei Aktualisierungen wegen Fehlerkorrekturen) ist kostenfrei (im DIMDI Webshop über „Mein Konto“). Das DIMDI ist Herausgeber der deutschen Versionen von medizinischen Klassifikationen wie ICD-10, ICF, Operationenschlüssel (OPS), ATC, MeSH und UMDNS und betreut medizinische Ordnungssysteme wie Alpha-ID, LOINC und OID. Außerdem betreibt das DIMDI Informationssysteme für Arzneimittel, Medizinprodukte und Health Technology Assessment (HTA) und bietet zusätzliche Informationen zur Telematik im Gesundheitswesen an. Buchhandlungen und Neue Medien – spielsweise ein Lieferservice für die Kunden nach Hause oder ins Büro sowie ein ungestörter Sitz- und Lesebereich in der Buchhandlung. Deutlich macht die Studie, dass die multimedialen Innovationen im Buchsektor auch für die Kunden wichtiger werden. So wird beispielsweise die Funktion „Search inside the book“ von beiden Zielgruppen immer stärker angewendet, insbesondere bei Sach- und Fachbüchern. Auch E-Books werden genutzt, vor allem von den „Modernen Performern“ auf längeren Reisen im Zug oder im Flugzeug. Herausgeber der Studie ist der Börsenverein des Deutschen Buchhandels, Abteilung Kommunikation, PR und Marketing. Die Studie kann bei Dr. Christoph Kochhan, Referent Marketing und Marktforschung, [email protected], abgerufen oder aus dem Internet heruntergeladen werden unter: www.boer senverein.de/de/69181?rubrik=&dl_id =126960 Studie zu Kundenwünschen Der „optimale“ Buchhandel soll sich dem Leben seiner Kunden anpassen, nicht umgekehrt. Das ergibt die Studie „Buchhandlungen und Neue Medien“ vom Oktober 2006, die der Börsenverein des Deutschen Buchhandels beim Marktforschungsinstitut Sinus Sociovision (Heidelberg) in Auftrag gegeben hat. Die Studie hat das Ziel, die für den Buchmarkt strategisch wichtigen Zielgruppen „Postmaterielle“ und „Moderne Performer“ systematisch zu untersuchen, alltagsnah zu beschreiben und Handlungskonzepte für den stationären Buchhandel anzuregen. Beide Zielgruppen haben ausgeprägte Ansprüche an den stationären Buchhandel, die sich teilweise auch unterscheiden. So wünschen die beiden Kernzielgruppen ausgedehnte Öffnungszeiten, eine eigene Website des Buchladens mit dem aktuellen Bestand, Bestellmöglichkeit und individuellen Accounts, Lieferservice, umfangreiches und gut sortiertes Sortiment, sinnliche Atmosphäre, eine Kaffee-Ecke und Recherche-Terminals. Favorisieren die „Modernen Performer“ allerdings einen modernen, dynamischen Buchladen, der als Kommunikationsplattform genutzt werden kann und auch ästhetisch mit der Zeit geht, so bevorzugen die „Postmateriellen“ eher einen modernen, entschleunigten Buchladen, der eine entspannte Oase sinnlicher und geistiger Anregungen bietet und den schnellen Rhythmus des Alltags unterbricht. Schlüsselfaktoren, um aktuelle Internetkäufer dieser Milieus für den Buchhandel zu gewinnen, sind neben einer eigenen Internetseite der Buchhandlung mit dem aktuellen Angebot des Ladens bei- ZPID-Monitor 2004: Ausführlicher Ergebnisbericht Die Internationalisierung der Psychologie aus dem deutschsprachigen Bereich wird seit 1999 jährlich mit dem ZPIDMonitor dokumentiert. Die Ergebnisse für das Publikationsjahr 2004 sind Ende Oktober 2006 erschienen. Der ausführliche Ergebnisbericht kann auf den Webseiten des ZPID heruntergeladen werden. Die Ergebnisse zeigen, dass der Anteil englischsprachiger Literatur am gesamten Veröffentlichungsvolumen aus dem deutschsprachigen Bereich auch im Berichtsjahr 2004 weiter angestiegen ist und mit knapp 21 Prozent seinen bisherigen Höchststand erreicht hat. Zwischen den einzelnen Teildisziplinen der Psychologie gibt es nach wie vor Unterschiede im Internationalisierungsgrad, insbesondere zwischen den Angewandten und den Grundlagendisziplinen. Der Anteil der Zitationen von Autoren und Autorinnen aus dem deutschsprachigen Raum durch englischsprachige Quellen ist ebenfalls weiter angestiegen und liegt bei den Promovierten höher als bei den Habilitierten, was als Hinweis auf eine steigende internationale Orientierung des wissenschaftlichen Nachwuchses interpretiert werden kann. Download des ausführlichen Ergebnisberichts unter ftp://ftp.zpid.de/pub/ info/zpid-monitor.pdf Ansprechpartnerin: Dr. Gabriel Schui, ZPID – Universität Trier, 54286 Trier, Tel. +49 (0) 651 201-2910, Fax +49 (0) 651 201-2961, [email protected] 5 I n f o r m at i o n e n Professionelle Registererstellung Wie bereits in den Vorjahren hielt das Deutsche Netzwerk der Indexer (DNI) auf der Frankfurter Buchmesse 2006 sein Jahrestreffen ab – diesmal im Rahmen der Jahreskonferenz der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (DGI). Im Mittelpunkt des Treffens stand eine offene Informationsveranstaltung mit Präsentationen zu Aspekten professioneller Registererstellung, die sehr gut besucht war. Neben Gästen aus der Publikationsbranche sowie von der DGI kamen Indexer vom Niederländischen Indexer-Netzwerk sowie spezielle Gäste aus den USA und Großbritannien. Jochen Fassbender vom DNI hielt einen Vortrag über grundsätzliche Thesen zur Lage des Indexing in Deutschland. Die im internationalen Vergleich noch erhebliche Defizite aufweisende Situation im deutschsprachigen Raum wurde durch vier Bereiche beleuchtet. 1. Registererstellung beschränkt sich keineswegs nur – wie immer noch weitläufig angenommen – auf das bloße Anstreichen von Textwörtern. Eine derartige Vorgehensweise führt zu konkordanzähnlichen Verzeichnissen statt zu Registern. Es geht vielmehr darum, das Gemeinte aus dem Text in Registereinträge umzusetzen und diese mit einem Beziehungsgeflecht zu verbinden. 2. Die Erstellung von Registern durch Autoren, Herausgebern oder gar Hilfskräften – womöglich kurz vor Ende eines Projektes – hat oft erhebliche Mängel Gegründet von H.-K. Soeken † unter dem Titel Nachrichten für Dokumentation (NfD) Herausgegeben von der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI) Präsidentin: Prof. Dr. Gabriele Beger Hanauer Landstraße 151-153 D-60314 Frankfurt am Main Telefon: (0 69) 43 03 13/14 Telefax: (0 69) 4 90 90 96 [email protected] www.dgi-info.de Mitteilungsblatt des Normenausschusses Bibliotheks- und Dokumentationswesen im DIN Deutsches Institut für Normung e.V., der Fachgruppe Dokumentation im Deutschen Museumsbund und der Arbeitsgemeinschaft der Spezialbibliotheken (ASpB) Das DNI informierte auf der Frankfurter Buchmesse 2006 zur Folge, da aus Fachkreisen immer wieder bestätigt wird, dass derartige Personengruppen – im Gegensatz zu professionellen Indexern – kaum über adäquates Fachwissen zur methodischen Vorgehensweise bei der Registererstellung noch über geeignete Indexing-Programme verfügen. 3. Moderne Registererstellung muss keineswegs mit Tools wie Word oder Layout-Programmen durchgeführt werden, deren Einsatz aus Indexer-Sicht z. T. erhebliche Nachteile mit sich bringt. Der weitaus größte Teil der weltweit arbeitenden Indexer arbeitet mit so genannter Dedicated Indexing Software, welche die vielfachen Aspekte bei der Registererstellung hervorragend unterstützt. 4. Ferner wurde darauf aufmerksam gemacht, dass mit dem DNI auch im deutschsprachigen Raum eine Plattform für professionelles Indexing vorhanden ist, die sowohl hervorragende Kontakte zu den weltweit führenden angloamerikanischen Fachverbänden unterhält als auch Indexerinnen und Indexer für die Registererstellung für Fach- und Sachbücher als auch Periodika und OnlineMedien bereitstellt. Maureen MacGlashan von der britischen Society of Indexers (SI) hielt einen Vortrag über die Fachzeitschrift The Indexer, das internationale Fachblatt der Indexing-Szene schlechthin. Maureen MacGlashan ist die derzeitige Hauptherausgeberin und erläuterte die Entstehungsgeschichte und Inhalte dieser bereits 1958 gegründeten Zeitschrift sowie Dr. Dirk Lewandowski, Düsseldorf (Suchmaschinen, Internet) Prof. Dr. Wolfgang Ratzek, Falkensee/Stuttgart (Informationspraxis) Prof. Dr. Ralph Schmidt, Hamburg (Newcomer Report, Medien) deren Website www. theindexer.org, auf der ein Online-Index zur Verfügung steht. Ferner machte sie auf die im Oktober 2006 erscheinende Ausgabe aufmerksam, die als Schwerpunkt viele Aspekte des Indexing außerhalb des englischen Sprachraums beinhaltet. An dieser Ausgabe hatte auch das DNI als Gastherausgeber mitgearbeitet. Ein absolutes Debüt auf der Buchmesse war der Vortrag von Frances Lennie aus den USA, die mit CINDEX erstmals eine Dedicated Indexing Software vorstellte. Jede Person, die derartige Software kennen gelernt hat, weiß um den großen Unterschied zu der mühseligen Indexerstellung in Word. Frances Lennie zeigte, wie leicht und elegant Haupt- und Untereinträge sowie Querverweise mit CINDEX erstellt werden können. Die mit dieser Software viel effizienter erstellten Registereinträge lassen sich anschließend sogar in Word-Dokumente einbetten. Ein reichlich gedeckter Tisch mit InfoMaterial (z. B. Hefte von The Indexer, CDs mit einer Demo-Version von CINDEX) und der Hinweis, dass sowohl Mitglieder des DNI als auch die Society of Indexers Seminare zum professionellen Indexing anbieten, rundete die gelungene Veranstaltung ab. Weitere Informationen zum DNI und zur Registererstellung finden sich auf der DNI-Website www.d-indexer.org. Jochen Fassbender (DNI-Koordinator) Tel.: (04 21) 2 43 91 36, [email protected] Objektleitung Erwin König, [email protected] Telefon: (06 11) 9 31 09 41 Anzeigenservice Ursula Hensel Anzeigenservice Hermann-Schuster-Straße 39 65510 Hünstetten-Wallbach Telefon: (0 61 26) 57 08 82 Telefax: (0 61 26) 58 16 47 [email protected] Rocco Mischok Verlag Dinges & Frick GmbH Greifstraße 4 65199 Wiesbaden Telefon: (06 11) 3 96 99-60 Telefax: (06 11) 3 96 99-30 [email protected] Hinweis Die Aufsätze stellen ausschließlich die Meinung der Autoren dar. Der Inhalt wurde sorgfältig und nach bestem Wissen erarbeitet. Dennoch kann von Verlag und Redaktion eine Gewähr-leistung auf Richtigkeit und Vollständigkeit nicht übernommen werden. Die Beiträge und die grafischen Darstellungen unterliegen dem Urheberrecht. Nachdruck und Vervielfältigung jeglicher Art bedürfen der Genehmigung des Verlages und der Autoren. IMPRESSUM Redaktionsbeirat Klaus-Peter Böttger, Mülheim an der Ruhr (Berufsfragen Information und Bibliothek) Dr. Sabine Graumann, München (Informationswirtschaft) Prof. Dr. Hans-Christoph Hobohm, Potsdam (Management von Informationseinrichtungen) Prof. Dr. Rainer Kuhlen, Konstanz (Informationswissenschaft) Redaktion Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis e.V. Marlies Ockenfeld (verantwortlich) Viktoriaplatz 8 64293 Darmstadt Telefon: (0 61 51) 86 98 12 Telefax: (0 61 51) 86 97 85 [email protected] Daniel Ockenfeld (Redaktionsassistenz) Verlag Dinges & Frick GmbH Greifstraße 4 65199 Wiesbaden Postfach 1564 65005 Wiesbaden Telefon: (06 11) 9 31 09 41 Telefax: (06 11) 9 31 09 43 Bankverbindung: Wiesbadener Volksbank BLZ 510 900 00, Kto-Nr. 714 22 26 Postbank Frankfurt BLZ 500 100 60, Kto.-Nr. 267 204-606 Gestaltung Anne Karg-Brandt, Hohenstein Druck Dinges & Frick GmbH Greifstraße 4 65199 Wiesbaden Postfach 2009 65010 Wiesbaden Telefon: (06 11) 3 96 99-0 Telefax: (06 11) 3 96 99-30 Leonardo: (06 11) 93 20 79 Twist: (06 11) 9 10 23 78 [email protected] Erscheinungsweise/ Bezugspreise Sieben Hefte jährlich (Doppelausgabe September/Oktober) Jahresabonnement EUR 179,– Schüler/Studenten EUR 130,– Einzelheft EUR 30,– inkl. Versandkosten/Porto. Das Abonnement gilt für mindestens ein Jahr und kann danach bis sechs Wochen zum Ende des Bezugszeitraums gekündigt werden. Redaktionsschluss für Heft 2/2007 26. Januar Heft 3/2007 5. März Heft 4/2007 20. April Hochschule Kommunikationswege beim E-Learning – eine empirische Untersuchung an der Hochschule Darmstadt Gesa Koschinsky und Reginald Ferber, Darmstadt Mit dem Stichwort E-Learning wird ein breites Spektrum von Lehr- und Lernformen bezeichnet, die in der einen oder anderen Weise durch Rechner unterstützt werden. In vielen dieser Formen spielt der Austausch zwischen den Beteiligten eine wichtige Rolle. Daher werden E-Learning-Umgebungen häufig mit Kommunikationskomponenten wie Chats oder Foren versehen. Neben diesen Kommunikationswegen steht den Studierenden im Allgemeinen noch eine Vielzahl anderer Kommunikationsmittel zur Verfügung. In einer Befragung an der Hochschule Darmstadt (ehemals Fachhochschule) wurde untersucht, welche Kommunikationswege von den Teilnehmern und Teilnehmerinnen eines E-Learning-Kurses genutzt und bevorzugt werden. Ausgangspunkt war dabei die Beobachtung, dass die von der Lernplattform angebotenen Kommunikationsmittel im Vergleich mit anderen Kommunikationswegen nur wenig genutzt wurden. Die Ergebnisse zeigen, dass alle zehn untersuchten Kommunikationswege (vom persönlichen Gespräch über EMail oder Voice-over-IP bis zu den Kommunikationsmitteln der Lernumgebung) für den Austausch zur Online-Lehrveranstaltung genutzt wurden. Die Intensität der Nutzung variierte allerdings stark: So gaben über 90 Prozent der Befragten an, sich durch direkte Gespräche oder E-Mails ausgetauscht zu haben, wogegen nur ca. zehn Prozent die Kommunikationsmittel der E-Learning-Plattform verwendeten. Der Hauptanteil der Kommunikation fand also nicht über die von der Lernplattform angebotenen Werkzeuge statt. Die Studierenden bevorzugten die Kommunikationswege, die sie auch sonst im Alltag benutzen. Communication channels in E-Learning – a survey at the Darmstadt University of Applied Sciences The term e-learning is used for a wide range of computer supported teaching and learning methods. Many of them include some kind of interaction between persons that are involved in the learning process. To support these interactions, many elearning systems provide communication tools like announcements, messaging systems, discussion boards, or chats. It has been observed, that students often use other communication channels than the tools provided by the learning platforms. A survey at the Darmstadt University of Applied Sciences analysed the use of a number of communication channels (like those provided by a learning platform, talking face-to-face, phone calls, e-mails, or chats) by the students of an e-learning course. The results show that students used all the tools listed in the questionnaire. However, the intensity of use varied strongly: 90 percent of all participants reported to use face-to-face conversation and e-mail but only 10 percent reported to use the communication tools provided by the e-learning environment. This means that the majority of students did not use the tools provided by the e-learning platform of the course, but used different communication channels to interact. These channels were basically those that the students used in their everyday life as well. Unter E-Learning versteht man im Allgemeinen von Rechnern unterstütztes Lernen. Die Angebote und Formen reichen vom Angebot digitaler Lehrmaterialien zum Download über selbst gesteuerte Trainingsprogramme (wie ein Vokabeltrainer), aufgezeichnete oder live übertragene Vorlesungen bis zu komplexen Lernumgebungen. 58(2007)1, 7-14 Eine Mischform aus E-Learning und Präsenzlehre wird als Blended Learning bezeichnet. Hybrides Lernen oder hybride Lernarrangements bestehen allgemeiner aus einer Kombination verschiedener Lernformen. Dies kann sich neben dem Mix aus E-Learning und Präsenzveranstaltungen auch auf die Kombination verschiedener Technolo- gien (etwa Lern-CD-ROM und OnlineChat) oder auf die Kombination verschiedener Kommunikationsformen (etwa E-Mail und Forum) beziehen. Beim Computer-Supported-Cooperative-Learning (CSCL) arbeitet eine Gruppe mit Unterstützung von Rechnern an gemeinsamen Aufgaben. Befinden sich die Beteiligten nicht am selben Ort, so müssen geeignete Kommunikationsmittel gewählt werden, um den Austausch zwischen den Gruppenmitgliedern zu gewährleisten. Der Einsatz und die Auswahl der Kommunikationsmedien hängen dabei vom Konzept der Lehrveranstaltung ab. Unterschiedliche Konzepte erfordern unterschiedliche Kommunikationsmittel: Die Kommunikation kann zeitgleich (synchron) oder zeitlich versetzt (asynchron) sein, außerdem kann sie zwischen zwei oder zwischen mehreren Personen stattfinden. Als synchrone Kommunikationsmittel stehen Telefon, Voice-over-IP, Videokonferenzen und Chats (auch Instant-Messaging) zur Verfügung, als asynchrone Mittel EMail und Diskussionsforen aber auch Faxe oder Briefe. Chat, Videokonferenzen sowie Telefonate und Audiokonferenzen über das Internet (Voice-over-IP) werden hauptsächlich zeitgleich durchgeführt. Telefon, Voice-over-IP und Videokonferenzen ähneln dabei dem direkten Gespräch: Die Beteiligten kommunizieren und interagieren in Echtzeit über gesprochene Sprache miteinander. Beim Chat tauschen sich die Teilnehmer und Teilnehmerinnen über kurze Textnachrichten aus. Dabei senden und empfangen sie ihre Botschaften unmittelbar nacheinander. Alle vier Kommunikationsformen sind in erster Linie Medien der synchronen Individualkommunikation, allerdings ermöglichen die modernen Technologien auch den Austausch in Gruppen oder – durch Mailbox-Funktionen – die Nachrichtenübermittlung mit zeitlicher Verzögerung. 7 Ko m m u n i k at i o n b e i m E - L e a r n i n g E-Mail, Brief und Fax dienen dem schriftlichen, asynchronen Nachrichtenaustausch. Während beim Brief der Postweg Zeit in Anspruch nimmt, können E-Mail und Fax sofort zugestellt werden. Sind hierbei Sender und Adressat gleichzeitig online, so kann eine rasche Abfolge von Nachrichten auch den Charakter von synchroner Kommunikation haben. Werden Nachrichten an mehrere Adressaten verschickt, so spricht man von Rundschreiben oder, bei E-Mail, von Mailinglisten. Mailinglisten werden zusammen mit webbasierten OnlineForen als Diskussionsforen bezeichnet. Die Rollen lassen sich allerdings nicht immer eindeutig trennen. Eine direkt beantwortete, kurze E-Mail unterscheidet sich nicht sonderlich von einem längeren Beitrag in einem Chat. Ein Forum kann sowohl synchron als auch asynchron verwendet werden. E-Learning am Fachbereich Informations- und Wissensmanagement An der Hochschule Darmstadt bietet der Fachbereich Informations- und Wissensmanagement (IuW) die E-Learning-Veranstaltung „Klassifikation“ für das erste und, darauf aufbauend, „Indexieren und Thesaurus“ für das zweite Fachsemester an. Die Kurse werden als hybride Lernarrangements, also als Mix aus verschiedenen Lernformen, verschiedenen Lernorten und damit auch verschiedenen Kommunikationsformen durchgeführt. Zum Einsatz kommen Einzelarbeit/Selbststudium, Gruppenarbeit, Übungsaufgaben, Präsenzphasen an der Hochschule mit direkten Gesprächen sowie verschiedene Formen technisch-vermittelter Kommunikation. Die Lernmaterialien werden auf der Lernplattform ELAT (Environment for Learning and Teaching)1 bereitgestellt. ELAT wurde vom IGDV (damals: Institut für graphische Datenverarbeitung; heute: Zentrum für Advanced Learning) der Hochschule Darmstadt im Rahmen des BMBF-geförderten Projektes „2MN – Module für die multimediale netzbasierte Hochschullehre“ entwickelt. Seit 2004 nutzt der Fachbereich zur Organisation aller Veranstaltungen das hochschulweite elektronische Lern- und Kursverwaltungssystem Blackboard2. Als die Veranstaltung „Klassifikation“ im Wintersemester 2002/03 zum ersten 1 2 3 4 8 Informationen zu ELAT unter www.elatnet.de. Informationen zu Blackboard unter www. blackboard.com. Im WWW unter http://fsiuw.sdi.h-da.de/ erreichbar. Diese Aussage stützt sich auf interne Daten des IGDV. Mal als Online-Lehrveranstaltung angeboten wurde, waren die Kommunikationsmodule in ELAT noch nicht fertig. Als Ersatz wurde ein externes Forum (das Schwarze Brett) bereitgestellt. Außerdem konnten Fragen an die Betreuer per E-Mail gestellt werden. Auch die Übungsaufgaben wurden über EMail abgegeben. Es zeigte sich, dass die meisten Studierenden die angebotenen Kommunikationsmittel – von einem ersten Ausprobieren abgesehen – nicht nutzten. Die Teilnehmer und Teilnehmerinnen des Kurses sahen sich fast täglich bei anderen Lehrveranstaltungen an der Hochschule und konnten sich deshalb in persönlichen Gesprächen austauschen. Die Gruppenaufgaben wurden teils in persönlichen Treffen, teils von zu Hause aus bearbeitet. Wenn an verschiedenen Orten gearbeitet wurde, waren E-Mail, Chats wie ICQ oder das Telefon die bevorzugten Kommunikationswege. In den Veranstaltungen der folgenden Jahre standen zwei in die Lernumgebung integrierte Kommunikationswerkzeuge zur Verfügung: ELAT: Forum und ELAT: Message. In ELAT: Forum können zu vorgegebenen Themen Beiträge eingestellt und beantwortet werden. Mit ELAT: Message können Nachrichten an Einzelne oder Gruppen verschickt werden. Wenn der Adressat oder die Adressatin im System angemeldet ist, wird die Nachricht sofort zugestellt, wenn nicht, wird sie beim nächsten Login angezeigt und in einer Messagebox gespeichert. Trotz dieser Möglichkeiten beobachteten die Betreuenden (Tutorin und Professor), dass sich die Studierenden mehrheitlich per EMail an sie wandten, dass fast alle Einträge im ELAT: Forum von den Betreuenden stammten und dass insgesamt höchstens zehn Studierende die wöchentlich angebotene Online-Sprechstunde in ELAT besuchten. Für allgemeine Diskussionen und Fragen wurde häufiger das Forum des Webportals der studentischen Fachschaft (genannt IuW-Portal 3) genutzt als das ELAT: Forum. Das IuW-Portal ist für die Lehrenden im Allgemeinen nicht zugänglich. Durch die Ergebnisse der bisherigen, internen Evaluationen der Lernumgebung durch das IGDV wurden diese Beobachtungen bestätigt: Rund die Hälfte der Studierenden gab an, die in ELAT bereitgestellten Chats und Foren nicht genutzt zu haben.4 Der Fokus der ELAT-Evaluationen lag auf der Nutzung und Bewertung der Lernplattform. Es wurden nur die in die Lernplattform integrierten Kommunikationswerkzeuge untersucht. Bei der In- terpretation der Ergebnisse blieb die Frage offen, ob sich die Studierenden gar nicht an der Lehrveranstaltung beteiligten (sich also weder mit den Betreuenden noch untereinander austauschten) oder ob sie dazu andere Wege benutzten als die von der Lernplattform angebotenen. Da ELAT an einer Präsenzhochschule parallel zu anderen Veranstaltungen eingesetzt wird, stehen die Teilnehmer und Teilnehmerinnen der Online-Kurse beispielsweise auch in persönlichem Kontakt. Bei der hier vorgestellten Befragung wurden daher – im Unterschied zu den ELAT-Evaluationen – nicht nur die von der Lernplattform bereitgestellten Kommunikationsmittel berücksichtigt, sondern auch weitere Kommunikationskanäle, die den Studierenden zur Verfügung standen wie beispielsweise das IuW-Portal oder das Telefon. Zielsetzung der Befragung Mit der aktuellen Untersuchung sollte also die Frage beantwortet werden: Auf welchen Wegen und mit welchen Hilfsmitteln kommunizieren die Teilnehmer und Teilnehmerinnen eines ELearning-Kurses? Ausgangspunkt war die Annahme, dass die von der Lernplattform angebotenen Kommunikationswerkzeuge im Vergleich mit anderen Kommunikationswegen nur wenig genutzt werden. Diese allgemeine Fragestellung wurde durch folgende Fragen konkretisiert: ■ ■ ■ ■ ■ ■ ■ Welche Kommunikationswege nutzen die Studierenden zur Kommunikation im Rahmen der Online-Lehrveranstaltung? Wie häufig werden die verschiedenen Kommunikationsformen verwendet? Falls eine Kommunikationsform nicht genutzt wird, warum nicht? Für wie geeignet halten die Studierenden die verschiedenen Kommunikationswege und -mittel für die Kommunikation in einem E-Learning-Kurs und wieso? Welche Kommunikationsmittel werden zur Kommunikation mit welchen Kommunikationspartnern verwendet? Gibt es bevorzugte Kommunikationskanäle zum Austausch mit den verschiedenen an der Lehrveranstaltung Beteiligten? Welche Formen werden für welche Themen verwendet? Gibt es bevorzugte Kommunikationskanäle für unterschiedliche Inhalte? Welche generellen Nutzungsgewohnheiten haben die Studierenden hinsichtlich der verschiedenen Kommunikationsformen? 58(2007)1, 7-14 Ko m m u n i k at i o n b e i m E - L e a r n i n g ■ Entspricht die Nutzung der Kommunikationsmittel im Rahmen des Kurses den generellen Nutzungsgewohnheiten der Studierenden? ■ Entspricht die Nutzung der Kommunikationsmittel im Rahmen des Kurses der Bewertung der Kommunikationsmittel durch die Studierenden? Werden die Medien am häufigsten genutzt, die als am besten geeignet angesehen werden? ■ Werden die Kommunikationsformen am häufigsten genutzt, bei denen es am wenigsten erfolglose Kommunikationsversuche und so die beste Erreichbarkeit der gewünschten Kommunikationspartner gibt? Planung und Durchführung der Untersuchung Um festzustellen, welche Kommunikationsformen die Teilnehmer und Teilnehmerinnen des untersuchten E-LearningKurses verwenden, wurde ein Fragebogen5 mit 13 geschlossenen und sechs offenen Fragen in Papierform entwickelt. Der Fragebogen bestand aus drei Themenblöcken: ■ Generelle Nutzung der Kommunikationsformen (privat und/oder für das Studium) ■ Nutzung der Kommunikationsformen für die Online-Lehrveranstaltung ■ Demographische Daten Weiterhin wurden zehn Kommunikationsformen, die den Kursteilnehmern und -teilnehmerinnen zur Verfügung standen, ausgewählt und im Fragebogen berücksichtigt. Dies waren: ■ Allgemeine Kommunikationsformen: das direkte Gespräch, Telefon, Voice-over-IP, E-Mail und Chat ■ Kommunikationsmittel des IuW-Portals: die Nachrichtenfunktion IuW-Portal: private Nachricht, mit der persönliche Nachrichten an andere Mitglieder verschickt werden können und der Forenbereich IuW-Portal: Forum ■ Kommunikationsmodule der Lernplattform – ELAT: Message und ELAT: Forum ■ Die E-Mail-Funktion des Blackboard-Servers (E-Mail über BB), mit der eine Nachricht, die mit Blackboard erstellt wurde, als E-Mail an Empfänger aus dem Kurs verschickt wird Befragt wurde die Teilnehmer und Teilnehmerinnen des Kurses Indexieren und Thesaurus im Sommersemester 2006. Um eine hohe Rücklaufquote zu erzielen, wurde die Befragung innerhalb eines Präsenztermins an der Hochschule Darmstadt durchgeführt. Die Studierenden wurden im Vorfeld mit einem Ankündigungsschreiben über die Untersuchung informiert und um rege Teilnahme gebeten. Von den 68 Teilnehmern und Teilnehmerinnen des betrachteten Kurses waren 50 Studierende anwesend und beantworteten den ausgeteilten Fragebogen. Davon waren 19 Personen männlich (38 Prozent) und 30 weiblich (60 Prozent). Eine Person machte zum Geschlecht keine Angabe. Das Alter der Befragten lag zwischen 19 und 43 Jahren, der Mittelwert (arithmetisches Mittel) lag bei rund 23 Jahren. Ergebnisse der Befragung Allgemeines Kommunikationsverhalten Insgesamt gaben die Befragten an, alle untersuchten Kommunikationsformen für den Austausch in der E-Learning-Veranstaltung genutzt zu haben. Allerdings unterschieden sich die Nutzungsintensitäten der einzelnen Kommunikationsfor5 Den Fragebogen finden Sie unter www.iuw.h-da.de/fb-elearning.pdf. 58(2007)1, 7-14 9 Ko m m u n i k at i o n b e i m E - L e a r n i n g men stark: Die meistgenutzten Kommunikationsformen waren (ob nach Anteil der Nutzer oder nach Anzahl der geführten Gespräche beziehungsweise verfassten Nachrichten): das direkte Gespräch, E-Mail und Chat. 98 Prozent der Befragten gaben an, direkte Gespräche geführt zu haben, 92 Prozent gaben an, E-Mail verschickt zu haben und 68 Prozent der Befragten tauschten sich im Chat aus. Aus den Angaben lässt sich schließen, dass in den letzten 14 Tagen vor der Erhebung mindestens 307 direkte Gespräche6 und 160 ChatGesprächen geführt und mindestens 240 E-Mails ausgetauscht wurden. Dem steht die Menge von höchstens 20 Gesprächen über ELAT: Message7 und 30 Beiträge im ELAT: Forum gegenüber: Hier gaben nur acht Prozent der befragten Personen an ELAT: Message genutzt zu haben und 12 Prozent Beiträge in ELAT: Forum geschrieben zu haben (siehe Abbildung 1). Die Angaben der Befragten darüber, wie häufig sie die Kommunikationsmittel ELAT: Forum und IuW-Portal: Forum in den letzten 14 Tagen vor der Befragung genutzt hatten, wurden mit der Anzahl der tatsächlichen Einträge verglichen. Dabei zeigt sich, dass sich aus den Angaben der Befragten deutlich mehr Einträge ergeben, als tatsächlich gemacht wurden. Das Verhältnis der Häufigkeiten zwischen den verschiedenen Kommunikationswegen stimmt aber bei den Angaben der Befragten und den Anzahlen in den Foren in etwa überein. Die Ergebnisse bestätigen die Grundannahme der Untersuchung: Der größte Teil des Austausches fand nicht über die von der Lernplattform angebotenen Werkzeuge statt. Gerade beim Austausch zwischen Studierenden stand die Kommunikation über direkte Gespräche, E-Mail, Chat und Telefon im Plattform immer weniger genutzt zu haben, weil es oft technische Probleme gab. 29 Personen gaben als Grund für die Nichtnutzung der Lernplattform an, dass das System nicht funktionierte. Wenn die Lernplattform funktionierte, wurde sie als langsam, umständlich und unübersichtlich beschrieben. Als weiterer Grund wurde genannt, dass selten jemand angemeldet gewesen sei. So seien mögliche Kommunikationspartner über die Lernplattform schlecht zu erreichen. Die Wahrscheinlichkeit, auf Beiträge oder Nachrichten eine Antwort zu bekommen wurde als gering eingeschätzt. ELAT als Kommunikationsplattform wurde deshalb als wenig verlässlich empfunden. Die Studierenden bevorzugten dagegen Kommunikationswege, die einen direkten Austausch ermöglichen und sich durch eine hohe Erreichbarkeit der gewünschten Kommunikationspartner sowie Einfachheit und Unkompliziertheit auszeichnen. Dies äußert sich auch in der Beurteilung der Kommunikationsformen in Bezug auf ihre Eignung für die Kommunikation in einem E-Learning-Kurs: Am besten bewertet wurden das direkte Gespräch, E-Mail und Chat. Diese Kommunikationsformen erhielten von mindestens der Hälfte der Befragten die Note sehr gut oder gut. Am schlechtesten wurden IuW-Portal: private Nachr i c h t , E L AT: M e s sage und ELAT: Forum beur teilt (siehe Abbildung 2). Abbildung 1: Die Studierenden wurden gefragt, wie viele Nachrichten beziehungsweise Gespräche sie in den letzten 14 Tagen im Rahmen der Lehrveranstaltung verfasst bzw. geführt haben. Fast alle Befragten tauschten sich in direkten Gesprächen aus (98 Prozent) und verfassten E-Mails (92 Prozent). Nur wenige schrieben Beiträge im ELAT: Forum (zwölf Prozent) oder ELAT: Messages (acht Prozent). 6 7 Zur Ermittlung der Mindestanzahl wurde die Anzahl der Antworten pro Kategorie mit der Mindestanzahl an Gesprächen/Nachrichten der entsprechenden Kategorie multipliziert. Dann wurden die Produkte für eine Kommunikationsform summiert. Hier wurde die mögliche Höchstanzahl der Nachrichten berechnet. Dies war möglich, da keiner der Befragten die nach oben offene Kategorie „mehr als 10 Gespräche/Beiträge“ gewählt hatte. Zur Berechnung der Höchstanzahl wurde die Anzahl der Antworten pro Kategorie mit der Höchstanzahl an Gesprächen bzw. Nachrichten der entsprechenden Kategorie multipliziert. Dann wurden die Produkte für eine Kommunikationsform summiert. 10 Vordergrund. Die Kommunikationsmodule der betrachteten Lernplattform – ELAT: Message und ELAT: Forum – wurden am wenigsten frequentiert. Die Gründe, die die Befragten für die Nichtnutzung angaben und die Beurteilungen zeigen, dass dies nicht unbedingt daran liegt, dass die Studierenden die Plattform ELAT und ihre Kommunikationswerkzeuge grundsätzlich ablehnten. Vielmehr scheinen die Befragten im Verlauf der Lehrveranstaltung die Kommunikationsmittel der Zielgruppen- und inhaltsspezifisches Kommunikationsverhalten Im Fragebogen wurde die Anzahl der Kommunikationen sowohl nach Kommunikationspartner als auch nach Inhalt der Gespräche beziehungsweise Nachrichten unterschieden. Die Antworten zeigen, dass ein deutlicher Schwerpunkt auf dem Austausch mit anderen Studierenden lag. Die Tatsache, dass die befragten Studierenden andere Lehrveranstaltungen an der Hochschule Darmstadt gemeinsam besuchten, könnte dazu geführt haben, dass Fragen und Probleme erst einmal untereinander besprochen wurden. 58(2007)1, 7-14 Ko m m u n i k at i o n b e i m E - L e a r n i n g Abbildung 2: Die Studierenden wurden gefragt, welche Kommunikationswege sie als geeignet für die Kommunikation innerhalb eines E-Learning-Kurses wie „Indexieren und Thesaurus“ empfinden. Das direkte Gespräch, E-Mail und Chats wie ICQ wurden von mehr als der Hälfte der Befragten als gut geeignet (Note eins oder zwei) empfunden. ELAT: Message bekam von 58 Prozent der Befragten eine schlechte Note (Note fünf oder sechs); ELAT: Forum von 50 Prozent. Da viele der Studierenden keine oder fehlerhafte Wertungen abgaben, werden diese hier auch dargestellt. Dafür spricht auch, dass das direkte Gespräch bei der Kommunikation mit den Kommilitonen den höchsten Stellenwert einnimmt. Während der betrachteten 14 Tage wurde außerdem eine Gruppenaufgabe bearbeitet. Auch dies kann ein Grund für den intensiven Austausch zwischen den Studierenden sein. Auffallend ist auch der hohe Anteil an Studierenden, die in den letzten 14 Tagen E-Mail-Kontakt mit den Tutoren hatten (86 Prozent). Er lässt sich auch auf die Abgabe der Gruppenübungen zurückführen, die per E-Mail an die Tutoren gesch i c k t we r d en mussten. Trotzdem liegt die Vermutung nahe, dass auch Fragen an die Tutoren am häufigsten per EMail gestellt wurden. Durch ihre Funktion als Betreuende der Lehrveranstaltung nutzten die Tutoren die Kommunikationswerkzeuge von ELAT: So hielten sie zum Beispiel die wöchentliche Online-Sprechstunde über ELAT: Message ab. Deshalb kommunizierten deutlich mehr Studierende über ELAT: Message mit ihren Tutoren (14 Prozent) als mit ihren Kommilitonen (vier Prozent). Dies ist auch bei der Nutzung der Kommunikationsformen zum Austausch mit den Professoren zu beobachten. Hier gaben 16 Prozent der Befragten an, mit ihren Professoren über ELAT: Forum in Kontakt gestanden zu haben; acht Prozent tauschten mit ih r e m P rof es s or Messages in ELAT aus. Dabei muss angemerkt werden, dass nur einer der Professoren ELAT intensiver nutzte. Tr o t z d e m s t a n d auch bei der Kommunikation mit den Professoren der EMail-Kontakt deutlich im Vordergrund (siehe Abbildung 3). Als Gründe für die Kommunikation wurden meist inhaltliche Fragen oder Organisatorisches angegeben. Das ist nicht überraschend, da in den 14 Tagen vor der Befragung eine Gruppenaufgabe bearbeitet wurde, wozu eher inhaltliche oder organisatorische Fragen geklärt werden mussten als technische. Abbildung 3: Bei der Frage, welche Kommunikationsmittel die Studierenden in den letzten 14 Tagen zur Kommunikation mit den verschiedenen Beteiligten der Lehrveranstaltung nutzten, stellte sich heraus, dass ein Schwerpunkt auf dem Austausch zwischen Studierenden lag. Die am meisten frequentierten Kommunikationsmittel sind in allen Fällen E-Mail und das direkte Gespräch. Dargestellt ist der Anteil der Antworten „oft“,„mittel“ und „wenig“. Die übrigen Befragten haben die vierte mögliche Antwort „nie“ angekreuzt. 58(2007)1, 7-14 11 Ko m m u n i k at i o n b e i m E - L e a r n i n g Weiter ist anzunehmen, dass technische Schwierigkeiten mit der Lernumgebung eher zu Beginn der Lehrveranstaltung gelöst wurden oder dass sich die Studierenden zum Zeitpunkt der Befragung damit abgefunden hatten, dass sie sich nicht lösen ließen. Zusammenhänge zwischen Einzelergebnissen Neben den Einzelergebnissen wurden die Zusammenhänge zwischen den Ergebnissen einiger Fragen untersucht. Der Zusammenhang zwischen der allgemeinen Nutzung eines Kommunikationswegs und seiner Nutzung für die Online-Lehrveranstaltung zeigt sich vor allem bei den Kommunikationsmitteln, die wenig genutzt wurden: Kommunikationsformen, die generell selten genutzt wurden, wurden in 98 Prozent der Fälle auch für den Austausch zur Veranstaltung „Indexieren und Thesaurus“ wenig verwendet. Umgekehrt bedeutet eine häufige generelle Nutzung noch nicht, dass der entsprechende Kommunikationsweg auch für die Online-Lehrveranstaltung häufig genutzt wird. überwog die seltene Nutzung (68 Prozent der Fälle) im Rahmen der Veranstaltung “Indexieren und Thesaurus“. Eine positive Beurteilung eines Kommunikationsmittels scheint also eine Voraussetzung für seine Nutzung zu sein – sie bedeutet aber nicht zwingend, dass es auch tatsächlich genutzt wird. Zwischen der Anzahl der verfassten Nachrichten beziehungsweise der geführten Gespräche und der Erreichbarkeit und Antwortwahrscheinlichkeit der anderen Beteiligten an der Lehrveranstaltung über die Kommunikationsformen gibt es dagegen einen Zusammenhang. Allerdings ist der Zusammenhang auch hier auf der negative Seite stärker ausgeprägt: Sind die Kommunikationspartner über eine Kommunikationsform schlecht zu erreichen, wird sie in 91 Prozent der Fälle nur selten genutzt. Sind die Kommunikationspartner über eine Kommunikationsform gut zu erreichen, wird sie in 59 Prozent der Fälle häufig genutzt (siehe Abbildung 4). aber nicht über die von der Lernplattform bereitgestellten Werkzeuge – ELAT: Message und ELAT: Forum – ablief. Die hauptsächlich benutzten Kommunikationswege waren solche, die von den Befragten positiv eingeschätzt und auch außerhalb der Veranstaltung häufig genutzt wurden. Es gibt grundsätzlich zwei Möglichkeiten, auf diese Ergebnisse zu reagieren: ■ Konzentration der Kommunikation auf die Lernplattform: Dazu muss der Austausch von den anderen Kommunikationswegen weg und auf die Lernplattform gelenkt werden. ■ Orientierung an den Gewohnheiten der Studierenden: Die am weitesten verbreiteten Kommunikationsformen werden für die Kommunikation im Kurs gewählt. In beiden Fällen sollte die Anzahl der genutzten Kommunikationsmittel reduziert und vereinheitlicht werden, damit sich die Studierenden von der Vielzahl Als Gründe für eine geringe Nutzung kommen nach dem Modell der Medienwahl von Scholl, Pelz & Rade (1996) 8 die Einstellung zu einem Kommunikationsmedium sowie die Erreichbarkeit und Antwortbereitschaft der Kommunikationspartner und partnerinnen über einen Kommunikationsweg in Frage. Ein Zusammenhang zwischen der Nutzung zur Kommunikation im Rahmen des betrachteten Kurses und der Medieneinstellung der Befragten konnte in der Untersuchung Abbildung 4: Diese Grafik zeigt an drei Beispielen, wie sich die Nutzungsintensitäten der Kommunikationsmittel für die unnicht bestätigt wertersuchte Veranstaltung verteilen, wenn sie mit anderen Angaben in Beziehung gesetzt werden. Dazu wurden die Angaben, für die es mehr als zwei Antwortmöglichkeiten gab, zusammengefasst. Der Doppelbalken ganz links zeigt zum Beispiel, dass den: Schlecht beur57 Prozent der Kommunikationsformen, die generell häufig genutzt wurden, auch für die E-Learning-Veranstaltung häufig teilte Kommunikativerwendet wurden, der Rest (43 Prozent) wurde selten für die Veranstaltung genutzt. Der zweite Doppelbalken von links onsformen wurden gibt an, dass nur zwei Prozent der Kommunikationsmittel, die generell selten benutzt wurden, in der Veranstaltung häufig zwar in 98 Prozent genutzt wurden, während alle anderen (98 Prozent) auch in der Veranstaltung selten zum Einsatz kamen. der Fälle auch nur selten für den Ausan Kommunikationskanälen nicht übertausch in der Lehrveranstaltung verfordert fühlen (Anmerkung aus einem wendet, aber auch für die als geeignet der Fragebögen: „Man verliert den beurteilten Kommunikationsformen Die Befragung zeigt, dass zwar reger Überblick, wenn zu viele KommunikatiAustausch zwischen den Beteiligten onsmöglichkeiten vorhanden sind, man 8 Scholl, W., Pelz, J. & Rade J. (1996): Compuder E-Learning-Veranstaltung stattsollte sich auf wenige konzentrieren“). tervermittelte Kommunikation in der Wissenfand, der Großteil der Kommunikation schaft. – Münster: Waxmann. Diskussion und Folgerungen 12 58(2007)1, 7-14 Ko m m u n i k at i o n b e i m E - L e a r n i n g Außerdem sollten klare Absprachen über die Nutzung der Kommunikationswege bestehen, etwa, dass kurzfristige Terminänderungen immer per E-Mail mitgeteilt werden. Im untersuchten Kurs gab es solche Absprachen nicht oder sie wurden nicht immer eingehalten, was zum Teil für Verunsicherung und Unmut unter den Studierenden sorgte. Angaben zu den offenen Fragen und Anmerkungen der Befragten lassen vermuten, dass die Studierenden nicht grundsätzlich abgeneigt waren, die Kommunikationsmodule der Lernplattform zu benutzen. Sie scheinen eher von der Lernplattform enttäuscht zu sein, da sie zu oft nicht erreichbar war und als nicht „intuitiv bedienbar“ angesehen wurde. ELAT verwendet einen nicht browserbasierten Java-Client, der auch nicht im „browserüblichen“ Look-and-Feel erscheint. Neben Schwächen wie zu langen Reaktionszeiten und teilweise umständlicher Bedienung, dürften auch das ungewohnte Erscheinungsbild und die ungewohnten Bedienelemente zu der schlechten Bewertung durch die Befragten beigetragen haben. Die Studierenden erwarten (zu Recht), dass eine Plattform hohe Standards an Verfügbarkeit, Funktionsumfang, Nutzbarkeit und Übersichtlichkeit erfüllt. Sie erwarten vermutlich auch, dass sie dem üblichen Look-and-Feel browserbasierter Anwendungen folgt. Wenn man die Kommunikation auf die Lernplattform konzentrieren will, muss sie diese Erwartungen erfüllen. Wie die Befragung gezeigt hat, garantiert eine gute Bewertung eines Kommunikationskanals aber noch nicht, dass er auch häufig genutzt wird. Verbesserungen der Verfügbarkeit und Bedienung sind also eine notwendige aber nicht unbedingt eine hinreichende Bedingung für die Nutzung der Kommunikationswerkzeuge der Lernumgebung. Um die Kommunikation auf die Werkzeuge der Plattform zu konzentrieren, müssten die Betreuenden sie konsequent darüber abwickeln. Im vorgestellten Fall „Indexieren und Thesaurus“ müsste vor allem der E-Mail-Kontakt vermieden werden. Das hieße auch, dass Fragen oder Probleme, die per E-Mail an die Betreuer herangetragen werden, ausschließlich über die Lernplattform beantwortet werden sollten. Fragen und Antworten zum Inhalt oder zur Organisation sollten für alle Studierenden zugänglich gemacht und private oder persönliche Anliegen könnten über ELAT: Message beantwortet werden. Auch „offizielle“ An- 14 kündigungen sollten nur über die Lernplattform veröffentlicht werden. Die Untersuchung hat auch gezeigt, dass die Befragten vor allem die Kommunikationswege nutzen, die sie auch sonst verwenden. Das ist nachvollziehbar, da eine Vielzahl unterschiedlicher Kommunikationsmittel für unterschiedliche Veranstaltungen oder Zwecke einen erhöhten Aufwand bedeuten und tendenziell die Zeiten, in denen man auf einem der Kanäle ansprechbar ist, verringern. Wenn also die Kommunikation auf die Mittel der Lernumgebung konzentriert werden soll, sollte die Anzahl der Lernumgebungen, die die Studierenden nutzen, möglichst klein gehalten werden. Eine Möglichkeit ist die Nutzung eines Systems für alle Belange des Studiums. Für den Fachbereich IuW käme hierfür das Blackboard-System in Frage, das zurzeit auch zur Verwaltung reiner Präsenzveranstaltungen genutzt wird. Die zweite oben genannte mögliche Reaktion auf die Ergebnisse der Befragung besteht darin, sich an den Gewohnheiten der Studierenden zu orientieren. Sie geht davon aus, dass die Studierenden über die notwendigen Kommunikationsmittel verfügen und diese ihren Vorlieben und Bedürfnissen angepasst haben. Eine Lernplattform sollte dann keine eigene Kommunikationskomponente anbieten, sondern dafür sorgen, dass die vorhandenen Kommunikationsmittel im Rahmen des Kurses effektiv genutzt werden können. Das hieße zum Beispiel, dass die Lernumgebung kein eigenes System zum Verschicken von Nachrichten anbietet, sondern die E-Mail-Adressen der Teilnehmenden in geeigneter Weise zur Verfügung stellt. Eigene Kommunikationsmittel wären dann nur noch für klar umrissene und sehr spezifische Aufgaben sinnvoll, die nicht mit vorhandenen Mitteln gelöst werden können. Eine solche Kombination von Standardlösungen für allgemeine Aufgaben und spezifischen eigenen Lösungen für Aufgaben, die nicht mit Standardanwendungen gelöst werden können, sichert zum einen, dass Standardlösungen auf dem Stand der Technik eingesetzt werden können, zum anderen setzt sie Kapazitäten für die Entwicklung spezifischer Lösungen frei. E-Learning, Hochschulausbildung, Empirische Untersuchung, Hochschule Darmstadt, Kommunikationssystem, Lernen, Benutzerforschung D i e A u to r e n Gesa Koschinsky betreute als Tutorin verschiedene ELearning-Veranstaltungen an der Hochschule Darmstadt. Sie schloss im August 2006 mit ihrer hier vorgestellten Diplomarbeit zum Thema „Kommunikationswege im E-Learning – Erhebung zur Nutzung durch Studierende an der Hochschule Darmstadt“ ihr Studium des Informationsund Wissensmanagements ab. Die Untersuchung wurde von Prof. Reginald Ferber und Prof. Gerhard Knorz betreut und durch das IGDV unterstützt. E-Mail: [email protected] Reginald Ferber schloss an der Uni Marburg ein Mathematikstudium mit Diplom und Promotion über zellulare Automaten ab. Nach fünfjähriger Tätigkeit am Fachgebiet kognitive Psychologie der Uni Paderborn arbeitete er von 1994-1999 am Institut für Integrierte Publikationsund Informationssysteme der GMD in Darmstadt zu den Themen Information Retrieval, Knowledge Discovery und digitale Bibliotheken und hielt Vorlesungen dazu an der TUDarmstadt. Nach einer zweieinhalbjährigen Beschäftigung als Projektmanager eines E-Learning EU-Projekts an der FernUni Hagen ist er seit 2004 Professor mit dem Lehrgebiet Wissensrepräsentation am Fachbereich Informations- und Wissensmanagement der Hochschule Darmstadt. Er ist Autor des Buchs „Information Retrieval -Suchmodelle und Data-Mining-Verfahren für Textsammlungen und das Web“, das 2003 im dpunkt-Verlag erschienen ist. Mehr unter: http://information-retrieval.de/ferber Hochschule Darmstadt Campus Dieburg Fachbereich Informationsund Wissensmanagement Max-Planck-Straße 2 64807 Dieburg [email protected] 58(2007)1, 7-14 Der neue Studiengang „Information Science and Engineering/ Informationswissenschaft“ Berthold Meier und Christian Otto, Darmstadt Ausgelöst durch den Bologna-Prozess ist nun auch an der Hochschule Darmstadt, nach über 21 Jahren Diplomausbildung von Informationswirten, mit Beginn des Wintersemesters 2006/07 eine neue Ära der Hochschulausbildung im Informationsbereich eingeläutet worden. In einer gut zwei Jahre andauernden Planungsphase – verbunden mit intensiven Curriculumsdiskussionen – ist es dem Fachbereich Informations- und Wissensmanagement (IuW) gelungen, die bewährte „Darmstädter Tradition“ einer starken ingenieurwissenschaftlichen Ausrichtung von Informationsspezialisten mit den neuen Bachelor- und Master-Studienangeboten noch stärker zu profilieren. Die konsekutiven Studiengänge wurden im September 2006 erfolgreich akkreditiert. Auch in organisatorischer Hinsicht wird der bisherige Fachbereich IuW in den kommenden Monaten tief greifende Veränderungen erfahren: Zum 1. Januar 2007 sind die beiden am Campus Dieburg bisher vom Fachbereich Sozialund Kulturwissenschaften (SuK) angebotenen Studiengänge Onlinejournalismus sowie Wissenschaftsjournalismus als zusätzliche Studienangebote in den Fachbereich IuW integriert worden. Zum 1. September 2007 wird der Fachbereich IuW mit dem bisherigen Fachbereich Media zu einem neuen gemeinsamen Fachbereich fusionieren. Studierende der Hochschule Darmstadt können dann am Campus Dieburg ein wohl einmaliges und sehr breit gefächertes Studienangebot „unter einem Dach“ wahrnehmen, das sich von Journalistik und Publizistik über Mediengestaltung, Medientechnik und Medienproduktion bis hin zu Informationswissenschaft und Wissensmanagement erstreckt. Gegenseitige Synergien und die Konzeption neuer Kursangebote sind da natürlich in Zukunft nicht ausgeschlossen! 58(2007)1, 15-20 Studieren im Grünen – Blick auf den Eingangsbereich des großzügig angelegten Campus Dieburg der Hochschule Darmstadt, links: Bibliotheksgebäude, rechts: Aula Interdisziplinär angelegtes Studienprogramm mit Fokus auf informationstechnischer Kompetenz Das Studienprogramm des Bachelorund Masterstudiengangs bildet Spezialisten aus, die für den professionellen und kompetenten Umgang mit Information und Wissen sowohl in der Privatwirtschaft als auch in staatlichen wie auch nicht-staatlichen Organisationen verantwortlich sind. Das Studium vermittelt die klassischen und aktuellen Modelle, Verfahren und Systeme, mit denen Wissen strukturiert, organisiert, gespeichert, wieder gefunden und weiterverwendet werden kann. Dabei wird ein deutlicher Schwerpunkt auf die Planung, Gestaltung, Entwicklung, Einführung und Pflege von Informationssystemen und Informationsdiensten gelegt. Das neue informationswissenschaftliche Studienangebot stellt sich im Kurzüberblick wie folgt dar: ■ Bachelor-Studiengang Information Science and Engineering/Informationswissenschaft mit dem Abschluss Bachelor of Engineering. Dreijähriger Studiengang mit den Studienrichtungen Bibliotheksmanagement, Medieninformation, Wirtschaftsinformation oder einem individuell zusam- mengestellten Studienprofil. Beginn jeweils zum Wintersemester möglich, erstmals zum WS 2006/07. Kapazität: 80 Studienplätze ■ Master-Studiengang Information Science and Engineering/Informationswissenschaft mit dem Abschluss Master of Engineering. Zweijähriger konsekutiver Studiengang, der einen entsprechenden grundständigen informationswissenschaftlichen Abschluss voraussetzt. Es können individuelle Qualifikationsprofile aus einem inhaltlich breiten Angebot zusammengestellt werden. Beginn jeweils im Sommer- oder Wintersemester, erstmals zum Sommersemester 2007. Kapazität: 40 Studienplätze Qualifizierter Umgang mit Wissen erfordert gute Allgemein- und Grundkenntnisse in dem Fachgebiet, in dem aktiv gearbeitet wird. Das interdisziplinäre Studienprogramm verknüpft daher Inhalte aus den verschiedensten Fachgebieten zu einem breiten berufsfeldorientierten Kompetenzspektrum, wie es heute in Unternehmen, Institutionen, Verwaltungen und Bibliotheken gefordert wird: ■ Informations- und Bibliothekswissenschaft ■ Informatik und Informationstechnologien ■ Medien, Öffentlichkeitsarbeit und Publizistik ■ Betriebswirtschaft und Management ■ Bibliotheksorganisation Das Konzept sieht eine starke ingenieurwissenschaftliche bzw. informationstechnische Ausrichtung vor, entsprechend ist der Abschluss Bachelor bzw. Master of Engineering (B.Eng./ M.Eng.) vorgesehen. Mit dieser Kennzeichnung und der Fokussierung auf informationstechnische Kompetenz hebt sich der Studiengang Information Science and Engineering/Informations- 15 Hochschule Informationsspezialisten made in Darmstadt: Informationswissenschaft in Darmstadt wissenschaft gegenüber den weiteren in Deutschland angebotenen meist sozialwissenschaftlich geprägten und mit B.A./M.A. abschließenden Studiengängen zur Informationswissenschaft ab. Das Bachelorstudium Grundlagen Im ersten Studienjahr wird solides informationswissenschaftliches (Information Broking und Wissensrepräsentation) und informationstechnisches (Grundlagen der Informatik und Programmieren) Basiswissen aufgebaut, welches durch allgemeine und wirtschaftswissenschaftliche Grundlagen ergänzt wird. Für alle Studierenden sind hierbei die folgenden Grundlagenfächer vorgesehen: Grundlagen und Methoden ■ Informationswissenschaft und Praxis ■ Statistik und Empirische Sozialforschung ■ Informationsrecht ■ Projektmanagement ■ Wissenschaftliches Arbeiten und Publizieren ■ Betriebliches Informationsmanagement Informatik und Programmieren ■ Grundlagen der Informatik ■ Grundlagen der Programmierung ■ Multimedia-Technologie Wissensrepräsentation ■ Relationenmodell und SQL ■ Datenbankentwurf ■ Non-Standard-Datenbanken Information Retrieval ■ Grundlagen des Information Retrieval ■ Anwendungen des Information Retrieval Information Broking ■ Grundlagen der Informationsvermittlung ■ Methodik der Informationsrecherche Inhaltserschließung ■ Klassifikation und Metadaten ■ Indexieren und Abstracting ■ Thesauren und Ontologien Wirtschaftswissenschaftliche Grundlagen ■ Einführung in die Volkswirtschaftslehre ■ Betriebswirtschaftliche Methodenlehre Die Studieninhalte im quantitativen Überblick Das folgende Diagramm gibt eine Übersicht über die Verteilung der Studienin- 16 halte aus allen drei Studienjahren. Ein gutes Viertel des Curriculums (28%) ist jeweils der gewählten Studienrichtung vorbehalten. Wahlpflichtfächer und Projekte ermöglichen eine Profilierung in den Bereichen Informationsmanagement, Informationswissenschaft sowie Informationsarchitektur als auch eine Vertiefung der gewählten Studienrichtung. Studienrichtungen oder individuelles Profil Im zweiten Studienjahr erfolgt eine methodische Vertiefung durch ein weiteres Grundlagenmodul sowie das Modul Information Retrieval. Parallel dazu kann hier eine der drei Studienrichtungen ■ Bibliotheksmanagement ■ Medieninformation ■ Wirtschaftsinformation gewählt oder alternativ ein individuelles Qualifikationsprofil verfolgt werden. Nachfolgend werden die Inhalte der drei Studienrichtungen näher vorgestellt: Studienrichtung Bibliotheksmanagement Absolventen der Studienrichtung Bibliotheksmanagement sind spezialisiert auf den Umgang mit Medien und Informationen aller Art und werden u.a. in Bereichen und Institutionen wie öffentlichen bzw. wissenschaftlichen Bibliotheken, Informationszentren in Einrichtungen z.B. der Forschung, der Privatwirtschaft, von Verbänden und Behörden oder in bibliothekarischen Service- und Infrastruktureinrichtungen beschäftigt und eingesetzt. Der Bachelorabschluss in der gewählten Studienrichtung Bibliotheksmanagement befähigt zum „gehobenen“ öffentlichen Dienst. Bibliotheken sind heutzutage moderne Informations- und Servicezentren, die ihre gedruckten Informationen durch ein breites Spektrum an elektronischen Informationen und Dienstleistungen ergänzt haben. Bibliotheken sind aber nach wie vor auch Orte des Lernens, der Begegnung und Kommunikation, der sozialen und kulturellen Integration. Öffentliche Bibliotheken legen einen deutlichen Schwerpunkt auf die Bereitstellung und Vermittlung eines Medienbestandes; hierbei spielen die service-orientierte Informationsvermittlung, die individuelle Beratung der Kunden, die Auswahl der bereitzustellenden Medien sowie vielfältige Formen von Öffentlichkeitsarbeit eine große Rolle. Wissenschaftliche Bibliotheken dienen in erster Linie dem Studium bzw. der Forschung. In diesem Berufsfeld stehen vor allem Aktivitäten auf dem Gebiet der gezielten und kundenorientierten Informationsdienstleistungen, insbesondere der effizienten Bereitstellung von Medien in digitaler oder konventioneller Form im Vordergrund. In den Lehrveranstaltungen der Studienrichtung Bibliotheksmanagement wird – ausgehend von Einführungsveranstaltungen zu den Bibliotheksstrukturen in Deutschland sowie zu den allgemeinen Grundlagen des Bibliotheksmanagements – eine fundierte bibliothekarische Ausbildung vermittelt, die dem Anforderungsprofil eines modernen Bibliothekars entspricht: Vom Erwerbungsmanagement, Medienerschließung, Informationsvermittlung und bibliothekarischen Informationsdienstleistungen bis hin zu virtuellen Bibliotheken reicht die Bandbreite der in den Lehrveranstaltungen behandelten Themen. Damit eröffnen sich Bibliotheksmanagern vielfältige berufliche Möglichkeiten. Lehrveranstaltungen Bibliotheksmanagement ■ Bibliotheksstrukturen ■ Bibliothekarische Informationsvermittlung ■ Erwerbungsprofile und -management ■ Grundlagen des Bibliotheksmanagements ■ Standards der Medienerschließung ■ Medienerschließung in der Praxis ■ Bibliothekarische Informationsressourcen ■ Virtuelle Bibliotheken Studienrichtung Medieninformation In Rundfunk- und Fernsehanstalten, Nachrichtenagenturen, Verlagen und anderen Unternehmen der Medienbranche finden sich die unterschiedlichsten Betätigungsfelder. Rundfunkund Fernsehanstalten bieten z.B. Tätigkeiten bei der Unterstützung von Redaktionen, im Bereich der Öffentlichkeitsarbeit oder im Archiv an. Nachrichtenagenturen legen Wert auf professionelle, qualitative und schnelle Recherche, um zeitnah ihre Meldungen 58(2007)1, 15-20 Informationswissenschaft in Darmstadt verbreiten zu können. Verlage bieten beispielsweise die Möglichkeit, sich mit dem Marketing von Verlagsprodukten, zum Teil auch mit deren Produktion (z.B. CD-Rom) zu beschäftigen. Die Bereiche Öffentlichkeitsarbeit und Online-Publishing sind hier weitere Tätigkeitsgebiete. In den Veranstaltungen der Studienrichtung Medieninformation werden sowohl Grundlagen für die inhaltsnahen Tätigkeiten von Mediendokumentaren und Rechercheredakteuren gelegt, als auch für die ingenieurmäßig orientierten Aufgaben der Gestaltung und Schaffung technischer Systeme als Arbeitsplattform für die erstgenannten Tätigkeiten. Dazu gehören einerseits die professionelle und qualitätsgesicherte Recherche in medienrelevanten Quellen, vor allem Datenbanken (professionelle Hosts), Suchmaschinen sowie weitere journalistische Informationsquellen, um qualitativ hochwertige Informationen zu erarbeiten, z.B. zu einem Dossier, oder bis zur Veröffentlichungsreife zu entwickeln. Im Vordergrund stehen hierbei medientypische Strukturen (Thesauri und Taxonomien), Quellenbewertung sowie Recherchestrategien. 58(2007)1, 15-20 Auf der anderen Seite werden die Trägersysteme medialer Informationen im Sinne von Storage- und Retrieval-Systemen oder auch Produktions- und Verbreitungssystemen genauer betrachtet. Hierbei spielen u.a. AV-Formate, Datenbanken und -modelle sowie redaktionelle Produktions- und Logistiksysteme eine Hauptrolle. Lehrveranstaltungen Medieninformation ■ Grundlagen der Massenkommunikation ■ Journalismus ■ Unternehmenskommunikation ■ Methodik der Medienrecherche ■ Arbeitsmethodik Medienarchive ■ Technologie von Mediendatenbanken ■ Redaktionssysteme ■ Studiosysteme Studienrichtung Wirtschaftsinformation Ein großes Aufgabenspektrum steht den Absolventen im Bereich der Wirtschaft offen. So können sie in den unterschiedlichsten Branchen Einsatzmöglichkeiten finden: Große Unternehmen, aber auch immer mehr mittelständische Unternehmen haben zum Teil eigene Abteilungen, die sich mit Wis- sensmanagement und/oder Research beschäftigen. Hier liegen die Aufgaben vor allem darin, Informationen zu recherchieren, aufzubereiten (z.B. in Datenbanken) und zu vernetzen. Aber auch die Bereiche Öffentlichkeitsarbeit und Marketing sind typische Tätigkeitsbereiche. In Unternehmensberatungen, Banken und Versicherungen finden sich ebenfalls Einsatzmöglichkeiten, beispielsweise in den Research-Abteilungen oder den Informations- und Dokumentationsabteilungen. Softwareunternehmen und Datenbankhersteller nutzen die technischen Fähigkeiten und die bereits in den verschiedenen Studienrichtungen erarbeiteten Kenntnisse bestimmter Anwendungsgebiete. Die Studienrichtung Wirtschaftsinformation bildet durch Vermittlung der wirtschafts- und informationswissenschaftlichen sowie informationstechnischen Fach- und Methodenkompetenz für Tätigkeiten in der Informationswirtschaft, im betrieblichen Informationsmanagement und für informationswirtschaftliche Tätigkeiten, insbesondere Marketing oder Controlling, in Unternehmen, Verwaltung und anderen NonProfit-Organisationen aus. 17 Informationswissenschaft in Darmstadt Lehrveranstaltungen Wirtschaftsinformation ■ Wirtschafts- und Finanzdatenbanken ■ Rechnungswesen ■ Statistische und Faktendatenbanken ■ Finanzmanagement ■ Fortgeschrittene Volkswirtschaftslehre ■ Fortgeschrittene Betriebswirtschaftslehre ■ Marketing ■ Marktforschung Individuelles Studienprofil Wer seine Interessen nicht in den angebotenen Studienrichtungen wiederfindet, kann alternativ ein individuelles Qualifikationsprofil verfolgen. Für Studierende mit individuellem Studienprofil entfällt daher auch der Pflichtanteil in einer festgelegten Studienrichtung. Dafür stehen ihnen die Pflichtveranstaltungen sowie die Wahlpflichtangebote aus den einzelnen Studienrichtungen zum Aufbau eines methodischen Kompetenzprofils als Wahlpflichtprogramm zur Verfügung. Weitere Wahlpflichtfächer erlauben Profilbildungen in den Bereichen ■ Informationsmanagement ■ Informationswissenschaft sowie ■ Informationsarchitektur. Diese Studierenden werden – wie alle anderen auch – in die Beratung im Rahmen eines Mentorenprogramms einbezogen, das ihnen entsprechend ihren beruflichen Vorstellungen gezielt Hilfestellung und Unterstützung zur berufsqualifizierenden Zusammenstellung geeigneter Lehrveranstaltungen gibt. Projekte, Praxisphasen und Bachelorarbeit Im dritten Studienjahr werden berufsfeldorientierte bzw. schwerpunktbezogene Projekte absolviert. Hier wird auch der Übergang in die Praxis vorbereitet; das fünfte Semester umfasst die berufspraktische Phase sowie Vertiefungsmodule der Studienrichtungen bzw. des individuellen Programms. Die Bachelorarbeit mit Kolloquium schließt sich im sechsten Semester an die berufspraktische Phase an. In diesem wie in vielen anderen ähnlichen Studiengängen zeigt sich auch hier, dass es im Rahmen der neuen 6-semestrigen Bachelorausbildung nicht einfach ist, die für anwendungsorientierte Studiengänge so wichtige Praxisphase im Studienprogramm zeitlich zu positionieren. Unter Berücksichtigung der geforderten Berufspraxis bereitet der Studiengang darüber hinaus auf die Zertifizierung zur zweithöchsten Stufe (3) für Informationsfachleute nach dem Euro- 18 guide (Europäisches Zertifizierungshandbuch für Informationsfachleute des European Council of Information Associations) vor. Das Masterstudium Informationsexperten mit Führungsaufgaben Der anwendungsorientierte und konsekutive Masterstudiengang Information Science and Engineering/Informationswissenschaft bildet Informationsexperten für Gestaltungs- und Leitungsfunktionen in verschiedenen Branchen der Informations- und Internet-Wirtschaft, Bibliotheken und Verwaltungen aus. Das Studienprogramm vermittelt dazu Inhalte aus den Gebieten: ■ Informationswissenschaft und Informationstechnologie ■ Medienwissenschaft und Bibliothekswesen ■ Informationswirtschaft und Betriebswirtschaftslehre Durch diese Fachkenntnisse und weitere fachübergreifende Kompetenzen (Methoden- und Führungskompetenz) werden die Absolventen auf ihre Arbeit in Wirtschaftsunternehmen, Institutionen, Medienunternehmen, der öffentlichen Verwaltung und in Bibliotheken vorbereitet. Hierzu stellen sich die Studierenden ein eigenes Qualifikationsprofil zusammen, das sich am betrieblichen Informationsmanagement, an der Konzeption von Informationsarchitekturen, an den organisatorischen und technischen Anforderungen des Mediensektors oder an Führungs- und informationstechnischen Aufgaben im Bibliothekswesen orientieren kann. Unter Berücksichtigung der geforderten Berufspraxis bereitet der Studiengang auf die Zertifizierung zur höchsten Stufe (4) für Informationsfachleute nach dem Euroguide vor. Der konsekutive Master-Studiengang baut auf dem gleichnamigen Bachelorstudiengang an der Hochschule Darmstadt auf. Absolventen anderer Hochschulen werden zugelassen, wenn sie vergleichbare informationswissenschaftliche Studiengänge mit einem Bachelor oder einem Diplom abgeschlossen haben. Absolventen des Masterstudiengangs erhalten die Zulassung zum Höheren Dienst der öffentlichen Verwaltung in Deutschland. Der Masterabschluss berechtigt zugleich zum Promotionsstudium. Berufsfelder und Arbeitsgebiete Das Masterstudium befähigt die Absolventen, in den nachfolgend exemplarisch dargestellten Bereichen zu arbeiten, in denen sie höhere fachliche, technische und organisatorische Verantwortungsbereiche wahrnehmen: ■ Bereich Informationsmanagement: den Informationsfluss im Unternehmen organisatorisch und technisch gestalten und verbessern ■ Bereich Informationsarchitektur: Planung, Entwurf und Einführung von Informationssystemen im Internet oder Intranet; Entwurf elektronischer Archivierungs- und DMS-Systeme, E-Shop-Lösungen ■ Bereich Informations- und Wissensmanagement von Banken und Unternehmensberatungen: Komplexe Recherchen durchführen, BestPractice-Informationssysteme und Datenbanken für die Konkurrenzanalyse betreiben ■ Bereich Unternehmenskommunikation, Öffentlichkeitsarbeit und Mitarbeiterinformation: Systeme für Online-Research, Medienauswertung und elektronische Newsletters entwerfen und betreiben; komplexe Informationsprodukte wie z.B. multimediale Datenbanken erstellen ■ Technische oder organisatorische Leitung von Bibliotheken oder Bibliotheksabteilungen ■ Technische oder organisatorische Leitung von Medienarchiven ■ Gestaltung interaktiver Medien bei Fernseh-, Hörfunk- und Verlagsredaktionen ■ Im öffentlichen Bereich: Gestaltung von E-Government-Anwendungen, elektronischen Bürgerservices, kommunalen Portalen Aufbau und Verlauf des Studiums Im ersten Studienjahr wird fachlich breites Wissen aufgebaut, das auf dem Bachelorniveau aufsetzt und dessen Kerninhalte vertieft. Die Studierenden erarbeiten dabei ein individuelles Spezialisierungsprofil, indem sie Schwerpunkte in den folgenden fünf Fachgebieten wählen: ■ Information Architecture ■ Wissensrepräsentation ■ Business Information Engineering ■ Library Science (Bibliothekswissenschaft) ■ Redaktionswesen Die Module der Fachgebiete und fachübergreifenden Angebote sind in Fachkatalogen zusammengestellt. In den ersten beiden Semestern müssen sechs Fachmodule und vier Projektmodule aus mindestens drei verschiedenen Fachkatalogen belegt werden. Für die Arbeit an Bibliotheken wird eine Studienrichtung Library Science/ Bibliothekswissenschaft angeboten, für die zwei Fach- und zwei Projektmodule aus dem gleichnamigen Fachgebiet belegt werden müssen. Weiter wird emp- 58(2007)1, 15-20 Informationswissenschaft in Darmstadt Tabelle 1: Masterstudiengang Information Science & Engineering / Informationswissenschaft fohlen, zwei Module aus dem Katalog Information Architecture zu belegen, um den aktuellen Anforderungen an Bibliothekare und Bibliothekarinnen im Hinblick auf Digitale Bibliotheken und rechnergestützten Systeme Rechnung zu tragen. Darüber hinaus behandeln die bibliothekarischen Fachmodule insbesondere die Themen Personalführung, Arbeitsrecht und neue Organisationsmodelle in Bibliotheken. Der Masterabschluss mit der Spezialisierung „Library Science“ ist deutschlandweit die erste Qualifikation, die konsequent für die neuen Anforderungen des Engineering in Bibliotheken qualifiziert. In dieser neu entwickelten Studienrichtung steht demnach auch nicht das bisherige Bild des sog. Fachreferenten im Vordergrund, sondern die Weiterqualifikation von innovativen und IT-kompetenten Bibliotheksmanagern. Das zweite Studienjahr gibt mit der Praxis- bzw. Forschungsphase von mindestens 18 Wochen die Gelegenheit, die erworbenen Kenntnisse im Rahmen der praktischen Tätigkeit in einer anspruchsvollen Aufgabenstellung umzusetzen. Den Abschluss des Studiums bildet die viermonatige Masterarbeit mit begleitender wissenschaftlicher Lehrveranstaltung sowie abschließendem öffentlichem Kolloquium. In Tabelle 1 werden der Gesamtverlauf des Studiums und die Kombinationsmöglichkeiten insbesondere der einzelnen Fachkataloge dokumentiert Zulassungsvoraussetzungen Zulassungsvoraussetzung ist ein qualifizierter Bachelor- oder Diplom-Abschluss auf dem Gebiet der Informati- 20 onswissenschaft oder aus verwandten Gebieten. Die Bewerber müssen adäquate Kenntnisse auf Bachelorniveau in Wissensrepräsentation und Information Broking nachweisen. Für Bewerber, die Absolventen der an der Hochschule Darmstadt früher oder aktuell angebotenen Diplomstudiengänge IuD und IuW oder des Bachelorstudiengangs Information Science & Engineering/Informationswissenschaft bzw. unmittelbar vergleichbarer Studiengänge anderer anerkannter Hochschulen sind (FH: Hamburg, Hannover, Köln, Leipzig, Potsdam, Stuttgart; Uni: Berlin, Düsseldorf, Konstanz, Saarbrücken), wird dieser Nachweis als gegeben angesehen. Interessenten finden auf www.iuw. h-da.de ausführliche Informationen zum Studiengang und zur Bewerbung. Für das im Sommersemester 2007 beginnende Masterprogramm können sich Studieninteressierte derzeit noch bewerben. Quellen Kind J., Weigend A. (2001): Informationsspezialisten Darmstädter Prägung. Ergebnisse der Absolventenbefragung 2000. nfd 53(1) 2001. Otto C., Buck H. (2002): Informations- und Wissensmanagement an der FH Darmstadt. nfd 54(1) 2002. Lüstorff J. et al (2007): Informationswirtinnen und Informationswirte im Beruf. Eine Verbleibstudie Darmstädter Alumni und Absolventen. In publication. Euroguide – europäisches Zertifizierungshandbuch für Informationsfachleute. Handbuch zur Charakterisierung von Kompetenzprofilen für Informationsfachleute in Europa. Hrsg.: DGI, Projektleitung u. Bearb.: Sabine Graumann. Bearb. u. Mitarb.: Marc Rittberger u. Bärbel Köhne. Frankfurt am Main 2001 Info: Hochschule Darmstadt Fachbereich Informations- und Wissensmanagement Campus Dieburg Max-Planck-Str. 2, 64807 Dieburg Telefon: (0 61 51) 16-94 11 Telefax: (0 61 51) 16-94 13 [email protected], www.iuw.h-da.de Hochschulausbildung, Lehrplan, Design, Hochschule Darmstadt, Informationswissenschaft, Wissensmanagement, Bachelor, Master D i e A u to r e n Prof. Dr. Berthold Meier Seit 2003 zuständig für das Lehrgebiet Bibliotheksmanagement (insbesondere Bibliotheksstrukturen sowie bibliothekarische Informationsvermittlung), derzeit zugleich PR- und Bibliotheksbeauftragter am Fachbereich. [email protected], www.berthold-meier.de.tf Prof. Dr. Christian Otto Seit 1997 am Fachbereich zuständig für das Lehrgebiet Informationsmanagement; Ex-Dekan und derzeit Prodekan des Fachbereichs. [email protected] 58(2007)1, 15-20 Hochschule Evaluation informationswissenschaftlicher Lehrveranstaltungen: Eine Längsschnittuntersuchung Gerhard Reichmann, Graz (Österreich) Am Beispiel von vier ausgewählten informationswissenschaftlichen Lehrveranstaltungen des Autors dieser Arbeit wird demonstriert, wie man Lehrveranstaltungen permanent in Eigeninitiative evaluieren kann und welche Schlussfolgerungen sich aus den Ergebnissen einer solchen Evaluation im Zeitverlauf ableiten lassen. Die Untersuchung dient insbesondere der Überprüfung der Vermutung, dass die Qualität einer Lehrveranstaltung mit steigender Zahl an Abhaltungen zunimmt. Diese Qualitätszunahme müsste sich in den Evaluationsergebnissen widerspiegeln. Zudem wird untersucht, inwieweit die Ergebnisse einer Evaluation von Lehrveranstaltungen in Eigeninitiative von jenen der zentralen, von der Universitätsleitung veranlassten Lehrveranstaltungsevaluation abweichen. Longitudinal evaluation of courses in information science In this case study we analyse the correlation between the quality of university courses and the frequency with which these courses are given using the results of longitudinal evaluations. The study is based on evaluating four different courses in the field of information science given by the author. In addition, the evaluation results are compared with the findings of a university-wide standardized evaluation of the same courses to learn about potential advantages of more custom-tailored surveys. 1 Einleitung Mit Inkrafttreten des UG 2002 1 blieb die gesetzliche Verankerung der Evaluation von Lehrveranstaltungen in Österreich zwar bestehen, detaillierte Regelungen fallen aber in den autonomen Gestaltungsbereich der einzelnen Uni- 58(2007)1, 21-27 versitäten. So sieht die Satzung der Karl-Franzens-Universität Graz vor, dass Pflichtlehrveranstaltungen mindestens alle sechs Semester einer Lehrveranstaltungsbewertung durch Lehrveranstaltungsteilnehmer zu unterziehen sind. Unter dem Begriff „Lehrveranstaltungsevaluation“ wird demnach – wie auch in den nachfolgenden Ausführungen – die Ermittlung der subjektiven Qualität von Lehrveranstaltungen aus der Sicht von Studierenden verstanden.2 Aus diesem Blickwinkel lässt sich die Evaluation von Lehrveranstaltungen als Maßnahme des Qualitätsmanagements einordnen, wobei sie hier auf der Stufe der Qualitätskontrolle anzusiedeln ist. Vorgelagert ist dieser Kontrolle die Qualitätsplanung, also die Planung der Aufgabenerfüllung in entsprechender Qualität. Im Zusammenhang mit Lehrveranstaltungen geht es dabei vor allem um die optimale Erfüllung der vier Aufgaben „Vermittlung interessanter und relevanter Inhalte“, „Erweckung von Interesse für die behandelten Themen“, „Vermittlung des Lehrstoffes in möglichst kompetenter und verständlicher Form“ sowie „gute organisatorische Abwicklung“. 3 Im Rahmen der Qualitätskontrolle wird dann die tatsächliche Qualität der Aufgabenerfüllung überprüft. Werden dabei Differenzen zwischen geplanter und tatsächlicher Qualität festgestellt, wird zur nächsten Phase des Qualitätsmanagements, der Qualitätsverbesserung, übergegangen. Hier werden konkrete Maßnahmen getroffen, um die ermittelten Mängel einer Lehrveranstaltung zu beseitigen. Von der Universitätsleitung veranlasste Evaluationen von Lehrveranstaltungen im Sinne der Satzung werden an der Universität Graz bereits seit einigen Jahren durchgeführt.4 Für diese Evaluationen wird ein weitgehend einheitlicher Fragebogen eingesetzt. Die Auswertung der Fragebögen erfolgt zentral und in standardisierter Form, den evaluierten Lehrveranstaltungslei- tern werden die Ergebnisse in komprimierter Form zugesandt. 5 Im Falle deutlich unterdurchschnittlicher Evaluationsergebnisse wird versucht, gemeinsam mit den Betroffenen die Gründe für das schlechte Abschneiden zu ermitteln und Verbesserungsmaßnahmen zu generieren. Weitergehende Konsequenzen sind bisher unterblieben.6 Schon lange vor der Einführung dieser zentralen Evaluation haben viele Universitätslehrer ihre Lehrveranstaltungen regelmäßig in Eigeninitiative evaluiert. Derartige individuelle Lehrveranstaltungsevaluationen werden vielfach auch heute noch parallel zur zentralen Evaluation durchgeführt, weil sie den großen Vorteil bieten, maßgeschneidert eingesetzt werden 1 2 3 4 5 6 Bundesgesetz über die Organisation der Universitäten und ihre Studien (Universitätsgesetz 2002). Zur (Messung der) Qualität von Lehre (bzw. Lehrveranstaltungen): vgl. Ellis (1993), Hansen/Hennig-Thurau/Wochnowski (1997), Krempkow (1998), Kromrey (1996) und Thom/ Levin (2003). Vgl. § 6 der Verordnung des Bundesministers für Wissenschaft und Verkehr über Grundsätze für die Durchführung von Evaluierungen in Forschung und Lehre der Universitäten (EvalVO). Zur (zentralen) Evaluation von Lehrveranstaltungen: vgl. z.B. Baxter (1991), Bedggood/Pollard (1999), Burney (1989), Jirovec/Ramanathan/Rosegrant-Alvarez (1998), Lin/Watkins/ Meng (1995), Marsh/Hau/Chung/Siu (1997), Miller/Dzindolet/Weinstein/Xie/Stones (2001), Schnell/Kopp (2001) und Ting (2000). Vgl. Strohmeier/Carstensen (2001); insgesamt wird dabei großer Wert auf Transparenz der Evaluation gelegt; vgl. dazu auch Henninger/ Balk (2003). Ein wesentlicher Aspekt für die Einstellung der Universitätslehrer zu Evaluationsmaßnahmen bezüglich ihrer Lehrveranstaltungen ist sicherlich die Art der Verwendung der Ergebnisse. Solange diese ausschließlich als Feedback für die Lehrenden dienen, wird kaum ein Betroffener Abneigung oder gar Widerstand zeigen. Sobald die Ergebnisse jedoch auch als Hilfsmittel für Personalentscheidungen herangezogen würden, wäre mit Opposition seitens mancher Universitätslehrer zu rechnen; vgl. dazu auch Tinnefeld (2001). Im angloamerikanischen Raum werden die Ergebnisse von Lehrveranstaltungsevaluationen dagegen bereits seit längerer Zeit für Personalentscheidungen herangezogen: vgl. Kriszio (1992) und Neath (1996). 21 E va luat i o n d e r L e h r e zu können. Sie können darüber hinaus auch nach eigenen Vorstellungen ausgewertet werden. Obwohl laut gesetzlicher Vorgabe 7 Lehrveranstaltungen nur (mindestens) alle sechs Semester zu evaluieren sind, erscheint eine permanente Evaluation äußerst sinnvoll.8 Nur so lässt sich feststellen, wie sich eine Lehrveranstaltung „entwickelt“. Erfahrungsgemäß nimmt die Qualität einer Lehrveranstaltung nach mehrmaliger Abhaltung tendenziell zu. Vor allem bei neu konzipierten Lehrveranstaltungen ergibt sich nach erstmaliger Durchführung oftmals ein gewisser Überarbeitungsbedarf. Festgestellt wird dieser Bedarf idealerweise anhand einer Evaluation der Lehrveranstaltung.9 Ob die vorgenommenen Anpassungen den erwünschten Erfolg bringen, lässt sich wiederum am besten anhand einer Folgeevaluation feststellen. Gruppengröße ist in erster Linie vom Umfang des zu bearbeitenden Projektes abhängig und schwankt zwischen drei und sieben Studierenden. Bisher wurden u.a. Projekte zu den Themen „Die geheimen Wünsche der Bibliotheksbenutzer“, „Die Nutzung der elektronischen Zeitschriften an der UB Graz“, „Analyse des neuen BWL-Studienplanes an der Universität Graz“, „Die Zufriedenheit der Studierenden mit den Institutssekretariaten der Universität Graz“ und „Analyse der Webseiten von Universitätsbibliotheken“ durchgeführt. Die Benotung der Studierenden erfolgt auf Basis eines Projektberichts sowie einer Projektpräsentation; grundsätzlich 10 erhalten alle Mitglieder einer Gruppe dieselbe Note. und Banken untersucht. Basis für die Benotung sind eine Klausur, in der die vermittelten Grundlagen geprüft werden, sowie die gruppenweise erarbeiteten und anschließend eingesetzten neuen Möglichkeiten zur Bewertung von Webseiten. Lehrveranstaltung D weicht insofern von den übrigen drei ausgewählten ab, als sie – nicht zuletzt infolge relativ schlechter Evaluationsergebnisse – aktuell nicht mehr angeboten wird. Ziel dieser Lehrveranstaltung war es, verschiedene Aspekte des Informationsmanagements vorzustellen. Dabei handelte es sich in erster Linie um die Inhalte unterschiedlicher Informationsmanagementkonzepte, die zum Teil Tabelle 1: Vorstellung der evaluierten Lehrveranstaltungen Nachfolgend wird am Beispiel von Lehrveranstaltungen des Autors dieser Arbeit demonstriert, wie derartige permanente Evaluationen in Eigeninitiative mit vertretbarem Aufwand durchgeführt werden können. Zunächst werden die betrachteten Lehrveranstaltungen kurz vorgestellt. Es folgt eine Beschreibung der Vorgehensweise bei der Evaluation. Anschließend werden die Untersuchungsergebnisse präsentiert und interpretiert. Ergänzend werden im Falle parallel durchgeführter zentraler Evaluationen die dabei gewonnenen Ergebnisse mit den hier erzielten Resultaten verglichen. 2 Vorgehensweise 2.1 Auswahl der Lehrveranstaltungen Für die Untersuchung wurden alle jene Lehrveranstaltungen ausgewählt, die bis einschließlich Sommersemester 2004 zumindest dreimal vom Autor abgehalten worden waren. Tabelle 1 gibt einen Überblick über diese vier Lehrveranstaltungen. Lehrveranstaltung A ist ein praxisorientierter Kurs, in dem die Studierenden gruppenweise jeweils ein vom Lehrveranstaltungsleiter vorgegebenes Projekt zu bearbeiten haben. Die 7 In diesem Fall die Satzung der Universität Graz. 8 Anderer Ansicht wären hier vermutlich Personen, die der Evaluation von Lehrveranstaltungen eher skeptisch gegenüberstehen; vgl. etwa Esser (1997). 9 Daneben spielt für die Überarbeitung sicherlich auch die eigene Wahrnehmung des Lehrveranstaltungsleiters eine wesentliche Rolle. 10 Es sei denn, es besteht der Wunsch nach einer individuellen Beurteilung. In diesem Fall haben die einzelnen Gruppenmitglieder ihren Beitrag exakt zu dokumentieren. 11 Zur Beurteilung der Lehrveranstaltungsleiter: vgl. auch Gramlich/Greenlee (1993) und Hativa/Raviv (1993). 22 Bei Lehrveranstaltung B handelt es sich um ein regelmäßig (wöchentlich) abgehaltenes Proseminar, in dem der Umgang mit Rechtsfragen aus dem Bereich der Informationswissenschaft erlernt werden soll. Es werden hier u.a. die Grundlagen des Datenschutzrechts, des Urheberrechts sowie des E-Commerce-Rechts vorgetragen und laufend um Fallbeispiele ergänzt. Um die Lehrveranstaltung positiv zu absolvieren, haben die Studierenden eine Klausur zu bestehen, eine Hausarbeit zu einem datenschutzrechtlichen Thema abzugeben sowie ein kurzes Referat über persönliche Erfahrungen mit dem Datenschutz zu halten. Lehrveranstaltung C ist wiederum stark praxisorientiert. Im Rahmen dieser Lehrveranstaltung werden zunächst erprobte Möglichkeiten zur Beurteilung des Internetauftritts von Unternehmen vorgestellt. Anschließend sollen von den Studierenden neue Möglichkeiten zur Bewertung von Webseiten erarbeitet und in der Folge praktisch eingesetzt werden. Bisher wurden vor allem die Internetauftritte von Universitäten, Universitätsinstituten vom Lehrveranstaltungsleiter und zum anderen von den Studierenden präsentiert wurden. Grundlage der Benotung waren eine Klausur über den gesamten Lehrveranstaltungsinhalt sowie Referate der Studierenden. 2.2 Evaluation der Lehrveranstaltungen Zur Evaluation der ausgewählten Lehrveranstaltungen wurde stets der in Abbildung 1 dargestellte Fragebogen eingesetzt. Bei der Erstellung dieses Fragebogens wurde vor allem auf Eindeutigkeit der Fragestellung, leichte Auswertbarkeit der Antworten und geringen Aufwand bei der Beantwortung geachtet. Die Fragen 1 und 2 dienen der Beurteilung der organisatorischen Abwicklung (z.B. Ablauf der Anmeldung, Einhaltung von Terminen) sowie der Form (des Ablaufes) der Lehrveranstaltung. Die Fragen 3, 4 und 5 haben die Evaluation des Inhaltes zum Gegenstand. Während sich die Fragen 3 und 5 auf die Qualität des Inhalts beziehen, geht es bei der Frage 4 um die Quantität. Anhand der Fragen 6, 7, 8 und 9 soll die „Qualität“ des Lehrveranstaltungsleiters ermittelt werden.11 Frage 6 58(2007)1, 21-27 E va luat i o n d e r L e h r e Evaluation: PS „Rechtliche Aspekte der Informationswissenschaft“ 1.) Organisatorische Abwicklung der Lehrveranstaltung ■ sehr gut ■ gut ■ durchschnittlich ■ mangelhaft ■ nicht genügend 2.)Form der Lehrveranstaltung (Vortrag des LV-Leiters + Besprechung von Beispielen) ■ sehr gut ■ gut ■ durchschnittlich ■ mangelhaft ■ nicht genügend 3.)Inhalt der Lehrveranstaltung ■ sehr gut ■ gut ■ durchschnittlich ■ mangelhaft ■ nicht genügend Ich hätte mir noch folgende Themen gewünscht: ______________________________ Ich hätte mir folgende Themen ausführlicher gewünscht: __________________________ Ich hätte mir folgende Themen weniger ausführlich gewünscht: ____________________ Ich würde folgende Themen wegstreichen: ______________________________________ 4.) Stoffumfang ■ viel zu viel ■ zu viel ■ ideal ■ zu wenig 5.)Schwierigkeitsgrad des Stoffes ■ viel zu schwierig ■ zu schwierig ■ ideal ■ viel zu wenig ■ zu leicht ■ viel zu leicht 6.) Fachliche Kompetenz des LV-Leiters ■ sehr gut ■ gut ■ durchschnittlich ■ mangelhaft ■ nicht genügend 7.) Erklärungsvermögen des LV-Leiters ■ sehr gut ■ gut ■ durchschnittlich ■ mangelhaft ■ nicht genügend 8.)Eingehen auf Fragen ■ sehr gut ■ gut ■ mangelhaft ■ nicht genügend ■ durchschnittlich 9.) Sprechgeschwindigkeit ■ viel zu schnell ■ zu schnell ■ ideal ■ zu langsam 10.) Gesamtbeurteilung der Lehrveranstaltung ■ sehr gut ■ gut ■ durchschnittlich ■ mangelhaft ■ viel zu langsam ■ nicht genügend Kritik und Verbesserungsvorschläge: __________________________________________ Abbildung 1: Fragebogen hat die Beurteilung der Fachkenntnisse des Vortragenden zum Gegenstand, mit Hilfe von Frage 7 soll festgestellt werden, inwieweit der Lehrveranstaltungsleiter den Lehrinhalt verständlich vermitteln kann, Frage 8 dient der Beurteilung des Vortragenden im Hinblick auf sein Eingehen auf Fragen seitens der Studierenden, und anhand von Tabelle 2: Ablauf der Evaluation Frage 9 soll das Vortragstempo des Lehrveranstaltungsleiters bewertet werden. Unter Punkt 10 soll schließlich ein zusammenfassendes Urteil zur Lehrveranstaltung abgegeben werden. Abschließend wird noch Raum für Kritik und Verbesserungsvorschläge gegeben. Neu zur Buchmesse 2006 Gerd Beling †, Peter Port, Hildburg Strohl-Goebel (Redaktion) Terminologie der Information und Dokumentation Komitee Terminologie und Sprachfragen (KTS) der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (DGI) 2., neu bearbeitete Ausgabe Frankfurt am Main 2006, 124 Seiten mit Sachregistern, DGI Schrift (Informationswissenschaft - 9) ISBN 3-925474-58-7, EUR 19,80 (für DGI-Mitglieder EUR 15,80) Robert Fugmann Das Buchregister. Methodische Grundlagen und praktische Anwendung Frankfurt am Main 2006, 136 Seiten mit Sachregistern, DGI Schrift (Informationswissenschaft - 10) ISBN 3-925474-59-5, EUR 25,– (für DGI-Mitglieder EUR 20,–) Content 28. Online-Tagung der DGI/58. Jahrestagung der DGI Frankfurt am Main, 4.-6. Oktober 2006 Proceedings, hrsg. von Marlies Ockenfeld Frankfurt am Main 2006, 288 Seiten, ISBN 3-925474-57-9 EUR 50,– (für DGI-Mitglieder EUR 40,–) Bestellungen an: DGI, Hanauer Landstr. 151-153, 60314 Frankfurt am Main, Fax (069) 4 90 90 96, [email protected] 58(2007)1, 21-27 23 E va luat i o n d e r L e h r e Für die vorliegende Untersuchung wurde jede der vier betrachteten Lehrveranstaltungen dreimal in Folge evaluiert (vgl. Tabelle 2). Zeitpunkt der Evaluation war jeweils die letzte Lehrveranstaltungseinheit des Semesters; das heißt, es wurde immer nach Abhaltung allfälliger Klausuren evaluiert. Klausurbzw. Gesamtergebnisse der Lehrveranstaltung waren zu diesem Zeitpunkt in der Regel allerdings noch nicht bekannt. Anhand von Tabelle 2 lässt sich erkennen, dass jeweils ein Großteil der Lehrveranstaltungsteilnehmer auch an der Evaluation teilgenommen hat. Im Durchschnitt betrug die Teilnahmequote 84 Prozent, wobei zu beachten ist, dass nicht immer alle Lehrveranstaltungsteilnehmer zum Zeitpunkt der Evaluation anwesend waren. Wie aus der letzten Spalte von Tabelle 2 hervorgeht, wurde in acht Fällen parallel zur Evaluation in Eigeninitiative12 eine zentrale Evaluierung vorgenommen. Dies geschah in der Regel auf Antrag des Lehrveranstaltungsleiters. 13 Die zen12 In der Folge auch als individuelle Evaluation bezeichnet. 13 Ohne derartigen Antrag erfolgt eine zentrale Evaluation üblicherweise nur alle sechs Semester (laut Vorgabe durch die Satzung). 14 Diese 60 Wochenstunden entsprechen dem (geschätzten) üblichen Zeitaufwand für die Absolvierung einer zweistündigen Lehrveranstaltung, die regelmäßig (wöchentlich) abgehalten und mit einer Klausur abgeschlossen wird. Eine solche Lehrveranstaltung findet gewöhnlich 15-mal im Semester statt, woraus sich ein Zeitaufwand von 30 Wochenstunden ergibt. Für die Klausurvorbereitung ist dann (zumindest) nochmals derselbe Aufwand zu kalkulieren. 15 Eine derartige Reduktion war allerdings infolge der relativ exakten Abschätzung des Aufwandes in keinem Fall nötig, wobei die 60 Wochenstunden andererseits auch kaum unterschritten wurden. Dies ergab sich aus den verpflichtenden (individuellen) Arbeitsprotokollen der Projektteilnehmer. 16 Aus Sicht des Lehrveranstaltungsleiters ist der Projektkurs tatsächlich eine regelmäßige Veranstaltung, da wöchentlich entweder Gesamtbesprechungen (allgemeine Einführung, Projektvorstellung, Projektvergabe, Zwischenpräsentation, Schlusspräsentation) oder Besprechungen mit den einzelnen Projektgruppen stattfinden. 17 Bei den angeführten Werten handelt es sich um Mittelwerte. Die Berechnung dieser Werte erfolgte unter der Annahme einer kardinalen Skalierung der Variablen. Bedeutung der Mittelwerte: 1 = viel zu wenig (bzgl. Stoffumfang) bzw. viel zu leicht (bzgl. Schwierigkeitsgrad) bzw. viel zu langsam (bzgl. Sprechgeschwindigkeit) bzw. nicht genügend (bzgl. der übrigen Merkmale), ..., 3 = ideal (bzgl. Stoffumfang, Schwierigkeitsgrad und Sprechgeschwindigkeit) bzw. durchschnittlich (bzgl. der übrigen Merkmale), ..., 5 = viel zu viel (bzgl. Stoffumfang) bzw. viel zu schwierig (bzgl. Schwierigkeitsgrad) bzw. viel zu schnell (bzgl. Sprechgeschwindigkeit) bzw. sehr gut (bzgl. der übrigen Merkmale). Erläuterungen zur Spalte „Gesamtveränderung“: die Kürzel beziehen sich auf die Veränderung der Mittelwerte zwischen erstem und letztem Evaluierungszeitpunkt. Bedeutung der Kürzel: ++ (— ) = positive (negative) Veränderung über 0,50, + (-) = positive (negative) Veränderung zwischen 0,26 und 0,50, o = positive oder negative Veränderung bis 0,25. 18 Vgl. Fußnote 17. 24 trale Evaluation wurde immer in der gleichen Lehrveranstaltungseinheit wie die Evaluation in Eigeninitiative durchgeführt, um die Ergebnisse – im Falle vergleichbarer Fragestellungen – vergleichen zu können. 3 Ergebnisse 3.1 Detailbetrachtungen Bezüglich Lehrveranstaltung A lässt sich sagen, dass sich die Evaluationsergebnisse im Betrachtungszeitraum deutlich verbessert haben (vgl. Tabelle 3). Insbesondere trifft dies auf die Beurteilung der organisatorischen Abwicklung der Lehrveranstaltung zu. Dazu ist anzumerken, dass permanent versucht wurde, diese zu verbessern. So wurde im SS 2004 der zeitliche Projektaufwand im vorhinein möglichst exakt abgeschätzt und den Studierenden zur Orientierung erstmals auch mitgeteilt. Die Projekte wurden so konzipiert, dass jeder Projektteilnehmer mit einem maximalen Arbeitsaufwand von 60 Wochenstunden zu rechnen hatte. 14 Für den Fall einer drohenden gravierenden Überschreitung dieses Zeitrahmens wurde eine Reduktion des Projektumfanges in Aussicht gestellt.15 Weiters wurden alle Besprechungstermine in jenes Zeitfenster gelegt, das die Lehrveranstaltungsteilnehmer laut Vorlesungsverzeichnis für diese Lehrveranstaltung zu reservieren hatten; der Projektkurs wurde nämlich als wöchentliche zweistündige Lehrveranstal- tung angekündigt. Auf diese Weise konnten Kollisionen mit anderen Lehrveranstaltungen, die bei teilgeblockten Kursen sonst häufig auftreten, verhindert werden. 16 Auch hinsichtlich der personellen Komponenten lässt sich eine erhebliche Verbesserung der Evaluationsergebnisse erkennen. Dies könnte darauf zurückzuführen sein, dass – im Gegensatz zum SS 2002 – im SS 2003 und noch stärker im SS 2004 beinahe jede geplante Aktivität jeder Projektgruppe vom Lehrveranstaltungsleiter im vorhinein begutachtet, kommentiert und gegebenenfalls gemeinsam mit der Gruppe adaptiert wurde. Diese verstärkte Rückmeldung scheint bei den Studierenden auf ein positives Echo zu stoßen. Für zukünftige Abhaltungen der Lehrveranstaltung A ergibt sich als Ziel im Wesentlichen eine Wiederholung der positiven Evaluationsergebnisse. Verbesserungspotential ist am ehesten noch hinsichtlich des Inhalts der Lehrveranstaltung gegeben. In Frage käme ein breiteres Angebot an Projekten, aus dem die Studierenden dann je nach Interessenlage auswählen könnten. Allerdings wäre eine solche Vorgangsweise mit erheblichem Mehraufwand für den Lehrveranstaltungsleiter verbunden. Gemäß Tabelle 4 hat es hinsichtlich der Evaluationsergebnisse zu Lehrveranstaltung B zwischen WS 2001 und WS 2003 kaum Veränderungen gegeben. Infolge der guten Beurteilung war auch die Lehrveranstaltung selbst seit WS Tabelle 3: Detailergebnisse – Lehrveranstaltung A17 Tabelle 4: Detailergebnisse – Lehrveranstaltung B18 58(2007)1, 21-27 E va luat i o n d e r L e h r e 2001 weitgehend unverändert geblieben.19 Eventuell wären für zukünftige Abhaltungen doch wieder Verbesserungsmaßnahmen zu überlegen, da dauerhafter Stillstand zu Defiziten im Hinblick auf thematische und organisatorische Aktualität führen könnte. Derartige Maßnahmen könnten die Einbeziehung weiterer Rechtsbereiche, wie etwa des Patentrechts, oder auch organisatorische Änderungen, wie etwa die Vergabe von Fallbeispielen als Hausübung, umfassen. der Lehrveranstaltung aus Sicht der Studierenden, erzielt zu haben. Die Bewertung hat sich sogar verschlechtert. Für die Zukunft werden vom Lehrveranstaltungsleiter derzeit zwei Alternativen in Erwägung gezogen. Einerseits eine wesentliche Überarbeitung des Proseminars zu einer Lehrveranstaltung mit einem umfangreicheren Theorieteil, breiter gefächerten, aber exakt vorgegebenen Gruppenarbeiten und einer stärkeren Betonung technischer Aspekte. Andererseits eine gänzliche Tabelle 5: Detailergebnisse – Lehrveranstaltung C20 Tabelle 6: Detailergebnisse – Lehrveranstaltung D21 raumes dargestellt ist, lässt sich erkennen, dass die eingangs geäußerte Vermutung nicht bestätigt wird; die Qualität von Lehrveranstaltungen – ausgedrückt durch die Evaluationsergebnisse – nimmt mit steigender Zahl an Abhaltungen nicht automatisch zu. Selbst im Falle laufender Verbesserungsbemühungen seitens des Lehrveranstaltungsleiters tritt nicht unbedingt eine Verbesserung der Bewertung ein. Umfangreiche Änderungsmaßnahmen, die von den Studierenden auch als Qualitätssteigerungen empfunden werden, führen allerdings sehr wohl zu deutlich verbesserten Evaluationsergebnissen. Eine auf die Gesamtbeurteilung beschränkte Gegenüberstellung der Ergebnisse von individueller und zentraler Evaluation zeigt hinsichtlich der acht doppelt evaluierten Lehrveranstaltungen weitgehende Übereinstimmung (vgl. Abbildung 3). Dies ist als Indiz sowohl für die Gleichwertigkeit der beiden Vorgangsweisen als auch für die Zuverlässigkeit der Evaluatoren zu werten. Man kann also den Ergebnissen einer individuellen Evaluation durchaus dieselbe Bedeutung beimessen wie jenen einer zentralen Evaluation. Zudem scheinen die evaluierenden Studierenden Evaluationen selbst im Falle von knapp aufeinander folgenden Wiederholungen äußerst ernst zu nehmen. Dennoch sollten derartige Wiederholungen nur in Ausnahmefällen stattfinden. 4 Schlussfolgerungen Hinsichtlich Lehrveranstaltung C legt die Evaluation im Zeitverlauf eine leicht negative Entwicklung der Beurteilungsergebnisse offen (vgl. Tabelle 5). Nachdem die erste Bewertung der Lehrveranstaltung im SS 2002 durchaus akzeptabel war und von den Studierenden kaum (umsetzbare) Verbesserungsvorschläge genannt wurden, hielt sich die Anzahl der vorgenommenen Änderungen in Grenzen. So wurden etwa die Gruppenarbeiten auf den Themenbereich „Bewertung des Webauftritts von Universitätsinstituten der Universität Graz“ beschränkt, um den Studierenden die Analyse von inhaltlich fremden sowie fremdsprachigen Webseiten zu ersparen. Weiters wurden die Vorgaben für die Entwicklung eines Bewertungsschemas für Webseiten reduziert, um Raum für kreative Lösungen zu schaffen. Diese Änderungen scheinen jedoch nicht den erwünschten Erfolg, nämlich eine Qualitätsverbesserung 58(2007)1, 21-27 Einstellung dieser Lehrveranstaltung zugunsten eines vollkommen neuen Angebots. Die zweite der eben angesprochenen Alternativen wurde bereits im Jahr 2000 für die Lehrveranstaltung D gewählt. Hier haben zwar umfangreiche inhaltliche22, personelle23 und organisatorische24 Umgestaltungsmaßnahmen zu einer Verbesserung der Evaluationsergebnisse gegenüber dem WS 1998 geführt, jedoch waren diese Ergebnisse – vor allem in Relation zum Aufwand der Verbesserungsversuche – aus Sicht des Lehrveranstaltungsleiters noch immer nicht zufriedenstellend (vgl. Tabelle 6). Zudem ließ sich auch kein weiteres Verbesserungspotential orten. 3.2 Gesamtbetrachtungen Anhand von Abbildung 2, in der für jede untersuchte Lehrveranstaltung die Gesamtbeurteilung am Beginn und Ende des jeweiligen Betrachtungszeit- Es empfiehlt sich, jede durchgeführte Lehrveranstaltung abschließend von den Studenten evaluieren zu lassen, und nicht wie in der Satzung der Uni Graz vorgesehen, nur alle sechs Semester eine Evaluation vornehmen zu lassen. Ob es sich dabei jeweils um eine 19 Inhaltliche Aktualisierungen aufgrund von Gesetzesänderungen wurde selbstverständlich vor jeder Abhaltung vorgenommen. 20 Vgl. Fußnote 17. 21 Vgl. Fußnote 17. 22 Die Anzahl der besprochenen Informationsmanagementkonzepte wurde drastisch reduziert, was im Hinblick auf die Evaluationsergebnisse durchaus erfolgreich war: die Maßnahme führte (vermutlich) zu einer deutlich besseren Bewertung des Inhaltes der Lehrveranstaltung, des Stoffumfanges sowie des Schwierigkeitsgrades des Stoffes. 23 Zur Verbesserung seiner fachlichen Kompetenz hat sich der Lehrveranstaltungsleiter nochmals besonders intensiv mit den vorgestellten Konzepten auseinandergesetzt. Diese Maßnahme dürfte die Evaluierungsergebnisse jedoch kaum positiv beeinflusst haben. Die Beurteilung des Erklärungsvermögens hat sich zwar verbessert, jene der fachlichen Kompetenz aber verschlechtert. 24 Die Abkehr von studentischen Referaten über Informationsmanagementkonzepte zugunsten von praxisbezogenen Gruppenarbeiten scheint einen gewissen Erfolg im Hinblick auf die Evaluationsergebnisse gehabt zu haben. 25 E va luat i o n d e r L e h r e perten bewertet werden. Derartige Fremdbeurteilungen wiesen allerdings den gravierenden Nachteil auf, dass externe Experten die zu bewertenden Lehrveranstaltungen sicherlich nicht regelmäßig besuchen würden und deshalb nur punktuelle Qualitätseinschätzungen vornehmen würden. Somit dürften insgesamt gesehen die Studierenden als Adressaten der Lehrveranstaltungen sehr wohl die geeignetsten Personen für deren Beurteilung sein.27 Literatur Baxter, E.: The TEVAL Experience, 1983-88: The Impact of a Student Evaluation of Teaching Scheme on University Teachers. In: Studies in Higher Education, Vol. 16 (1991), Issue 2, 151178 Abbildung 2: Gesamtergebnis25 Abbildung 3: Individuelle – Zentrale Evaluierung26 zentrale Evaluation, die vom Lehrveranstaltungsleiter jederzeit beantragt werden kann, oder eine individuelle Evaluation handelt, erscheint hinsichtlich der Qualität der Ergebnisse relativ unerheblich. Diesbezügliche Vergleiche haben keine nennenswerten Unterschiede offen gelegt. Die Evaluation ausgewählter Lehrveranstaltungen des 25 Bei den angeführten Werten handelt es sich wiederum um Mittelwerte. Bedeutung der Werte: 1 = nicht genügend, …, 3 = durchschnittlich, …, 5 = sehr gut. 26 Bei den angeführten Werten handelt es sich bezüglich der individuellen Evaluation um Mittelwerte (vgl. Fußnote 17), hinsichtlich der zentralen Evaluation um diesen Mittelwerten sehr ähnliche Maße der zentralen Tendenz. Die ursprünglichen Ergebnisse (Ergebniswerte) der zentralen Evaluation mussten transformiert werden, da dort 1 für „sehr gut“ und 5 für „nicht genügend“ steht. Bedeutung der Werte in Abbildung 3: 1 = nicht genügend, …, 3 = durchschnittlich, …, 5 = sehr gut. 27 Zur Eignung (und zum Einsatz) Studierender als Evaluatoren: vgl. z.B. Reichmann (1999), Rindermann (1996) und Scholz (1995). 26 Autors im Zeitverlauf hat gezeigt, dass eine Lehrveranstaltung nach mehrmaliger Abhaltung nicht unbedingt besser bewertet werden muss als bei ihrer Premiere. Vermutlich wird sich zwar jeder Universitätslehrer bemühen, die im Rahmen einer Evaluation zutage getretenen Schwächen zu beheben, jedoch sind derartige Bemühungen nicht immer von Erfolg gekrönt. Nur eine permanente Evaluation bietet die Möglichkeit, Verbesserungsversuche rasch als erfolgreich oder gescheitert zu identifizieren. Abschließend sei noch darauf hingewiesen, dass seitens mancher Universitätslehrer eine gewisse Skepsis hinsichtlich der Eignung von Studierenden als Evaluatoren von Lehrveranstaltungen besteht. Zum Teil wird überhaupt die Meinung vertreten, dass Studierende die Lehre nicht angemessen beurteilen könnten. Vielmehr sollten die Lehrveranstaltungen durch externe Ex- Bedggood, R.; Pollard, R.: Uses and misuses of student opinion surveys in eight Australian universities. In: Australian Journal of Education, Vol. 43 (1999), Issue 2, 129-141 Burney, F.: Students’ Evaluation of Teaching in a Saudi Arabian University. In: British Journal of Educational Technology, Vol. 20 (1989), Issue 3, 200-208 Ellis, R.: The Management of Quality in the University of Ulster. In: Higher Education, Vol. 25 (1993), Issue 3, 239-257 Esser, H.: Zweifel an der Evaluation der Lehre. In: Wirtschaftswissenschaftliches Studium, 1/1997, 45-49 Gramlich, E.; Greenlee, G.: Measuring Teaching Performance. In: Journal of Economic Education, Vol. 24 (1993), Issue 1, 3-13 Hansen , U.; Hennig-Thurau , T.; Wochnowski , H.: TEACH-Q: Ein valides und handhabbares Instrument zur Bewertung von Vorlesungen. In: Die Betriebswirtschaft, 3/1997, 376-396 Hativa , N.; Raviv , A.: Using a Single Score for Summative Teacher Evaluation by Students. In: Research in Higher Education, Vol. 34 (1993), Issue 5, 625-646 Henninger, M.; Balk, M.: Transparenz von Lehrevaluation an der Hochschule – Wie aktiv sollen Lehrende am Evaluationsprozess beteiligt sein?. In: Das Hochschulwesen, 1/2003, 2-7 Jirovec, R.; Ramanathan, C.; Rosegrant-Alvarez, A.: Course-Evaluations: What Are Social Work Students Telling Us About Teaching Effectiveness?. In: Journal of Social Work Education, Vol. 34 (1998), Issue 2, 229-236 Krempkow , R.: Ist „gute Lehre“ meßbar? Die Verwendbarkeit studentischer Lehrbewertungen zur Darstellung der Lehrqualität und weiteren Maßnahmen. In: Das Hochschulwesen, 4/1998, 195-199 Kriszio, M.: Studentische Veranstaltungsbeurteilungen und ihre Auswirkungen auf Lehre und Karriere – Fallstudie an einer amerikanischen Hochschule. In: Das Hochschulwesen, 5/1992, 217-225 Kromrey , H.: Qualitätsverbesserung in Lehre und Studium statt sogenannter Lehrevaluation. Ein Plädoyer für gute Lehre und gegen schlechte Sozialforschung. In: Zeitschrift für Pädagogische Psychologie, 10. Jg. (1996), Heft 34, 153-166 Lin, W.; Watkins, D.; Meng, Q.: Evaluating the Effectiveness of University Teaching: A Taiwan Validation-Study. In: Psychologia, Vol. 38 (1995), Issue 2, 77-89 Marsh, H.; Hau , K.; Chung , C.; Siu , T.: Students’ Evaluations of University Teaching: Chinese Version of the Students’ Evaluations of Educational Quality Instrument. In: Journal of Educational Psychology, Vol. 89 (1997), Issue 3, 568-572 58(2007)1, 21-27 E va luat i o n d e r L e h r e Miller, J.; Dzindolet, M.; Weinstein, L.; Xie, X.; Stones, C.: Faculty and Students’ Views of Teaching Effectiveness in the United-States, China, and South-Africa. In: Teaching of Psychology, Vol. 28 (2001), Issue 2, 138-142 Lehre, Bewertung, Informationswissenschaft, empirische Untersuchung Neath, I.: How to Improve Your Teaching Evaluations Without Improving Your Teaching. In: Psychological Reports, Vol. 78 (1996), Issue 3, 13631372 Reichmann, G.: Einflußfaktoren auf die Qualität von Lehrveranstaltungen. In: Das Hochschulwesen, 5/1999, 154-156 Rindermann, H.: Zur Qualität studentischer Lehrveranstaltungsevaluationen: Eine Antwort auf Kritik an der Lehrevaluation. In: Zeitschrift für Pädagogische Psychologie, 10. Jg. (1996), Heft 3-4, 129-145 Schnell , R.; Kopp , J.: Zur Evaluation von Lehrveranstaltungen in den Sozialwissenschaften. In: Soziologie, 3/2001, 32-40 Scholz, O.: Evaluation von Lehrveranstaltungen durch Studenten. Nachlese einer empirischen Erhebung. In: Forschung & Lehre, 9/1995, 497501 Strohmeier, D.; Carstensen, D.: Evaluation der Lehrveranstaltungen im SS 01 – Trends, Ergebnisse und Empfehlungen, Bericht der Stabsstelle für Lehrentwicklung und Evaluation der Karl-Franzens-Universität Graz Thom, N.; Levin, A.: Verbesserung der Lehre als Teil eines umfassenden Qualitätsmanagements – Generelle Überlegungen und Fallbeispiel. In: Das Hochschulwesen, 4/2003, 160-164 Ting, K.: A Multilevel Perspective on Student Ratings of Instruction: Lessons from the Chinese Experience. In: Research in Higher Education, Vol. 41 (2000), Issue 5, 637-661 Tinnefeld, M.: Evaluation der Lehrenden – eine Fata-Data Morgana? Zwischen Kontrolle und Persönlichkeitsschutz im „Unternehmen Wissenschaft“. In: Datenschutz und Datensicherheit, 25. Jg. (2001), Heft 1, 2126 D e r A u to r Gerhard Reichmann Dr. rer.soc.oec. et Dr. iur., ao. Univ.-Prof. am Institut für Informationswissenschaft der Karl-Franzens-Universität Graz; Forschungsschwerpunkte: Universitätsmanagement (Evaluierung von Forschung, Lehre und Verwaltung), Bibliotheksmanagement (Leistungsmessung und Benutzerforschung), Informationsrecht (Datenschutzrecht). Institut für Informationswissenschaft Karl-Franzens-Universität Graz Universitätsstraße 15 / F3 8010 Graz, Österreich [email protected] Telefon: +43/316/380/3563, Telfax: +43/316/380/9575 www.kfunigraz.ac.at/iwiwww/pers/reich.html Obwohl mein Sozialpädagogik-Studium in Bremen mir viel Spaß gemacht hatte, fiel mir der Berufseinstieg ziemlich schwer und mein Umzug nach Wismar in meine Heimat Mecklenburg stellte sich beruflich nicht als die beste Entscheidung heraus. Daher beschloss ich im Sommer 2002, mich beruflich neu zu orientieren und an der FH Hamburg Bibliotheksmanagement zu studieren. Mein Interesse für Bibliotheken und Bücher bestand schon lange. Ich hatte während des Studiums in meiner Hochschulbibliothek gearbeitet und von Wismar aus zwei Spezialbibliotheken bei der Einführung der elektronischen Ausleihe unterstützt. Während der Wohnungs- und Stellensuche in einer Hamburger Zeitung fiel mir eine Stellenanzeige für eine deutschsprachige Nanny (Kindermädchen) bei einer österreichisch-englischen Familie in London auf. England hatte mich immer gereizt, die nötigen Qualifikationen und Erfahrung in der Arbeit mit Kindern hatte ich und mit dem Studium konnte ich auch noch ein Jahr warten. So bewarb ich mich auf die Stelle, hatte ein Bewerbungsgespräch in Hamburg und bekam den Job. Innerhalb von vier Wochen gab ich meine Wohnung und mein bisheriges Leben auf und war auf dem Weg in ein 58(2007)1, 21-27 unbekanntes Abenteuer. Nach einem Jahr bei dieser Familie war mein Englisch so gut, dass ich beschloss, in London zu bleiben und mir einen englischsprachigen Nanny-Job zu suchen. Als im Dezember 2003 das Angebot kam, halbtags im Kundendienst des Bibliothekslieferanten Starkmann Ltd. zu arbeiten, war sofort klar: Diese Chance konnte ich mir nicht entgehen lassen. Neun Monate lang betreute ich Universitätsbibliotheken in Deutschland, Österreich und der Schweiz bei deren Bestellungen von englischen und amerikanischen Büchern. Meine vorherige Bibliothekserfahrung erwies sich als hilfreich im Kontakt mit den Kunden und ich lernte, wie wertvoll die Zweisprachigkeit beruflich ist, weil die Briten selbst sich mit Fremdsprachen eher schwer tun. Dieser Job gab den Ausschlag für meine Entscheidung zum Berufswechsel. Eine Rückkehr nach Deutschland konnte ich mir zu der Zeit nicht vorstellen und so begann ich mich über die Bibliotheks-Ausbildung in Großbritannien zu informieren. Die Website von CILIP, dem Chartered Institute of Library and Information Professionals, bietet eine gute Übersicht über Studienmöglichkeiten in Großbritannien. Aufgrund meines abgeschlossenen Stu- diums waren für mich die Master-Studiengänge mit einer postgradualen Qualifikation interessant. Vom britischen Berufsverband für Sozialarbeiter bekam ich die Anerkennung meines deutschen Diploms bestätigt. Die meisten Universitäten verlangen zwölf Monate Berufspraxis vor Beginn des Studiums. Viele Bibliotheken und Informationseinrichtungen bieten Graduate-Trainee-Stellen an. Diese Stellen werden landesweit akkreditiert und verbinden Ausbildung und praktische Arbeit für zukünftige Bibliothekare und Informationswissenschaftler. Viele dieser Stellen werden sowohl auf der CILIP-Website als auch in den allgemeinen Stellenanzeigen der großen Zeitungen und durch auf das Bibliotheks- und Informationswesen spezialisierte Arbeitsvermittlungsagenturen ausgeschrieben. Nach einigen Bewerbungsgesprächen wurde ich im September 2004 in der National Art Library im Victoria-und-Albert-Museum angenommen. Bereits beim Vorstellungsgespräch beeindruckte mich die Bibliothek, die sich noch im viktorianischen Originalzustand befindet. Es handelt sich um eine Präsenzbibliothek, deren Bestände größtenteils in Magazinen untergebracht sind. Was mich außerdem ansprach, war die Tatsache, dass die Bibliothek sechs Trainees einstellte. Es gab ein struktu- 27 N e w c o m e r Co r n e r Erfahrungen als LIS-Studentin in London I n f o r m at i o n e n riertes Trainingsprogramm, das wir alle durchliefen. Zu unseren Aufgaben gehörten im Laufe des Jahres neben vielfältigen buchtechnischen Arbeiten das Anlegen von einfachen Katalogeinträgen und das Bearbeiten von schriftlichen Anfragen (enquiries). Aufgrund meiner Fremdsprachenkenntnisse unterstützte ich außerdem die für Geschenke und Tausch zuständigen Bibliothekarinnen. Hinzu kamen die Mitarbeit am Lesesaal-Tresen (counter) und die Beschaffung angeforderter Bücher aus den Magazinen. Ich bewarb mich um einen Teilzeit-Studienplatz am University College London. Der dortige Fachbereich, School for Library, Archive and Information Studies, ist aus der ältesten Bibliotheksschule in Großbritannien hervorgegangen und genießt einen hervorragenden Ruf. Der Studiengang wird von John Bowman und Vanda Broughton geleitet, den Autoren der britischen Standardwerke zu Katalogisierung und Klassifikation. Das Studium der Library and Information Studies kann entweder in einem Jahr Vollzeit oder zwei Jahren Teilzeit absolviert werden. Ich entschied mich für ein Teilzeitstudium, da es für mich unrealistisch war, ein Jahr lang nicht zu arbeiten und sowohl die Studiengebühren als auch meinen Lebensunterhalt zu finanzieren. Die Zusage erhielt ich zum Studienbeginn im September 2005. Nun galt es, die Finanzierung der 3000 Pfund Studiengebühren sicherzustellen. Meine Ersparnisse waren im Jahr zuvor in die BAföG-Rückzahlung geflossen und mein Gehalt erlaubte mir im teuren London nicht, große Ersparnisse anzuhäufen. Die britische Studienförderung kam für mich als Ausländerin nicht in Frage; der DAAD schien nur Auslandsstudien zu finanzieren, wenn der Auslandsaufenthalt aus Studiengründen erfolgte und eine Beziehung zum ersten Studienabschluss bestand. So entschied ich mich, bei einer Bank einen speziellen Ausbildungskredit (Career Development Loan) aufzunehmen, der erst nach Studienende zurückgezahlt werden muss. Zunächst bestand Hoffnung, dass ich aus dem FortbildungsBudget des Museums finanzielle Unterstützung erhalten könnte. Leider stellte sich heraus, dass dies nicht für Mitarbeiter mit befristeten Verträgen galt. Nachdem mein Arbeitsvertrag im September um ein Jahr verlängert wurde, erhielt ich zumindest einen Teil meiner Studientage in der Uni bezahlt. Den Rest muss ich mit Urlaubstagen oder Samstagsdiensten ausgleichen. Das Studienjahr ist in drei Abschnitte (Terms) von zehn bis zwölf Wochen ge- 28 gliedert. Im ersten Term hatten wir alle Lehrveranstaltungen gemeinsam mit den Vollzeitstudierenden, insgesamt etwa 80 Leute. Dadurch fehlte anfangs der Überblick, wer Vollzeit und wer Teilzeit studierte. Dies änderte sich in den darauf folgenden Terms und so entwickelte sich mit der Zeit ein Gruppengefühl unter den 18 Teilzeitstudierenden. Gemeinsam ist uns, dass es nicht immer einfach ist, Arbeit und Studium zeitlich unter einen Hut zu bringen. Viele Studierende kommen zudem von außerhalb. Ich empfinde es aber als Vorteil, die kontinuierliche Praxiserfahrung zu haben und in das Studium einbeziehen zu können. Alle Studienleistungen werden in schriftlicher Form erbracht, es gibt lediglich eine mündliche Prüfung in einem Kurs im zweiten Jahr. Mit dem Schreiben meines ersten Essays tat ich mich sehr schwer. Ich hatte seit Jahren keine schriftlichen Arbeiten mehr angefertigt und die Hausarbeiten in meinem ersten Studium waren sehr praxisorientiert. Außerdem musste ich mich erst an akademisches Englisch gewöhnen und mein Zeitmanagement war anfangs auch nicht optimal. Ich hatte vor Studienbeginn eine Woche Urlaub mitten im Term gebucht, die mir nun für den Essay fehlte. So blieb mir keine Zeit, den Essay vor der Abgabe von irgendjemandem Korrektur lesen zu lassen. Nach der Abgabe hatte ich einen Termin mit einem Studienberater, der mir ein sehr positives Feedback zu meinem Essay gab. Ein regelmäßiger Sprachkurs in akademischem Englisch war zeitlich unmöglich und so half ich mir mit Ratgebern zum wissenschaftlichen Arbeiten aus der Unibibliothek. Inzwischen sind diese Anfangsschwierigkeiten überwunden. Über die Website der Unibibliothek habe ich von zu Hause aus Zugang zu den meisten Ressourcen und zu allen Programmen des Rechenzentrums. In der British Library befindet sich zudem ein Freihandbereich zum Bibliotheks- und Informationswesen, der auch abends und am Wochenende zugänglich ist. In den Lehrveranstaltungen wird großer Wert auf Praxisbezug gelegt. Jede Vorlesung wird mit Übungen oder Seminaren kombiniert und zwischendurch gibt es Gastdozenten oder auch Besuche in Bibliotheken und Informationseinrichtungen. Wir waren u.a. vor einiger Zeit im Idea Store Whitechapel im East End von London, einer hochgelobten neugebauten öffentlichen Bibliothek, die gleichzeitig als eine Art Nachbarschaftszentrum fungiert. Nach Abschluss des Studiums im nächsten Jahr möchte ich mindestens noch zwei Jahre in Großbritannien Berufserfahrung sammeln und meinen Kredit zurückzahlen. Danach kann ich mir eine Rückkehr nach Deutschland durchaus vorstellen. Ich denke, in Deutschland wäre mir ein so radikaler Berufswechsel deutlich schwerer gefallen. Hier zählen Eigeninitiative und Erfahrung mehr als reine Qualifikationen. Ich hatte viel Glück, dass ich aus meinem Nanny-Job zu Starkmann wechseln konnte, obwohl meine relevante Berufserfahrung schon einige Zeit zurück lag. Die Berufsaussichten im Bibliotheksund Informationswesen in Großbritannien sind derzeit sehr gut, weil in den nächsten Jahren viele Mitarbeiter aus dem Berufsleben ausscheiden und Nachwuchs gebraucht wird. Zudem werden Fremdsprachenkenntnisse sehr geschätzt. Links Starkmann Ltd. www.starkmann.co.uk National Art Library www.vam.ac.uk/nal/index.html siehe auch: G. U. Gabel: Die „National Art Library“ in London. Bibliotheksdienst 40(2006) 7-10 University College London (UCL) School of Library, Archive and Information Studies www.slais.ucl.ac.uk/ Career Development Loan www.direct.gov.uk/EducationAndLearning/Ad ultLearning/CareerDevelopmentLoans/fs/en CILIP Übersicht Studienmöglichkeiten in Großbritannien www.cilip.org.uk/qualificationschartership/ Wheretostudy Idea Store www.ideastore.co.uk D i e A u to r i n Antje Schröder wurde 1977 in Rostock geboren. Nach dem Abitur studierte sie Sozialarbeit und Sozialpädagogik an der Hochschule Bremen, und war von 1999 bis 2002 als Sozialpädagogin in der Jugendarbeit in Bremen und Mecklenburg-Vorpommern tätig. Im Sommer 2002 nahm sie eine Stelle als deutschsprachige Nanny (Kindermädchen) in London an. Seit September 2004 arbeitet sie zunächst als Graduate Trainee, dann als Bibliotheksassistentin in der National Art Library im Victoria-und-Albert-Museum. Im September 2005 begann sie ein zweijähriges berufsbegleitendes MasterStudium in Library and Information Science am University College London (UCL). [email protected] 58(2007)1, 27-28 Hochschule »Find out what works« 1 Auswahl und Anwendung von Usability-Tests für das Redesign eines Medienportals Nicole Petrucela, Projektteam amuse, Hamburg „ The point of web site usability is do make web sites perform the function for which they were In einer Evaluationsstudie der HAW Hamburg wurden im Rahmen des Projekts amuse Bedienkomfort, Informationsarchitektur, Content-Qualität und Marketingorientierung des Medienportals medienhandbuch.de analysiert sowie die wesentlichen Merkmale der Website mit denen der wichtigsten Konkurrenzangebote verglichen. In dem Beitrag wird dokumentiert, wie Design und Struktur der Website mit Hilfe einer Kombination aus expertenorientierten und nutzerorientierten Evaluationsverfahren überprüft werden. Um die Usability der Website optimieren zu können, werden als Testmethoden der Fallschirmspringertest, die heuristische Evaluation, die Bewertung nach dem Web Usability Index, der Cognitive Walkthrough sowie ein Nutzertest im Usability-Labor angewendet und ausgewertet. Aus den Testergebnissen können wertvolle Verbesserungsansätze abgeleitet werden, die schließlich zu detaillierten Optimierungslösungen führen. Choice and Application of Usability Test for the Redesign of a Media Portal In an evaluation study in the context of the project amuse students of the University of Applied Sciences Hamburg analyzed usability, information architecture, content quality and marketing orientation of the media portal medienhandbuch.de. The study adopted a whole range of expert-oriented and user-oriented testing-methods like the car boot test, heuristic evaluation, comparative evaluation with the Web Usability index, cognitive walkthrough as well as user tests in a usability laboratory. Central characteristics of the portal were compared with those of the most important competitors. From the results of the tests valuable suggestions for improvement of the portal could be derived. 58(2007)1, 29-34 “ Usability, zu Deutsch formationen und designed, with the minimal amount NutzungsfreundlichDaten aus dem geof users frustration, time and effort. keit, ist eine Aussamten MedienbeMark Pearrow prägung der Gereich, wie z. B. brauchstauglichkeit Pressemeldungen, eines (Software-)Produkts [1]. Dabei wird Adresslisten oder Stellenanzeigen. Gebrauchstauglichkeit definiert als eine Dabei bietet medienhandbuch.de soFunktion aus Effektivität, Effizienz und wohl kostenpflichtige als auch unentNutzerzufriedenheit. Es wird davon ausgeltlich zu nutzende Dienste auf seiner gegangen, dass Nutzer eines InternetanPlattform an. gebots weitgehend ohne Hinder-nisse, Ziel des Projektes amuse war es, den ohne Wartezeiten und ohne EinarbeiBetreibern von medienhandbuch.de in tungsaufwand eine bestimmte InformaForm einer Usability- und Marketingstution oder Funktion finden, ein Problem die konkrete Vorschläge und Lösungen lösen oder etwas kaufen wollen. sowohl für eine Neukonzeption der InViele Websites sind überladen mit unformationsarchitektur des Frontend, als strukturierten Informationen und Grafiauch für eine Neuausrichtung der Marken, so dass ein interessierter User aufketingorientierung der Website zu ungrund der Unübersichtlichkeit schnell terbreiten. Im Zuge der Neupositioniedie Geduld verliert, sich weiter mit dem rung der Website musste deshalb ein Angebot auseinanderzusetzen. An dieKonzept zur Reorganisation der Inhaltssem Punkt knüpft die Usability-Forstrukturierung und zur Neustrukturieschung an, die ein breites Spektrum an rung des Frontend auf der Grundlage Methoden bereithält, mit denen ermiteiner umfassenden Usability-Evaluation telt werden kann, ob eine Website nutvorgenommen werden, zum anderen zerfreundlich gestaltet ist und ob sie allsollten Modelle und Optionen für Margemeinen Usability-Kriterien entspricht. ketingstrategien ermittelt und entwickelt werden, die es erlauben, die bestehenden netzvermittelten Informationsangebote und Dienstleistungen von medienhandbuch.de durch neue kunIm Rahmen des Semesterprojekts dengerechte und dabei kostenpflichtige amuse der Hochschule für Angewandte Dienste zu ergänzen. Wissenschaften Hamburg (HAW) wurDas Projektteam der HAW Hamburg hat de im Sommer 2005 eine umfassende die Projektergebnisse in einem Bericht Usability-Studie für das Internetportal dokumentiert [3], der unter anderem www.medienhandbuch.de erstellt, deaus folgenden Teile besteht: ■ Bestandsaufnahme und Konkurrenzren Ziel es war, das Medienportal bei analyse vergleichbarer Internet-Ander Entwicklung einer nutzerfreundgebote, licheren Gestaltung zu beraten. Beste■ Resultate und Empfehlungen aus der hende Usability-Probleme sollten erUsability-Analyse zur Website mekannt und Vorschläge zur Umgestaldienhandbuch.de tung der gesamten Website erarbeitet ■ Analysen, Konzepte und Prototypen werden. für alternative und ergänzende Das Internetportal medienhandbuch. Dienste zum bestehenden Servicede, nach eigener Darstellung ein virtuelAngebot von medienhandbuch.de. ler Medienmarktplatz mit Informationsund Serviceangeboten in den Segmenten Medien, Kultur und Informationstechnologie, stellt unter anderem eine 1 Der Haupttitel des Beitrags ist einem Zitat Adressdatenbank, eine Jobbörse, ein von Jakob Nielsen [1] entlehnt: „Usability´s job is to research user behavior and find out Bildungsforum und einen PR-Channel what works. Usability should also defend zur Verfügung. Gegenstand des Portals user´s rights and fight to simplicity. Both medien-handbuch.de ist die Erfassung, aspects have their place, and it’s important to Aufbereitung und Verbreitung von Inrecognize the difference.” medienhandbuch.de auf dem Prüfstand 29 U sa b i l i t y Te st Der vorliegende Beitrag konzentriert sich auf die Usability-Analysen zu medienhandbuch.de, deren Ziel es war, den Auftraggeber bei der nutzerfreundlichen Gestaltung seines Portals zu beraten, indem vorhandene Usability-Fehler erkannt, Nutzungsbarrieren identifiziert und Empfehlungen zu einer entsprechenden Umgestaltung der Website gegeben wurden. Zu den wichtigsten Komponenten der Usability-Studie zählten: ■ eine umfangreiche heuristische Evaluation der Internetseite; ■ ein so genannter „Fallschirmspringertest“; ■ ein Usability-Test im Labor; ■ ein Web Usability Index der Universität Saarbrücken; ■ die Prüfung der Barrierefreiheit. Die einzelnen Testmethoden und die Ergebnisse aus der Usability-Studie werden vorgestellt und zusammenfassend kritisch beurteilt. Dabei soll auch beurteilt werden, welche Bedeutung die angewendeten Usability-Testverfahren für die Evaluation von medienhandbuch.de hatten. Trunk-Test:Der Fallschirmspringertest Um einen schnellen Überblick über die Nutzungsfreundlichkeit einer Internetseite zu bekommen, reicht oft ein wenig aufwändiges Prüfverfahren, wie es z. B. im so genannten Fallschirmspringertest nach Steve Krug zur Verfügung steht [4]. Dieser Bewertungstest umfasst sechs Fragen, und es reicht, ihn mit nur wenigen Versuchspersonen durchführen zu lassen, um zu einem aussagekräftigen Ergebnis zu kommen. Im Original heißt diese Untersuchungsmethode „Trunk Test“ (Kofferraumtest). Krug fordert den Tester einer Internetseite auf, sich in die Lage eines Menschen zu versetzen, der quasi im Kofferraum eines Autos in die Tiefen des Internets entführt und auf einer beliebigen, ihm unbekannten Website ausgesetzt wird. Krug geht davon aus, dass der so Entführte (bzw. der in unbekannter Landschaft gelandete Fallschirmspringer) auf einer nutzungsfreundlichen Internetseite auf Anhieb in der Lage ist, sechs Fragen zu beantworten: 1. Auf was für einer Seite befinde ich mich? – Site ID 2. Wie heißt die Seite auf der ich mich befinde? – Page Name 3. Was sind die Hauptkategorien dieser Seite? – Sections 4. Welche Möglichkeiten der Navigation habe ich auf dieser Seite? – local navigation 5. Auf welcher Hierarchieebene befinde ich mich? – „You are here indicators” 6. Wie kann ich weiter suchen? 30 nach festgelegten Prüfverfahren, den so genannten Heuristiken, die im Vorfeld von einem Expertenteam festgelegt werden. Bei einer heuristischen Evaluation untersuchen grundsätzlich mehrere Evaluatoren ein Produkt. Das hat den Vorteil, dass mehr Usability-Probleme aufgedeckt werden können, da unterschiedliche Evaluatoren jeweils andere Verstöße gegen die Heuristik finden können. Jeder einzelne Prüfer entdeckt ca. 35% der Usability-Probleme. Bei drei bis fünf Prüfern kann die Erkennungsrate auf bis zu 75% gesteigert werden [6]. Der Ablauf der heuristischen Evaluation von medienhandbuch.de erfolgte in mehreren Phasen. Zunächst wurde ein Kriterienkatalog mit folgenden Hauptkategorien entwickelt: 1. Darstellung der Informationen; 2. Textverständlichkeit; 3. Navigation; 4. Technische Kriterien. Anhand des Kriterienkatalogs erfolgte die Überprüfung des Medienportals. Jeweils vier Gutachter untersuchten die Seite jeweils unabhängig voneinander. Es wurden insgesamt 48 Usability-ProAbbildung 1: Für den Fallschirmspringertest verwendete Inbleme gefunden; von ternetseite jedem Prüfer durchschnittDie Auswertung der Protokolle ergab, lich 27. Bei der anschließenden Kategoridass die Orientierung auf medienhandsierung und Gewichtung der gefundebuch.de für Nutzer, die die Seite zum nen Probleme wurde berücksichtigt, ersten Mal besuchen, in der Regel relawelchen Einfluss ein Fehler auf die Aktiv einfach ist. Optimierungspotenzial zeptanz bei den Nutzern hat. Auch ein ergab sich jedoch für die Navigation Mangel, der zunächst nicht schwerwieund die hierarchische Struktur der Intergend erscheint, kann Nutzer irritieren netseite. Beide sind für erstmalige Nutund dazu führen, dass die Seite verlaszer auf den ersten Blick nicht schlüssig. sen und nicht mehr besucht wird. Außerdem wurde festgehalten, bei wie Ein so genannter Ariadne-Pfad, d. h. vielen Interaktionssituationen ein Proeine Pfaddarstellung der Seitenhierarblem aufgetreten ist (Problemhäufigchie, könnte hier die nötige Abhilfe keit), in welchem Ausmaß die Aufgabenschaffen. Darüber hinaus wurde die bewältigung durch das Problem beeinSuchfunktion nicht auf Anhieb gefunträchtigt wurde (Problemeinfluss) und den, da sie vom Nutzer erst nach Scrolob sich dass Problem leicht beheben len sichtbar wird. Hier wurde dazu gelässt (Persistenz). Die registrierten Usaraten, die Suchfunktion im oberen Bebility-Probleme wurden nach den Prüfreich der Seite zu platzieren. Außerdem kriterien kategorisiert und implizit gesollten sich die Navigationskomponenwichtet. Das Ergebnis ist eine Einteilung ten noch deutlicher vom redaktionellen der Usability-Mängel anhand folgender Inhalt der Seite abheben, da die TestPrioritäten: personen diese Funktionen erst mit Priorität 1 – großes Problem; dringend zu deutlicher Verzögerung identifizieren bearbeiten konnten. In diese Priorität wurden häufig auftretende Mängel aufgenommen, die von mindestens einem Evaluator als Verstoß gegen die Usability-Kriterien eingestuft Heuristiken sind Verfahrensweisen oder wurden, und/oder Mängel die vom gePrinzipien, die Nutzern dabei helfen, samten Expertenteam als besonders resystematisch an einer Entdeckung, levant eingestuft worden waren. Priorität 2 – kleines Problem; zu bearbeiten einer Entscheidung oder einer Lösung Häufig auftretende Schwachstellen zu arbeiten [5]. Bei einer heuristischen einer Internetseite, die von mindestens Evaluation inspizieren Experten eine zu einem der Evaluatoren als mangelhaft untersuchende Benutzungsoberfläche Der Test geht von der Annahme aus, dass viele User die Homepage eines Online-Angebotes nicht direkt anwählen und dann einem geraden Pfad folgen. Die meisten Internetnutzer gelangen über den Link einer Suchmaschine direkt auf eine untergeordnete Seite und sind dann ebenso orientierungslos, wie ein verirrter Fallschirmspringer nach der Landung. Für medienhandbuch.de wurde fünf zufällig ausgewählten Testpersonen ein Screenshot einer Unterseite von medienhandbuch.de, die nicht in der ersten hierarchischen Ebene zu finden ist, als Ausdruck auf Papier vorgelegt (vgl. Abb. 1). Allen Testpersonen wurden die oben aufgeführten Fragen gestellt und die Antworten sowie nonverbale Reaktionen protokolliert. Experteninspektion – Heuristische Evaluation 58(2007)1, 29-34 U sa b i l i t y Te st bewertet wurden und/oder die im Vorfeld vom Expertenteam als besonders beeinträchtigend eingestuft worden sind, wurden in die Priorität 2 aufgenommen. Priorität 3 – kosmetisches Problem; zu bearbeiten, wenn Zeit dafür ist Seltener auftretenden Mängel, die jedoch von mindestens einem Evaluator benannt wurden, wurde die Priorität 3 zugeordnet. Nach Abschluss und Auswertung der heuristischen Evaluation von medienhandbuch.de konnten keine schwerwiegenden Verstöße gegen die gängigen Usability-Prinzipien festgestellt werden. Dennoch wurden einige konkrete Merkmale des Angebots identifiziert, die eine Überarbeitung nach Usability-Gesichtspunkten erforderlich machen. Mängel der Prioritätsstufe 1 wurden nur wenige identifiziert. Dazu gehörten unter anderem die mangelhafte Aktualität des Adressangebots sowie die unvorteilhafte Platzierung der Navigationsfunktionen von medienhandbuch. de. Zu den nicht erfüll-ten Kriterien der Priorität 2 zählten unter anderem fehlende Orientierungshilfen wie z. B. Index oder Sitemap und die sehr eingeschränkten Suchmöglichkeiten. Die meisten der herausgefilterten Mängelbeobachtungen wurde der dritten Priorität zugeordnet. Es wurde empfohlen, diese eher „kosmetischen Probleme“ wie z. B. fehlende Bildunterschriften, zu lange Seiten, Verwendung zu vieler Strukturelemente oder fehlende Informationen zum Newsletter-Versand bei Gelegenheit zu beheben. Der Web Usability Index Mit dem Web Usability, entwickelt an der Universität Saarbrücken von Ilse Harms und Werner Schweibenz [7], steht eine Methode zur Usability Evaluation zur Verfügung, mit der die Nutzerfreundlichkeit eines Online-Angebots schnell und einfach getestet werden und gleichzeitig mit der von Konkurrenzangeboten verglichen werden kann. Um alle Usablity-Aspekte beurteilen zu können, berücksichtigt der Index fünf Bewertungskategorien: 1. Navigation und Orientierung 2. Interaktion und Informationsaustausch 3. Aktualität und Qualität 4. Informations- und Textdesign 5. Auffindbarkeit und Zugänglichkeit Beim Web Usability Index handelt es sich um eine expertengenerierte Evaluationsmethode, die auf der Grundlage einer überprüfbaren Berechnungsformel eine differenzierte Bewertung erlaubt. Der Web Usability Index versetzt Usabilty-Tester in die Lage, nach den fünf genannte Bewertungskategorien diffe- 58(2007)1, 29-34 renziert das Vorkommen von UsabilityFehlern und -Defiziten automatisch in Prozent zu ermitteln. Dabei gilt: Je geringer der Prozentsatz, desto weniger Mängel enthält eine Internetseite. Der Web Usability Index kann in Form einer Excel-Datei2 aus dem Internet geladen und beliebig verändert werden (vgl. Abb. 2), damit der Test nach den Bedürfnissen und Anforderungen beliebiger Internetseite je nach Inhalt und Zielgruppe angepasst werden kann. mit großer Mühe erklärt, dessen Anwendung ihm oder ihr Probleme bereitet oder das nicht realisiert ist, obwohl es dringend notwendig wäre; 6. N/Z (nicht zutreffend) – dieser Eintrag wird gewählt, wenn UsabilityFragen zu einem bestimmten Merkmal nicht beantwortet werden können, weil es auf der Site keine Verwendung findet. Nach dem Test mit dem modifizierten Web Usability Index ergibt sich für das Abbildung 2: Website-Bewertung nach dem Web Usability Index Während der Evaluation von medienhandbuch.de wurden einige Fragen für den Test entfernt, einige andere, die aus anderen Heuristiken für Webkommunikation stammten, wurden hinzugefügt. Für die Bewertung wurden für jede der fünf Kategorien jeweils eine der fünf Schulnoten vergeben oder ein „nicht zutreffend“. Zur Objektivierung des Evaluationsprozesses wurde jeder der fünf Einstufungswerte genauer definiert: 1. Note sehr gut – wird vergeben, wenn dem User ein Merkmal unmittelbar positiv aufgefallen ist, dieses in der Website konsequent angewandt wird und also kein Änderungsbedarf besteht; 2. Note gut – als gut wird eine bestimmte Eigenschaft einer Website bewertet, die den Anforderungen des Nutzers gerecht wird und somit ihren Zweck erfüllt; 3. Note befriedigend – damit kann eine Frage bewertet werden, wenn eine bestimmte Anforderung zwar grundsätzlich, aber nicht konsequent erfüllt ist; 4. Note ausreichend – wird bei der Bewertung verwendet, wenn ein bestimmtes Kriterium zwar vorhanden, dem User aber nicht sofort einsichtig ist; 5. Note mangelhaft – bekommt ein Merkmal, das sich dem Nutzer nur Medienportal www.medienhandbuch. de eine Gesamt-Usability von 34,3 von 100 % auf. Das Ergebnis zeigt, dass medienhandbuch.de zum Zeitpunkt des Test zwar einige gravierende UsabilityMängel aufwies, die jedoch die Eigenschaften Bedienbarkeit und Nutzerfreundlichkeit der Website nicht grundsätzlich in Frage stellten. Die mit dem Web Usability Index identifizierten Usability-Probleme ähnelten stark denen, die auch durch die heuristische Evaluation gefunden wurden. Als nur ausreichend bis mangelhaft wurden die fehlenden Hilfefunktionen sowie die fehlende Orientierung auf den Unterseiten bewertet. Ebenfalls als verbesserungsbedürftig wurde die Suchfunktion eingestuft. Diese war auf der Seite zu weit unten platziert und konnte nur nach einem Scroll-Vorgang erreicht werden. Außerdem befand sich die Suchfunktion auf den jeweiligen Unterseiten nicht immer am selben Platz oder war überhaupt nicht verfügbar. Am Testtag befanden sich auf der Einstiegsseite 27 Teaser für redaktionelle Beiträge; der Scroll-Aufwand vor Erreichen des Eingabefeldes für die Suchfunktion war also erheblich. 2 Unter http://usability.is.uni-sb.de//werk zeuge/wu_index.php abrufbar. 31 U sa b i l i t y Te st Heuristische Evaluation der Handlungsabläufe und Cognitive Walkthrough Der Prüfung der Funktionalität aller Aktionen, die von medienhandbuch.de angeboten werden, sollte auf Wunsch des Auftraggebers besondere Aufmerksamkeit gewidmet werden. Deshalb wurde eine gesonderte intensive Prüfung der Funktionalitäten mit Hilfe einer spezifisch auf die Handlungsabläufe ausgerichteten heuristischen Evaluation durchgeführt. Zunächst wurde dazu ein Kriterienkatalog entwickelt, der folgende Hauptkategorien umfasste: 1. Darstellung der Aktionsformulare 2. Suchfunktionen 3. Newsletter 4. Shop 5. Ergebnisdarstellung Jeweils vier Gutachter untersuchten jeweils separat die Seiten des Medienportals anhand dieses Kriterienkatalogs. Die einzelnen Ergebnisse wurden in einer Tabelle zusammengefasst. Anschließend erfolgte die Kategorisierung und Gewichtung der identifizierten Probleme. Die Auswertung der heuristischen Evaluation zeigte, dass das Interface der Handlungsabläufe sowie der Nutzerdialog nicht allen Usability-Kriterien genügte. Die höchste Prioritätsstufe wurde unter anderem der ungenügenden Funktionalität des Newsletters zugeordnet, der gerade als „Aushängeschild“ der Website für eine intensive Kundenbindung sorgen soll. Hier wurde unter anderem eine klarere Rückmeldung für die Nutzer empfohlen und eine Möglichkeit, den Newsletter direkt von der Website aus abzumelden. Ebenfalls mit Optimierungspriorität 1 wurde die Darstellung einiger Aktionen belegt, die in ihrer Abfolge für den Nutzer nicht unmittelbar nachzuvollziehen waren. Darüber hinaus sind einzelne Eingabeformulare zu lang geraten, so dass der Nutzer nach einiger Zeit die Geduld verlieren könnte. Außerdem waren Begriffsbezeichnungen von Buttons uneinheitlich. Bei mehreren parallelen Handlungsabläufen auf einer Website ist es unabdingbar, dass alle Buttons mit derselben Bedeutung konsistente Bezeichnungen tragen, um den Nutzer nicht zu verwirren. Neben der Heuristischen Evaluation wurde auch die Methode des Cognitive Walkthrough angewendet, bei der mehrere Usability-Experten vorab definierte Handlungsabläufe einer Website durchspielen. Es wird untersucht und geprüft, ob und wie die Handlungsabläufe von den Nutzern verstanden werden; auftretende Probleme werden dokumentiert. Dabei konzentriert sich der Cognitive Walkthrough mehr auf die mentalen 32 Prozesse eines hypothetischen Nutzers, als auf die Beschaffenheit des Interface. Die Methode geht von der Annahme aus, dass eine usability-konforme Website den kognitiven und logischen Fähigkeiten des Durchschnittsnutzers entsprechen muss und bei der Bedienung von Funktionen kein spezielles Handlungswissen voraussetzt. Der Cognitive Walkthrough durch die Funktionalitäten von medienhandbuch. de wurde in zwei Phasen aufgeteilt: In der Vorbereitungsphase wurden die Untersuchungsbedingungen und die zu analysierenden Handlungssequenzen festgelegt. Dazu wurden alle Interaktionen der zu untersuchenden Website in einer Excel-Tabelle zusammengefasst, um dann die wichtigsten und umfangreichsten Interaktionen als Basis für den Cognitive Walkthrough identifizieren zu können. Für jede der herausgefilterten Aktionen wurde anschließend eine Aufgabe bzw. eine Handlungsabfolge mit speziell zu berücksichtigenden Kriterien der Heuristik definiert, die den Gutachtern zur Überprüfung vorgelegt wurde. In der Analysephase bearbeiteten jeweils vier Gutachter die gestellten Aufgaben und protokollierten alle beeinträchtigenden Faktoren, die bei der Durchführung der Interaktionen auftraten. Die jeweiligen Ergebnisse wurden nach Abschluss des Cognitive Walkthroughs gemeinsam diskutiert und bewertet. Die Auswertung ergab, dass die Handhabung der Interaktionen auf medienhandbuch.de für die Nutzer vereinfacht und transparenter gestaltet werden kann: ■ So wird beispielsweise bei der Ergebnisdarstellung zur Suchenfunktion die Anzahl der gefundenen Treffer nicht angezeigt. ■ Eine Suchanfrage kann nicht modifiziert werden – zum Abschluss einer Suche besteht lediglich die Möglichkeit, eine völlig neue Suche zu starten, ohne dass die vorherige Suchformulierung zum Zweck der Veränderung im Suchfeld stehen bleibt. ■ Bei einigen Interaktionen von medienhandbuch.de kann das zugeteilte Passwort nicht frei gewählt oder geändert werden. Zudem hat der Nutzer während der Handlungsabläufe der Passwortzuweisung keine Möglichkeit zurückzugehen bzw. die Anwendung zu verlassen. ■ Bei vielen Handlungsabläufen auf den unterschiedlichen Seiten wurden uneinheitliche Bezeichnungen verwendet. Deutlichere Strukturen, eindeutigeres und informativeres Feedback, konsequente Konsistenz der Begrifflichkeiten, regelmäßigere Aktualisierung der Handlungsabläufe sowie stärkere Fokussie- rung auf die Bedürfnisse des Nutzers waren die wesentlichen Kritikpunkte, die sich aus dem Cognitive Walkthrough durch die Website ergaben. Reality check:Usability-Test im Labor Der Usability-Test im Labor unterscheidet sich von den Tests im wesentlichen dadurch, dass nicht Experten die Website testen, sondern zwischen fünf bis sieben „unerfahrene“ Testpersonen. Diese Testnutzer, die in der Regel anders in der Website agieren als Expertennutzer, sollten soweit möglich dem Durchschnittsprofil der Nutzer der zu testenden Website entsprechen. Bei Tests im Usability-Labor hat sich die „thinking-aloud“-Methode bewährt. Dabei wird ein Proband aufgefordert, Gedanken während der Ausführung der Aufgaben laut auszusprechen. Indem die Tester verbalisieren, was ihnen durch den Kopf geht, wenn sie mit dem Computer bzw. der Website interagieren, kann man feststellen, wo und welche Verständnisprobleme auftreten. Während des Tests werden Bild und Ton der Testperson und parallel dazu der Bildschirm mit je einer Videokamera aufgezeichnet. Anschließend erfolgt die Verschriftlichung der gewonnenen Daten. Die so festgehaltenen Probleme werden in Problemkategorien eingeteilt, sortiert und gewichtet. Zusätzlich werden vor und nach dem Test Fragebögen ausgeteilt, in denen sowohl die Internet- und Computervorkenntnisse der einzelnen Probanden sowie deren subjektive Meinungen zu der getesteten Website erfragt werden. Für den eigentlichen Labortest wurde den Probanden eine Reihe von Aufgaben vorgegeben, mit denen vor allem die Struktur von medienhandbuch.de und die Navigationsmöglichkeiten getestet werden sollten. Alle Aufgaben waren lösbar und für die Testpersonen nachzuvollziehen. Zusätzlich wurde ein detaillierter Testablaufplan erstellt, um für jede Testperson die gleichen Voraussetzungen und Testbedingungen zu schaffen. Da im Testlabor nur eine Kamera zur Verfügung stand, wurde bei jeder Testsitzung der Bildschirm aufgenommen, um die Mausbewegungen dokumentieren zu können. Die mimischen und gestischen Reaktionen des jeweiligen Probanden wurden von einem Teammitglied protokolliert (vgl. Abb. 3); die verbalen Äußerungen der Probanden wurden mit dem zur Kamera gehörendem Mikrofon aufgenommen. Tatsächlich konnte die anschließende Analyse der Protokolle und der Videoaufzeichnungen zusätzliche Schwachstellen in der Nutzerfreundlichkeit von medienhandbuch.de in den Bereichen Navigation, Suchfunktion, Formularein- 58(2007)1, 29-34 U sa b i l i t y Te st Abbildung 3: Durchführung des Usability-Tests im Labor gabe und Darstellung aufdecken. Im Labor-Test ergab sich unter anderem, dass die Rubrikentitel der Hauptnavigation eindeutiger und aussagekräftiger benannt werden müssen und dass die Möglichkeiten der Subnavigation grafisch präsenter gestaltet werden muss, da alle Probanden Probleme damit hatten, diese Funktion überhaupt zu finden. Auch mit der Suchfunktion hatten die Laborprobanden Probleme, da die Suchfunktion nicht auf allen Unterseiten von medienhandbuch.de an derselben Stelle und in derselben Form dargestellt wurde. Der Test zeigte auch, dass die Eingabeformulare möglichst kurz gehalten werden sollten, indem sie sich auf nur absolut notwendige Datenfelder beschränken. Viele der Formulare empfanden die Probanden als zu lang, und auch die umständliche Registrierungsprozedur wurde von den Testpersonen kritisiert, da sich der Nutzer bei jeder Eintragungsmöglichkeit für die verschiedenen Dienste der Website erneut anmelden musste. Dem Auftraggeber wurde deshalb die Einrichtung einer einheitlichen und seitenübergreifenden Anmeldeoption empfohlen. Als weiterer Kritikpunkt wurde von mehreren Probanden die zu kleine Schrift bemängelt, und es wurde die optisch unzureichende Trennung von Inhalt und Werbung kritisiert. Barierrefreiheit Barrierefreies Internet bezeichnet Internet-Angebot, die sowohl von Menschen mit Behinderung oder altersbedingten Einschränkungen (z. B. Sehschwächen), aber auch von nichtbehinderten Nutzern uneingeschränkt genutzt werden können. Barrierefreiheit bedeutet auch Plattformunabhängigkeit: ein Internetangebot soll demnach auch mit PDA und WAP-Handy nutzbar bleiben. Barrierefreie Websites sollen außerdem für Suchmaschinen leichter zugänglich sein, da die Webcrawler, mit deren Hilfe Internet-Seiten indiziert werden, Websites ähnlich wahrnehmen wie sehbehinderte Nutzer. In der Regel kann also nur 58(2007)1, 29-34 der Text ausgewertet werden, Bilder, Animationen, allgemein nicht-textuelle Elemente bleiben den Suchmaschinen verborgen. Weiterhin sind barrierefreie Websites auch für ältere Computer mit alten Browserversionen bzw. mit langsamen Internetverbindungen besser zugänglich sowie für Firmencomputer, die Javascript und Plug-Ins aus Sicherheitsgründen deaktiviert haben. Bobby ist ein Testbrowser, mit dem eine Website auf Barrierefreiheit hin getestet werden kann. Im Internet wird eine kostenlose Testmöglichkeit mit Bobby angeboten [8]. Nach Anwendung des Tests wird – je nach Grad der Barrierefreiheit – ein Prüfsiegel vergeben. Im Projekt amuse wurde der Bobbytest auf das zu überprüfende Medienportal angewandt. Nach Eingabe der URL der zu testenden Website auf der Internetseite http://bobby.watchfire. com testet Bobby die Einhaltung der Zugänglichkeitsrichtlinien für Web-Inhalte. Dazu wird ein Screenshot der zu testenden Internetseite im Bobby Browser dargestellt. Außerdem listet der Bobby-Report alle automatisch überprüften Mängel der Seiten auf und bietet für nicht indexierbare Fehlerquellen Hinweise auf betreffende Richtlinien für barrierefreies Web sowie mögliche Verbesserungsvorschläge. Die Testseite medienhandbuch.de erfüllte die allermeisten Kriterien für Barrierefreiheit nicht. Beurteilung der Testmethoden Nach Abschluss der unterschiedlichen Tests wurden die identifizierten Usability-Mängel des Portals tabellarisch aufgelistet und durch Verbesserungsvorschläge ergänzt (vgl. Abb. 4). Die häufigsten Mängel in der Nutzerfreundlichkeit betrafen die Bereiche Navigation, Suchfunktion, Formulareingabe, Registrierung, Möglichkeiten für Einträge und Darstellung von Informationen. Aufgrund der Erfahrungen aus der Überprüfung von medienhandbuch.de mit den unterschiedlichen Testmethoden konnten die einzelnen Verfahren abschließend verglichen und beurteilt werden. Der Fallschirmspringertest (Trunk-Test) nach Steve Krug ist in der Form, wie er in vorliegender Studie durchgeführt wurde, durchaus für eine erste grobe Überprüfung von UsabilitySchwachstellen einer Website geeignet. Der Test deckt allerdings nur wenige signifikante Usability-Fehler auf und reicht daher nicht an die Heuristische Evaluation bzw. den Usability-Test im Labor heran. Die eindeutigsten und verlässlichsten Ergebnisse liefert die heuristische Evaluation mit der ein Großteil der spezifischen Usability-Probleme herausgefunden werden kann. Bei der heuristischen Evaluation erkennt ein einzelner Gutachter etwa 35 Prozent aller UsabilityProbleme. Eine Gruppe von drei bis fünf Gutachtern findet etwa 60 bis 70 Prozent der Usability-Probleme [9]. Der Web Usability Index führt zu ähnlichen Ergebnissen, deckte aber nicht so viele Mängel auf wie die heuristische Evaluation. So ergab die heuristische Evaluation, dass die Navigationsoptionen sowohl auf der Homepage als auch auf den Unterseiten von medienhandbuch.de nicht gut erkennbar sind. Dieser Punkt, der in die erste Priorität eingeordnet wurde, konnte durch den Web Usability Index nicht identifiziert werden. Der Vorteil des Web Usability Index liegt darin, dass er durch den vorgefertigten erweiterbaren Kriterienkatalog weniger zeitaufwändig ist. Auch können mit dieser Methode Konkurrenzangebote im Vergleich evaluiert werden. Außerdem kann der Dienst kostenlos in Anspruch genommen werden und ist durch die Zeitersparnis insgesamt kostengünstiger. Der Vorteil der heuristischen Evaluation durch Experten liegt in dem spezifischen Kriterienkatalog, der individuell für eine zu überprüfende Website erstellt wird. Bei beiden genannten Methoden wird die Auswahl der Bewertungskriterien durch Experten vorgenommen und damit nicht durch die eigentlichen Nutzer. Die Evaluationsexperten können also die Sicht bzw. das Informationsverhalten der potenziellen Endnutzer bestenfalls simulieren. Insbesondere gilt dies hinsichtlich der Bewertung der Navigation in informationsorientierten Websites, da die Experten mit den Grundlagen von Systemarchitekturen vertraut sind und dieses Erfahrungswissen bei der Bewertung kaum ausblenden können [9]. Die im Projekt amuse angewendeten und erprobten Usability-Tests zeigten, dass einige Probleme und Mängel einer Website nur durch die Beobachtung von Nutzer bei der Lösung von Aufgaben herausgefunden werden können. Beispielsweise empfand ein Großteil der Probanden im Usability-Testlabor die Schriftgröße der Texte in dem Medienportal als zu klein: eine Beobachtung, die durch die Heuristische Evaluation nicht aufgedeckt wurde. Dort wurde die Schriftgröße in medienhandbuch.de lediglich mit Standardvorgaben verglichen und nicht als problematisch erkannt. Experten orientieren sich in erster Linie an allgemein akzeptierten bzw. empirischen Kriterien. Nutzer aus der Zielgruppe einer Website geben hingegen ihre subjektive Meinung und ihre im Moment des Tests empfundenen Urteile wieder. 33 U sa b i l i t y Te st ter ein Relaunch von medienhandbuch.de. Zwei der Projektmitarbeiterinnen wurden mit dieser Aufgabe betraut und so war es möglich, über 80 Prozent der in der Usability-Studie empfohlenen Optimierungsoptionen in die Praxis umzusetzen. Literatur Abbildung 4: Ausschnitt aus der Tabelle für die Verbesserungsvorschläge [1] Nielsen, Jakob: Usability : Empiricism or Ideology? [online]. In: useit.com – Jakob Nielsen’s Website : Alertbox [online]. Fremont, CA (2005-06-27). – www.useit.com/alertbox/2005 0627.html [geladen 2005-04-23] [2] Norm DIN EN ISO 9241-11. Anforderungen an die Gebrauchstauglichkeit : Leitsätze [3] Projektteam amuse; Schmidt, Ralph (Hrsg.) ; Spree, Ulrike (Hrsg.) : medienhandbuch revisited : Diagnosen und Rezepte zu Usability, Marketing und eMarket-Strategien eines Medienportals. Hamburg : HAW, SD Information, 2005 (Hamburger Materialien zur Medien-Information ; 32) . 358 S., 7 Anh., 94 Abb., 23 Tab ; Beil.: CD-ROM mit Text der Arbeit [pdf] und den prototypischen Optimierungslösungen [html]. – 55,– [4] Krug, Steve: Don’t make me think : a common sense approach to Web Usability. Indianapolis, US : Macmillan, 2000 [5] Schweibenz, Werner: Übersetzung der Einführung Introduction to Quicklist for Web Communication [online]. Society for Technical Communication, 2000. www.tekom.de/index.jsp?pid= 2112107453 [geladen 2005-04-23] [6] Nielsen, Jakob: Usability Engineering. Boston, MA : Academic Press,1993 [7] Harms, Ilse; Schweibenz, Werner; Strobel, Johannes: Usability Evaluation von Web-Angeboten mit dem Web Usability Index. In: Schmidt, Ralph (Hrsg.): Content in Context : Perspektiven der Informationsdienstleistung (24. Online-Tagung der DGI, Frankfurt/Main 2002). Frankfurt am Main : DGI, 2002 (Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; 5), S. 283-292 [8] Bobby Watchfire Software [online]. Waltham, MA. – http://bobby.watch fire.com [gel. 2005-04-11] [9] Harms, Ilse; Schweibenz, Werner: Testing Web Usability [online]. In: Information Management & Consulting 15 (2000) 3, S. 81-66. – http://usability.is. unisb.de/ beitrag/testwebu.pdf [gel. 2005-04-23] Doch auch der Usability-Test im Labor kann aufgrund der zeitlich limitierten Testsitzungen und der begrenzten Auswahl von Bedienungsaufgaben nicht alle Details einer Website abdecken. Heuristische Evaluation und der UsabiGebrauchstauglichkeit, empirische Untersuchung, Methode, Projekt, Usability, HAW lity-Test im Labor sollten deshalb aufeinander aufbauen bzw. sich gegenseitig ergänzen. Die Erkenntnisse aus der Heuristischen Evaluation können in die Entwicklung der Aufgaben für den Usability-Test im Labor einfließen und so Lücken Berufserfahrung als Bürokauffrau; danach Studium der Mediendoschließen und Ergebnisse bestätigen. kumentation an der HAW Hamburg; Praxissemester in der OnlineDer Cognitive Walkthrough ist beproduktion von Sportal.de (IMG Hamburg GmbH); Design und sonders für Websites mit einem Produktion von Websites (www.rechtsanwaeltin-hinrichsen.com hohen Anteil an Interaktionen bzw. und www.babett-richwien.de); Evaluation für die Website Funktionen geeignet. Mit dieser www.lehr-lern-netz.de im Auftrag der INBAS GmbH Testmethode kann herausgefunden werden, ob und wie vorgegebene Fibigerstraße 163, 22419 Hamburg, [email protected] Handlungsabläufe von einem hypothetischen Nutzer verstanden werden bzw. ob sie überhaupt funktionsZum Projektteam fähig sind. amuse (analyse meDie Ziele, Methoden und Ergebnisse dienhandbuch.de: der amuse-Studie wurden im einem usability, structure, umfassenden Projektbericht zusame-market) im Studienmengefasst, in dem die Schwachstelgang Mediendokulen des Medienportals aufgezeigt, mentation der Hochentsprechende Verbesserungsvorschule für Angeschläge unterbreitet und Optimiewandte Wissenschafrungsstrategien angeboten wurden ten Hamburg gehö[3]. Zusätzlich wurden im Rahmen ren Daniela Baumdes Projekts drei Prototypen in altergart, Julia Feix, Sarah nativem Webdesign erstellt, die auf Feuchter, Felicitas Herrmann, Emine Kaynar, Gloriya Kublanova, Verena Möser, Maja CD-ROM gebrannt dem AuftraggePaulsen, Nicole Petrucela, Prof. Dr. Ralph Schmidt, Prof. Dr. Ulrike Spree, Katrin Alexanber die Möglichkeiten usability-gedra Wanek und Ulla Wilms. rechter Informationsarchitektur und - Da s A u to r e n t e a m Nicole Petrucela Projektteam amuse gestaltung demonstrieren sollten. Nach Fertigstellung und erfolgreicher Präsentation der Studie beim Auftraggeber, erfolgte drei Monate spä- 34 Hochschule für Angewandte Wissenschaften Hamburg (HAW) Fakultät Design, Medien und Information, Studiendepartment Information Berliner Tor 5, 20099 Hamburg, Telefon: (040) 4 28 75 36 03 58(2007)1, 29-34 Hochschule Die akademische Weiterbildungslandschaft in Thüringen Bildungsportal Thüringen – Plattform für akademische Weiterbildung und E-Learning in Thüringen Sabine Fincke, Jana False, Kerstin Grosch, Heinz-Dietrich Wuttke aus Thüringen Aktuelle Studien zeugen von einem hohen Bedarf an akademischen Weiterbildungsangeboten. Das Bildungsportal Thüringen versteht sich als Forum für wissenschaftliche Weiterbildung und Neue Medien in Thüringen. Als Internetportal aller Thüringer Hochschulen unterstützt es seit Juni 2002 die Hochschulen und ihre Serviceeinrichtungen bei der Information über und der Vermittlung von Weiterbildungsangeboten. Darüber hinaus informiert das Bildungsportal über Projekte und Angebote im Bereich des E-Learning. Education Forum of Thuringia – platform for further academic education and elearning Recent studies report a high demand regarding further academic education. The Bildungsportal Thüringen (Education Forum of Thuringia) sees itself as a forum for further academic education and new media in Thuringia. The online site of the Bildungsportal Thüringen provides information and procurement support for all higher education institutions of Thuringia and their further education offers since 2002. Additionally the Bildungsportal informs about offers and projects in e-learning. Weiterbildungsbedarf in Thüringen In Thüringen besteht ein hoher Qualifizierungs- und Fachkräftebedarf, wie die quartalsweisen Befragungen von Thüringer Unternehmen, deren Ergebnisse durch die Gesellschaft für Arbeits- und Wirtschaftsförderung des Freistaates Thüringen (GFAW)1 veröffentlicht werden. Im 3. Quartal 2006 waren die Bedarfe der 1086 befragten Unternehmen in den Branchen Metallerzeugung/-bearbeitung, Elektrotechnik/Optik, Baugewerbe und Maschinenbau am höchsten. Diese Disziplinen werden an Thüringer Hochschulen verstärkt gelehrt. 58(2007)1, 35-37 Abbildung 1: Startseite des Bildungsportals Thüringen Die Lernende Region Ilm-Kreis2 führte im Sommer 2006 in Kooperation mit der Forschungsgruppe „ManageSME“3 des Instituts für Rechtswissenschaft an der TU Ilmenau ebenfalls eine Studie zur Ermittlung des Weiterbildungsbedarfs von Führungskräften in kleinen und mittleren Unternehmen [1] durch. Die Forscher befragten hierzu 105 Unternehmen in Thüringen. Als Entscheidungskriterien bei der Auswahl von Weiterbildungsveranstaltungen wiesen die Befragten der fachlichen Kompetenz der Anbieter einen sehr hohen Stellenwert zu. Auf dem zweitem Rang lag die Praxisorientierung der Angebote. Danach folgten die Aktualität und der Preis. Damit zeigt sich, dass Bildungsangebote, die eine nachweislich hohe Fachkompetenz der Anbieter mit praxisorientierten Lernund Lehrformen verbinden, dem Weiterbildungsbedarf auf ideale Weise entgegenkommen. Die Studie zeigt weiter, dass den Universitäten und Fachhochschulen eine solche Kompetenz zugeschrieben wird. Befragt nach ihren favorisierten Anbietern für Weiterbildungsveranstaltungen, nannten die Thüringer Führungskräfte die Universi- täten und Fachhochschulen an erster Stelle, gefolgt von privaten Bildungseinrichtungen sowie den Industrie- und Handelskammern bzw. den Handwerkskammern. Das Internet war für die befragten Führungskräfte das mit Abstand wichtigste Informationsmedium, um sich über Weiterbildungsangebote zu informieren. Zeitungen und Zeitschriften waren die zweitwichtigste Informationsbasis, die Nutzung von Werbematerialien nahm lediglich Rang drei bei der Informationssuche nach Weiterbildungsangeboten ein. Idee des Bildungsportals Thüringen Das Bildungsportal Thüringen4 bietet als einziges Internetportal einen transparenten Überblick über akademische Weiterbildungsangebote und E-Lear- 1 2 3 4 vgl. Kurzdarstellung der Ergebnisse des durch alle Thüringer Qualifizierungsberater festgestellten Qualifizierungs- und Fachkräftebedarfs im 3. Quartal 2006, www.qualifizierte-fachkraefte.de www.lernregion.net www.manage-sme.de www.bildungsportal-thueringen.de 35 We i t e r b i l d u n g s p o r ta l Th ü r i n g e n Weiterbildungsberater an den Hochschulen. Darüber hinaus zählen externe Weiterbildungsberater, Partnerorganisationen und unternehmen, Betreiber von Fachportalen und regional und überregional orientierten Internetpräsenzen zu den Zielgruppen. Aus dieser Vielfalt von Anspruchsgruppen ergeben sich sehr unterschiedliche Anforderungen an die Inhalte Abbildung 2: Internes und Externes Netzwerk des Bildungsportals und die Organisation Thüringen 2001-2006 [3] des Bildungsportals. ning-Dienste der Hochschulen in ThüDie unterschiedlichen Angebotssparringen. Damit leistet es einen wichtiten verlangen zunächst eine klare gen Beitrag zur Bereitstellung und Struktur des Bildungsportals, die die Pflege einer zuverlässigen Datenbasis, Navigation durch die Inhalte erleichdie den in den Studien aufgezeigten tert. Da die Zahl der WeiterbildungsanBedürfnissen der Thüringer Unternehgebote, die derzeit bei ca. 250 liegt, men entgegenkommt. ständig wächst, sind systematische Suchmöglichkeiten von zentraler BeDas Angebot des Bildungsportals wird deutung (siehe Abbildung 3). Zur Verergänzt durch Informationen über die fügung stehen die Volltextsuche, die Hochschulen und ihre Serviceeinrich(erweiterte) Filtersuche nach Angetungen im Weiterbildungsbereich. Dabotsart, Anbieter, Angebotszeitraum rüber hinaus informiert das Bildungsund weiteren Kriterien sowie die Kataportal über relevante Veranstaltungen logsuche, die zu vorstrukturierten Ander Hochschulen sowie über aktuelle gebotsübersichten führt. Als Reaktion Entwicklungen im Weiterbildungsbeauf Bedarfsmeldungen von Interessenreich, wie dem Bologna-Prozess oder ten und Kooperationspartnern stehen dem dualen Studium. Eine umfangreiinzwischen auch zielgruppenspezifiche Linksammlung zu Branchennetzsche Angebotsübersichten zur Verfüwerken, Partnern sowie Job- und Kargung. riereportalen rundet das Online-Angebot des Bildungsportals ab. Über die Plattform des Bildungsportals Thüringen hinaus sind die Mitarbeiter des Portals in ein weit verzweigtes Bildungsnetzwerk in Thüringen und der gesamten Bundesrepublik Deutschland eingebunden. Weiterbildungsvermittler und E-Learning- Dienste, Unternehmen, Städte und Gemeinden, lokale und branchenbezogene Wirtschaftsnetzwerke und Initiativen im Bereich der Neuen Medien zählen zu den Netzwerkpartnern. Zur Information dieser Partner über Neuigkeiten des Bildungsportals und des akademischen Weiterbildungsbereiches der Thüringer Hochschulen erscheint ein vierteljährlicher elektronischer Newsletter. Anforderungen an das Bildungsportal Das Bildungsportal richtet sich auf Interessentenseite an individuelle Weiterbildungsinteressenten und Personalentwickler in Unternehmen, auf Anbieterseite an Hochschullehrer und 5 www.siteforum.com 36 Engine sowie der Portalsoftware SITEFORUM Interactive Business Portal 5 mit spezifischen Erweiterungen für das Bildungsportal Thüringen. Diese Erweiterungen ermöglichen einerseits eine nutzergerechte dezentrale Datenpflege und andererseits die zielgerichtete Weiterleitung der Daten an die Netzwerkpartner des Bildungsportals. Dadurch ist es möglich, einmal eingegebene Daten in zahlreichen unterschiedlichen Internetportalen anzuzeigen und auf einem aktuellen Stand zu halten, ohne manuelle Eingriffe vorzunehmen. Für die Anbieter ergibt sich daraus ein enormer Synergieeffekt, da sie nur einen Ansprechpartner für die Datenpflege haben, trotzdem aber in vielen Netzwerken mit Ihren Angeboten vertreten sein können. Die durch das Bildungsportal genutzten Technologien orientieren sich ausschließlich an nationalen und internationalen Standards, wobei Vertreter des Portals bereits aktiv an der Erarbeitung solcher Standards mitwirkten (DIN PAS 1032-1 und DIN PAS 1045). Die Nutzung von Standards unterstützt das Schaffen von Datenschnittstellen zur vereinfachten Datenpflege und zur Einbindung in innovative Lösungen bei der Vernetzung von Informationsportalen. Auch das Angebot von Web-Services wird hierüber erleichtert, so sind bereits einfach implementierbare Suchfenster mit flexibel anpassbarem Design und Filter für Partnerseiten verfügbar. Weitere Services befinden sich derzeit in der Erprobungsphase. Abbildung 3: Einfache und erweiterte Filtersuche im Bildungsportal Thüringen Technologie Nicht nur inhaltlich, sondern auch von Seiten der Technologie verfolgt das Bildungsportal ein Konzept höchstmöglicher Vernetzbarkeit und Kompatibilität. Der Internetauftritt des Bildungsportals ist auf einem Standard-Web-Server realisiert, der im Rechenzentrum der TU Ilmenau gehostet wird. Seine SoftwareImplementierung beruht auf Linux, MySQL, Apache inklusive einer Servlet- Informationseinheiten und Datenaustausch Derzeit sind auf das Portal über 400.000 Zugriffe auf Storys (=Informationseinheiten) pro Jahr zu verzeichnen. Die Zahlen weisen eine steigende Tendenz auf, wie Abbildung 4 zeigt. Die Metadaten, mit denen jede Informationseinheit im Bildungsportal versehen ist, sind kompatibel zur DIN PAS 58(2007)1, 35-37 We i t e r b i l d u n g s p o r ta l Th ü r i n g e n Abbildung 4: Gesamtzugriffe auf Stories im Bildungsportal Thüringen 10456 und orientieren sich an CanCore sowie dem LOM-Standard zur Beschreibung von Lernobjekten. Die Metadaten für die Bildungsangebote werden ebenfalls von den Educational Content Editoren – in Abstimmung mit den Verantwortlichen der beschriebenen Angebote – selbst vergeben. Hierfür stehen angepasste Erfassungsmasken mit Kopier- und Suchmöglichkeiten zur Vereinfachung der Datenpflege zur Verfügung. Die Metadaten dienen der Unterstützung von spezifischen Serviceleistungen wie dem Erstellen zielgruppenspezifischer Übersichten, dem DataMining oder dem Matching von Angeboten für kundenspezifische Suchanfragen. Sie lassen sich in unterschiedlichen Datenformaten, unter anderem xml und csv, importieren und exportieren7. Organisation der Contenteingabe und -aktualisierung Ein Leitfaden bei der Entwicklung des Portals war und ist der Netzwerkgedanke. Die Koordinierung des laufenden Betriebs und die Weiterentwicklung der Services des Bildungsportals erfolgen durch ein zentrales Projektbüro in Erfurt. Von dort aus werden außerdem die Anbieter, Interessenten und Partner des Portals betreut. Die Bereitstellung und Pflege der Angebotsbeschreibungen erfolgt durch mittlerweile mehr als 50 Educational Content Editoren (Projektvertreter und Experten), die direkt an den Fachbereichen der jeweiligen Hochschulen und Partnerinstitutionen tätig sind. Für die Pflege der Portalinhalte stehen ihnen dezentral nutzbare webbasierte Werkzeuge zur Verfügung. Weiter unterstützen flexible Rollenkonzepte und die Integration unterschiedlicher Workflows das kooperative Zusammentragen und Bearbeiten von Informationen. Die Informationen werden somit direkt am Ort ihrer Entstehung durch ein Netzwerk von Einzelanbietern aktualisiert. Dies schafft Voraussetzungen für höchste Aktualität und Verlässlichkeit der angebotenen Informationen [2]. 58(2007)1, 35-37 Die Publikation der Inhalte auf den Webseiten erfolgt nach deren Überprüfung durch das Projektbüro in Erfurt. Eingegangene Aktualisierungen werden mindestens zwei Mal in der Woche eingearbeitet. Die Anbieter werden mindestens zwei Mal jährlich um die Überprüfung der Aktualität der Beschreibungen der Bildungsinhalte gebeten, wobei jede Informationseinheit im Portal mindestens einmal jährlich geprüft wird. Darüber hinaus findet die Netzwerkarbeit mit den Experten vor Ort bei der Erstellung regelmäßiger Publikationen, wie dem jährlich erscheinenden Weiterbildungsheft der Hochschulen, statt [3]. D i e A u to r e n Sabine Fincke Geboren 1964, Diplom-Ingenieur für Informationsverarbeitung (TU Dresden), seit 2004 im Bildungsportal Thüringen tätig als Information Broker. Schwerpunkte: Informationstechnologie, Contentstrukturierung und aufbereitung, Weiterbildung. [email protected] [email protected] Erfolgskontrolle und Qualitätssicherung Jana False Neben Logfile-Analysen stehen dem Projektteam des Bildungsportals weitere Instrumente der Erfolgskontrolle zur Verfügung. So erfolgt eine regelmäßige Auswertung von Anfragen und Anregungen, aber auch von Fehlermeldungen der Nutzer und Partner. Diese fließen insbesondere in die Weiterentwicklung des Systems und der Services ein. Darüber hinaus finden regelmäßige Befragungen statt, in den Jahren 2004 und 2005 waren dies unter anderem Anbieterbefragungen zu den Auswirkungen der Angebotsbewerbungen im Bildungsportal auf die Buchung von Angeboten. Auch regelmäßige Gesprächsrunden und Veranstaltungen mit Projektpartnern dienen der Erfolgskontrolle und Verbesserung der Services des Bildungsportals. (Jahrgang 1971) hat Wirtschaftsinformatik sowie Wirtschafts- und Fachinformation an der TU Ilmenau studiert. Sie ist mit ihrer Firma infonic als selbständige Informationsbrokerin tätig. Seit 2002 ist sie Kooperationspartner im Netzwerk Lernende Region IlmKreis. [email protected] Kerstin Grosch Geboren 1980, Dipl.Medienwissenschaftlerin (TU Ilmenau), seit 2005 Unterstützung der Presse- und Öffentlichkeitsarbeit des Bildungsportals Literatur [1] Bielig , Andreas; Dauner , Jörg; False , Jana; Haase, Heiko; Weyand, Joachim: Weiterbildung in kleinen und mittleren Unternehmen: Eine europäische Studie im Rahmen des Projekts „ManageSME“. In: Weyand, J.; Haase, H. (Hrsg.): Research Papers in Economics and Law (RPEL) 5 (2006). Ilmenau 2006, ISSN 1861-1966 [2] Wuttke , Heinz-Dietrich; Schmidt , Karsten; Fincke, Sabine; von Pappritz, Julien: 4 Jahre Bildungsportal Thüringen auf der Basis innovativer Technologien und eines tragfähigen Netzwerkes. In: 17. Internationale Wissenschaftliche Konferenz Mittweida (Tagungsband). Mittweida 2005, S.10-17, ISSN 1437-7624 [3] Fincke , Sabine; Wuttke , Heinz-Dietrich; Schmidt, Karsten; Grosch, Kerstin: Transparenz zu Weiterbildungsangeboten und den Einsatz von E-Learning an den Thüringer Hochschulen. In: 10. Workshop „Multimedia in Bildung und Wirtschaft“ (Tagungsband). Ilmenau 2006, S.141-144; ISSN 1436-4492 [4] Wuttke , Heinz- Dietrich; Schmidt, Karsten: The Bildungsportal Thüringen – A contribution to the transparency of eLearning, Grindelwald, February 21-23, 2005 Proccedings of the WBE 2005, IASTED, Editor: V. Uskov, ISBN (Hardcopy): 0-88986-480-2.pp 195-200 Thüringen. [email protected] Heinz-Dietrich Wuttke Geboren 1953, Dr.Ing., ist wiss. Mitarbeiter im Fachgebiet Integrierte Hardware- und Softwaresysteme an der TU Ilmenau, leitet das Bildungsportal Thüringen von Beginn an. Weitere Arbeitsschwerpunkte: Wiederverwendbare Lernobjekte, Entwurf und Test digitaler Systeme. [email protected] 6 7 Weiterbildung, Portal, Benutzerforschung http://beuth.de und http://projekt.iwwb.de www.bildungsportal-thueringen.de/themen und www.bildungsportal-thueringen.de/erwi con2006 und www.bildungsportal-thuerin gen.de/technologietag-hwk2006, thematisch sortierte Angebotsübersichten 37 Ta g u n g s b e r i c h t e Hype und Wirklichkeit an der Universität „eUniversity - Update Bologna“:Tagung zur Zukunft der Universitäten – Bonn, November 2006 Michael Huter, Wien In den Gebäuden des ehemaligen Deutschen Bundestages in Bonn fand am 8. und 9. November 2006 die Tagung „eUniversity – Update Bologna“ statt. Veranstalter waren das Multimedia Kontor Hamburg GmbH (MMKH, www. mmkh.de) und das Centrum für eCompetence in Hochschulen NRW (CeC, www.cec.nrw.de), in Hagen. Die Tagung vereinte die ansonsten getrennt stattfindenden Veranstaltungen „Campus Innovation“ (www.campus-innova tion.de) und „Education Quality Forum“ (www.education-quality.de) zu einer Großveranstaltung. Näheres zum Programm sowie weiterführende Informationen unter: www.education-quality.de In acht Plenarvorträgen und etwa 30 weiteren Referaten in parallelen Foren behandelte die Tagung den globalen Systemwandel in Bildung und Wissenschaft. Der Einsatz der Informationsund Kommunikationstechnologien, so die allgemeine Meinung, ist in diesem Prozess nicht etwa die Folge, sondern die Voraussetzung und treibende Kraft. Die Veränderungen betreffen sowohl die Kernbereiche der Lehre und Forschung als auch die Infrastrukturen in Administration und Service, und zwar beides auf institutioneller, regionaler, nationaler und internationaler Ebene. Nachdem der Wandel nicht nur technisch induziert, sondern auch politisch gewollt ist, bot die Tagung einen aktuellen Überblick über den Stand der Universitätsreform in Deutschland und Europa. E-Learning:Zwischen Hype und Wirklichkeit Angeblich werden derzeit ungefähr fünf bis zehn Prozent der Lehre als ELearning angeboten. Selbst wenn die Schätzung vorsichtig ist, muss beim derzeitigen Stand davon noch ein Teil des Volumens abgezogen werden. Nach wie vor gilt der up- bzw. download von PDF- oder Powerpoint-Dateien als E-Learning, obwohl es sich dabei schlicht um traditionelle, statische Formate handelt. (pdf entspricht meistens 38 gedrucktem Text und ppt heißt im Prinzip nicht anderes „Folien“-Sammlungen, also zum Zweck der Projektion eingerichtete Texte und Grafiken.) Wenn man noch dazu die Schwächen von ppt einkalkuliert, so ist Vieles, was derzeit als E-Learning kursiert, schlechtere Lehre als Frontalunterricht und Präsenzlehre, oder – liebevoller ausgedrückt – die gute alte Methode von „chalk & talk“. (Der Informationsdesigner Edward R. Tufte aus Yale hat gezeigt, dass die kognitive Beschränktheit der üblichen ppt-Verwendung, nicht nur mit Informationsverlust, sondern wie beim Challenger-Absturz auch mit dramatischer Fehlinformation verbunden sein kann. Vgl. www.ed wardtufte.com) Dass der aktuelle Status recht bescheiden ist, gibt den Skeptikern noch nicht Recht. Die nächste, spätestens übernächste Generation von Lehrenden werden als „digital natives“ in der Informations- und Kommunikationstechnologie zu Hause sein und keine Anpassungsprobleme mehr kennen wie die digitalen Immigranten vor ihnen. Der wirtschaftliche Druck, die Zuteilung von Ressourcen und die Selbsterfüllung des Hypes werden die Dynamik noch zusätzlich erhöhen. Dazu kommt, dass sich auch die Wissenschaft selbst nicht nur ökonomische Vorteile verspricht. Wissenschaftler, die sich einem humanistischen Ethos von Wissensproduktion verpflichtet fühlen, setzen auf die positiven Effekte alternativer Formen von Information und Kommunikation. Man hofft, dass sich die Zwänge zu Normierung und Homogenisierung durch ein neues Lernen in sozialen Praxisgemeinschaften ausgleichen und positiv umlenken lassen. „Web 2.0“ und „Social Software“ heißen die Schlagwörter, mit denen man den Primat, besser gesagt, das Diktat des Ökonomischen zu kompensieren hofft. Die Kommunikation unter usern und die dabei erzeugten Inhalte sollen die Alternative zu den regulierten Fachstudien bilden. Auf die Frage, ob Bologna und web 2.0 zusammengehen, versuchte die Me- dienpädagogin Gabi Reinmann (Augsburg) in Ihrem Referat eine vorsichtig optimistische Antwort. E-Learning wird häufig als die Lösung aller Probleme gepriesen. Damit ließen sich nämlich Kapazitäten erhöhen und zugleich Ressourcen schonen. Der hochrangige UNESCO-Vertreter Abdul Waheed Khan überraschte das Auditorium mit der Mitteilung, dass es in Indien 14 Open Universities mit jeweils mehr als einer Million (!) Studierenden gäbe. Mit dem Einsatz der neuen Medien verband er folgerichtig die Hoffnung auf bessere Chancen für weniger entwickelte Länder. Der unkritischen Begeisterung für ELearning hatte Rolf Schulmeister (Hamburg), ein erklärter Befürworter technischer und didaktischer Innovation, schon einmal die Frage entgegengestellt, ob nicht E-Learning womöglich nicht anderes sei als die „Reparatur des Bolognaprozesses“. Die Wirklichkeit hinkt weit hinter dem Hype her, ist aber wesentlich weiter fortgeschritten, als es Kulturkritiker wahrhaben wollen. Am praktischen Beispiel eines linguistischen Kurses demonstrierte der Anglist Jürgen Handke (Marburg), wie man mit dem intelligenten Einsatz von E-Learning nicht nur erheblich Zeit und Geld sparen, sondern zugleich wissenschaftliche Produktivität erhöhen kann. Ein interaktiver E-Learning-Kurs lässt sich mit speziell zugeschnittenen Präsenzeinheiten zu Kursen mit unterschiedlichen Niveaus und Zielsetzungen kombinieren. Bei Überbuchung einer Lehrveranstaltung können die Präsenzphasen an einer Partneruniversität oder der Kurs überhaupt on-line absolviert werden. Open Access als Utopie und Modell Wem gehört Wissen in elektronischen Räumen, fragte sich Rainer Kuhlen (Konstanz) und ließ erst gar keinen Zweifel über die richtige Antwort aufkommen. Wissen ist grundsätzlich frei 58(2007)1, 38-40 H o c h s c h u l e n i m Wa n d e l und Gemeingut. Kuhlen stellt dem ökonomischen Prinzip Knappheit die ökologischen Prinzipien Freizügigkeit und Nachhaltigkeit gegenüber. Über das Urheberrecht hätten sich Verlage ein Verfügungsrecht über geistiges Eigentum gesichert. Indem sie den Zugriff auch technisch weiter einschränken, sorgen Medienunternehmen für künstliche Verknappung und hohe Preise ihrer Informationsprodukte. Das Gleichgewicht aus sozialen, politischen, kulturellen Interessen habe sich einseitig zum ökonomischen verschoben, die wirtschaftliche Verwertung sei zum entscheidenden Faktor bei Entwicklung und Verbreitung von Wissen geworden. Dem düsteren Szenario Wissen hortender Konzerne wird das Konzept einer freien und nachhaltigen Wissensökologie gegenübergestellt. Wissen soll möglichst weit verbreitet und durch Teilen mit anderen vergrößert werde. Es gelte, die informationelle Autonomie individuell und institutionell zurückzugewinnen. Dies und – auf der Basis der so genannten Göttinger Erklärung – neue Geschäftmodelle zu entwickeln, seien die erklärten Ziele des Aktionsbündnis „Urheberrecht für Bildung und Wissenschaft“ (www.urheberrechtsbuendnis.de). Interessanterweise kam die Metapher der Ökologie in ganz anderem Zusammenhang noch einmal zur Sprache. Joel M. Smith, CIO an der Carnegie Mellon University, sprach von dem komplexen IT-Ökosystem, in dem Forschung, Lehre und Verwaltung in Formen eines „adaptiven“ Managements geplant und gesteuert werden müssten. Für die Anforderungen seien hierarchisch-zentralistische Modelle schlicht überfordert. M. E. wird auch in der Frage Open Access die Praxis über die Ideologie den Sieg davontragen. Einerseits zeigt sich nämlich, dass OA-Modelle in der Realität (noch?) keineswegs so reibungslos funktionieren wie unter idealen Bedingungen angenommen. Eine Studie der Association of Learned and Professional Society Publishers (ALPSP), einer britischen not-for-profit-Organisation, aus dem Jahr 2005 zeigt ein recht klares Bild (www.alpsp.org/publications /pub11.htm). Wissenschaftler sehen ihre Publikationen weiterhin lieber bei renommierten Verlagen als auf akademischen Plattformen jeder Art. Im Gegenzug zum Generalverdacht gegen Verlage entsteht langsam auch wieder ein Bewusstsein dafür, was diese für ihre Kunden, d. h. die Produzenten und Konsumenten von Informationsprodukten, leisten. M. E. wurden diese – nur scheinbar paradoxerweise – mit der Ankunft des Internet erst wirklich sichtbar. Je leichter es nämlich ist, selbst aus Daten Information herzustel- 58(2007)1, 38-40 len und zu verbreiten, desto deutlicher zeigen sich auch die Unterschiede in der Qualität. Verlage garantieren nicht nur für die Authentizität, Qualität, Zirkulation und Sicherung der Inhalte. Sie sind es auch, die Wissenschaftler für Projekte der unterschiedlichsten Art gewinnen, Ideen und Initiative liefern und Projekte vorfinanzieren. Ich behaupte, dass gerade die erfolgreichsten Publikationsformen die Erfindung von Verlegern sind. Anderseits sind auch große Verlage bereits dazu übergegangen, OA in ihre Strategien zu integrieren. Umgekehrt wird niemand behaupten, dass Wissenschaftler nicht in der Lage wären, die Verbreitung, Begutachtung, Archivierung von Forschungsergebnissen selbst zu organisieren. Warum sollten intellektuelle Eliten ausgerechnet diese Probleme nicht regeln können, und es soll ja auch geschäftstüchtige Wissenschaftler geben. Die Frage ist, ob sie das neben der Produktion von Wissen auch tun wollen. Der Mathematiker Martin Grötschel (Berlin) bekannte sich hier ausdrücklich zur Arbeitsteilung zwischen Wissenschaft und ihren internen und externen Dienstleistern. Je kleiner eine besondere community hoch spezialisierter Wissenschaftler ist, desto weniger bedarf sie bei der Forschung der Vermittlung Dritter. Solange es sich also um informelle Kommunikation zwischen einer kleinen Gruppe von peers handelt, ist die Eigenpublikation das Mittel der Wahl. Schließlich beanspruchten die Verlage ja auch vor der digitalen Wende nie die Herrschaft über die interne Kommunikation unter Wissenschaftlern. Vorträge, Gespräche, Briefe und Gerüchte waren immer schon frei. Überschreitet die Größe 39 H o c h s c h u l e n i m Wa n d e l einer Gemeinschaft aber ein kritisches Maß oder müssen Inhalte für bestimmte Zielgruppen speziell aufbereitet werden, ist die Arbeit von Verlagen schlechthin unverzichtbar. Sie objektivieren und optimieren die Prozesse bei der Auswahl und Aufbereitung von Inhalten, so dass aus Daten Informationen und aus Informationen Wissen werden kann. (Für die Frage, wie man aus Wissen Weisheit oder sogar Wahrheit macht, sind leider auch die Verlage nicht zuständig.) Dass sich die Arbeitsteilung zwischen Wissenschaft und Verlagen nicht auch anders und neu regeln lässt, darüber besteht auch innerhalb der Verlagsbranche gar kein Zweifel. Auch nicht darüber, dass es im Zeichen der Globalisierung zu krisenhaften Erscheinungen gekommen war, von denen nicht zuletzt auch kleinere und mittlere Verlagsunternehmen, vor allem bei Human- und Sozialwissenschaften, selbst betroffen waren und sind. Die Lösung kann aber nicht darin bestehen, dass man sich mit Kategorien wie „Enteignung“ und „Privatisierung“ wechselseitig verdächtigt. Nicht wem Wissen gehört, ist m. E. die Frage, sondern wer für welche Leistung angemessen bezahlt wird. Im Grunde geht es darum, ob die Steuerzahler als „ideelle“ Auftraggeber der Forschung auch noch die aufwändige Publikation der Ergebnisse bezahlen sollen oder man das nicht besser dem Markt überlässt. Im Hintergrund – Bologna Die Veränderungen in Bildung und Wissenschaft lassen sich im großen und ganzen mit den Schlagworten Ökonomisierung, Mobilisierung und Digitalisierung charakterisieren. Seit 1999 ist in Europa bekanntlich der so genannte Bologna-Prozess im Gange. Damit werden akademische Abschlüsse europaweit vereinheitlicht und vergleichbar gemacht. Indem gleichzeitig die Mobilität von Wissenschaftlern bzw. Studierenden und die Zusammenarbeit in internationalen Forschungsprojekten gefördert werden, soll bis 2010 ein homogener europäischer Hochschulraum entstehen. Ziel dieses Prozesses ist es, Europa für den globalen wissenschaftlichen und wirtschaftlichen Wettbewerb nachhaltig konkurrenzfähig zu machen. In allen Hochschuldebatten ist der Primat des Ökonomischen inzwischen so selbstverständlich geworden, dass sich die Politik nur mehr auf dessen rituelle Beschwörung beschränken kann. Die Erhaltung von Wettbewerbsfähigkeit, die Sicherung von Standorten und Arbeitsplätzen und die Steigerung und Beschleunigung von Wachstum genü- 40 gen als Rechtfertigung für sämtliche Veränderungen. Zum globalen Wettbewerb kommt auch noch der demographische Wandel, der die „Wissensgesellschaft“ – unter dem Vorzeichen „Lebenslanges Lernen“ – bei verlängerter Lebensarbeitszeit herausfordert. Um diese Ziele zu erreichen, sollen sämtliche Kernprozesse in Forschung und Lehre digital durchgeführt bzw. unterstützt werden. Bei der Verwaltung und den internen Dienstleistungen stellen Informations- und Kommunikationstechnologie die dementsprechende Infrastruktur zu Verfügung. Die großen Trends der Ökonomisierung und Digitalisierung verlaufen somit nicht nur parallel oder konvergent, – sie sind die beiden Seiten derselben Medaille. Beim Einsatz von IT in der Wissenschaft lassen sich bis jetzt drei Phasen unterscheiden. In den Kernprozessen der Produktion und des Transfers von Wissen erfolgte der Einsatz zuerst lokal und auf individuelle Initiative. Bei Service und Administration herrschten Insellösungen vor. In einer zweiten Phase wurden nicht nur die Prozesse bei Lehre und Forschung über so genannte Lernplattformen, sondern auch die unterstützenden Prozesse in Managementsystemen auf der institutionellen Ebene digital integriert. Ziel der aktuellen dritten Phase ist die Verbindung sämtlicher Prozesse in flexiblen und dezentralen Systemen, die sowohl auf lokaler und regionaler Ebene integriert als auch international vernetzt sein sollen. Lehrende und Studierende bewegen sich ungehindert in barrierefreien Wissensräumen, können auf die vielfältigsten Ressourcen und Informationen zugreifen und in verschiedensten Konstellationen, clusters und grids zusammenarbeiten. Einige der entscheidenden Veränderungen lassen sich unter dem Begriff Differenzierung subsumieren. Nach Ansicht des Erziehungswissenschaftlers Dieter Lenzen (Berlin) ist das System Universität auf allen Ebenen und Segmenten dazu gezwungen. Genauso wie horizontal in Projekte und Themen wird sich das System vertikal in verschiedene Qualitäts- und Anforderungsniveaus gliedern. Die Exzellenz-Zentren entsprechen dabei den amerikanischen „research universities“. (Dass der Vergleich zwischen der amerikanischen Ivy Leage und den europäischen Universitäten schlicht unzulässig und, man könnte sogar sagen, auch nicht immer wünschenswert ist, zeigte das Referat des Bibliotheksdirektors und CIO aus Stanford Michael Keller.) Darunter folgen „normale“ Universitäten, die neben der Forschung vor allem Lehre anbie- ten, sowie – noch eine Stufe „tiefer“, aber über den „Bachelor“ kompatibel – die Ebene der Fachhochschulen mit stark berufs- und praxisbezogenen Programmen. Über Kooperation und Konkurrenz werden sich Zentren mit ausgeprägten Schwerpunkten herausbilden und die Arbeitsteilung in Forschung, Lehre und Management intern weiter entfalten. Unter dem Motto „Wettbewerb ist nicht das Gegenteil von Gemeinschaft“ werden die Universitäten Profile bilden und – so wie ihre Absolventen um Arbeitsplätze – um Mittel und Kunden konkurrieren müssen. Das wissenschaftliche Verlagswesen ist von den Auswirkungen der Universitätsreform vor allem durch E-Learning und Web-basierte Lehre sowie durch neue Publikationsmodelle („open access“) unmittelbar betroffen und herausgefordert. Der Systemwandel in Wissenschaft und Bildung bildet den Hintergrund für die Veränderungen. Tagung, Hochschule, Hochschulausbildung, Forschung, E-Learning, Entwicklungstendenz, Europa D e r A u to r Dr. Michael Huter geb. 1954 in Innsbruck / Österreich; Studium der Germanistik und Anglistik in Innsbruck und Wien; Lehr- und Publikationstätigkeit, Medienarbeit. 1990 bis 2005 Verlagsleiter bei Facultas Verlag- und Buchhandels AG Wien; seit 2000 Mitglied des Vorstandes des Österreichischen Verlegerverbandes; von 1998 bis 2004 Präsident der International Association of Scholarly Publishers; 2002 bis 2005 Mitglied der Geschäftsführung UniTaschenbücher GmbH (UTB) Stuttgart; 2006 Gründung des Verlages Huter & Roth, Wien; Lehr- und Beratungstätigkeit. Huter & Roth Thimiggasse 19 / 7 A-1180 Wien, Österreich Telefon: +43 1 9571818 [email protected] www.huterundroth.at 58(2007)1, 38-40 I n f o r m at i o n s d i e n st e Themenentdeckung und -verfolgung und ihr Einsatz bei Informationsdiensten für Nachrichten Wolfgang G. Stock, Düsseldorf Themenentdeckung und -verfolgung (topic detection and tracking; TDT) fasst unterschiedliche Dokumente zu einem Thema zusammen und bietet dem Nutzer zunächst das Thema und erst in einem zweiten Schritt die einzelnen Dokumente zur Anzeige an. TDT ist nützlich bei Nachrichten sowie bei Blog-Einträgen. Ein bekanntes Beispiel ist Google News. Der Artikel bespricht den Forschungsstand zu TDT und diskutiert den Einsatz von TDT bei News-Informationsdiensten wie z.B. Factiva oder LexisNexis. Dort ist TDT zweifach wichtig: Erstens ist es (analog zu Google News) bei Profildiensten einsetzbar, zweitens ist es möglich, Dokumente zum gleichen Thema in einen Ordner zu klassieren, um bei einer retrospektiven Recherche die Treffermenge geordnet nach unterschiedlichen Themen anzubieten (und dies ohne Nutzung einer Dokumentationssprache). Topic Detection & Tracking and its Application in News Information Services. Topic detection and tracking (TDT) integrates different documents on the same topic. First it offers the topic to the users and in a second step the specific documents. TDT is useful for presenting news articles and blog postings. A well known example is Google News. The article summarizes the research on TDT and discusses the application of TDT in news information providers (e.g., Factiva or LexisNexis). For these services TDT is important for two reasons: (1) analogous to Google News, TDT works within alerting services; (2) TDT allows for classifying sets of records according to topics (without using a documentation language). 58(2007)1, 41-46 Thematisches Klassieren von Nachrichtendokumenten Im World Wide Web, im Deep Web (etwa bei Informationsdiensten von Nachrichtenagenturen) sowie in anderen Medien (z.B. Hörfunk oder Fernsehen) liegen Dokumente vor, die einen aktuellen Bezug haben und deren Inhalt sich häufig (ggf. leicht abgewandelt) in unterschiedlichen Quellen findet. Dies trifft vor allem für Nachrichten, aber auch für gewisse Einträge in Weblogs zu (Peters & Stock 2006). Im Gegensatz zum „normalen“ Information Retrieval startet hier die Recherche nicht mit einem erkannten Informationsbedarf eines Nutzers, sondern mit einem neuen Ereignis, das es zu erkennen und darzustellen gilt. Dem Nutzer als Pushdienst angeboten werden die Informationen zu den Ereignissen über spezialisierte Nachrichtensysteme wie beispielsweise Google News. Es ist so, als ob ein Nutzer ein SDI in Auftrag gegeben hätte, ihn laufend über alle neuen Ereignisse zu informieren. Dabei ist es durchaus möglich, die Neuigkeiten thematisch auszuwählen. Auch im Nachhinein stehen die erkannten Themen für Recherchen oder informetrische Analysen bereit. Yang, Shi und Wie (2006) können die Bedeutung analytischer Methoden am Beispiel der Ereignisse und Themen terroristischer Anschläge herausstellen. James Allan, der das Forschungsgebiet maßgeblich geprägt hat (Allan 2002a; Allan 2002b; Allan 2003; Allan, Carbonell, Doddington, Yamron, & Yang 1998; Allan, Feng, & Bolivar 2003; Allan, Harding, Fisher, Bolivar, Guzman-Lara, & Amstutz 2005; Allan, Lavrenko, & Connell 2003; Allan, Lavrenko, & Jin 2000; Allan, Lavrenko, & Swan 2002; Allan, Papka, & Lavrenko 1998; Allan, Wade, & Bolivar 2003; Feng & Allan 2005; Frey, Gupta, Khandelwal, Lavrenko, Leuski, & Allan 2001; Kumaran & Allan 2005; Lavrenko, Allan, DeGuzman, LaFlamme, Pollard, & Thomas 2002; Leuski & Allan 2002; Manmatha, Feng, & Allan 2002; Papka & Allan 2000), nennt diesen Teilbereich des Information Retrieval „topic detection and tracking“ (TDT), was wir mit „Themenentdeckung und -verfolgung“ übersetzen wollen (Stock 2007, 425-436). Allan definiert den Forschungsbereich: „Topic Detection and Tracking (TDT) is a body of research and an evaluation paradigm that addresses eventbased organization of broadcast news. The TDT evaluation tasks of tracking, cluster detection, and first story detection are each information filtering technology in the sense that they require that ‘yes or no’ decisions be made on a stream of news stories before additional stories have arrived” (Allan 2002b, 139). Google News beschränkt sein Angebot auf im WWW vorliegende Dokumente, die Nachrichtenagenturen oder OnlineRedaktionen von Zeitungen unentgeltlich bereitstellen. Nicht berücksichtigt werden kommerzielle Angebote der News Wires, die meisten Artikel der Druckausgaben der Zeitungen und Zeitschriften (und dies ist die überwältigende Mehrzahl aller Nachrichten) sowie alle nicht-digital (über Rundfunk) verteilten Informationen. Google News richtet seinen Fokus auf neue Artikel (der Beobachtungszeitraum beträgt wenige Tage) und solche, die von allgemeinem Interesse sind. Krishna Bharat berichtet: „Specifically, freshness – measurable from the age of articles, and global editorial interest – measurable from the number of original articles published worldwide on the subject, are used to infer the importance of the story at a given time. If a story is fresh and has caused considerable original reporting to be generated it is considered important. The final layout is determined based on additional factors such as (i) the fit between the story and the section being populated, (ii) the novelty of the story relative to other stories in the news, and (iii) the interest within the country, when a country specific edition is being generated” (Bharat 2003, 9). 41 Th e m e n e n t d e c ku n g u n d - v e r f o l g u n g schen“ dokumentarischen Bezugseinheiten (die Dokumente), die Liste aus Abbildung 1 führt thematisch verwandte dokumentarische Bezugseinheiten zu einer Meta-Bezugseinheit (das Thema) zusammen. Es ist möglich, die Anzeigeseite zu „personalisieren“, indem vom Nutzer selbst gewählte Themenkomplexe (z.B. „Informationswissenschaft“ oder „Heinrich-Heine Universität“) mit jeweils neuesten Themen bestückt werden (Abbildung 3). Abbildung 1: Themenentdeckung und -verfolgung am Beispiel von Google News: Anzeige der aktuellen Themen. Quelle: news.google.de Abbildung 2: Themenentdeckung und -verfolgung am Beispiel von Google News: Anzeige der Dokumente zu einem Thema. Quelle: news.google.de Themenentdeckung und -verfolgung dürfte nicht nur bei kostenlosen Nachrichtensuchmaschinen von Vorteil sein, sondern auch bei solchen kommerziellen Informationsanbietern, die Nachrichten vertreiben, also beispielsweise ASV Infopool (M.Stock 2002b), GBI-GENIOS (Stock & Stock 2003a; 2003d), Dialog NewsEdge (Stock & Stock 2003c), Factiva (M.Stock 2002a; Stock & Stock 2003b) oder LexisNexis (Stock & Stock 2005). Wir wollen dies (unter Fortführung unseres dba-Beispiels) bei LexisNexis Wirtschaft demonstrieren! Die erste Anwendung von Themenentdeckung und -verfolgung, quasi die Normalvariante, arbeitet bei Profildiensten und damit analog zu Google News in der personalisierten Anwendung. Der Unterschied zu Google liegt einzig in den elaborierten Optionen der Kreation eines Informationsprofils bei den kommerziellen Informationsanbietern. Angezeigt wird das Thema (die Meta-Dokumentationseinheit), und erst im zweiten Schritt die Liste der Dokumente zum Thema. LexisNexis verfügt über eine Option, Treffermengen zu gruppieren, in Abbil- Abbildung 3: Themenentdeckung und -verfolgung am Beispiel von Google News: Personalisierung. Quelle: news.google.de Auf der Einstiegsseite von Google News werden ausschließlich die Themen aufgelistet (Abbildung 1), z.B. der Topic „dba wird als Marke verschwinden“ (rechts oben). Wir erfahren hier zusätzlich, dass etwa 320 Dokumente 42 Abbildung 4: Trefferliste bei LexisNexis Wirtschaft mit der Option, die Dokumente zu gruppieren. Quelle: LexisNexis unter dieses Thema fallen. Erst der Klick auf „und 320 ähnliche Artikel“ führt zur kompletten Liste aller Dokumente zum Thema (Abbildung 2). Die Liste aus Abbildung 2 zeigt die „klassi- dung 4 haben wir etwa nach Quellen gruppiert. Hiermit hat der Nutzer die Möglichkeit, große Trefferlisten kontextspezifisch einzuschränken. Derzeit bietet LexisNexis keine Gruppierung 58(2007)1, 41-46 Th e m e n e n t d e c ku n g u n d - v e r f o l g u n g nach Themen an. Hier liegt die zweite Möglichkeit für Themenentdeckung und -verfolgung, eine Klassierungsoption nach Topics. Solch eine Gruppierung fasst alle Dokumente der Trefferliste zu gleichen Themen zusammen. Unsere 19 Dokumente aus Abbildung 4 würden so zu einem einzigen Topic verschmelzen. Insbesondere bei großen Treffermengen, die bei News-Recherchen nicht unüblich sind, ist dies eine brauchbare Option, Dokumente thematisch zu klassieren (und dies ohne Klassifikationssystem oder Thesaurus – einzig mittels TDT). Aufgaben der Themenentdeckung und -verfolgung Vier grundlegende Begriffe sind im Kontext von TDT wichtig: ■ Eine „Story“ ist eine abgrenzbare Textstelle (oder ein ganzes Dokument), in der (oder in dem) ein Ereignis besprochen wird. ■ Ein „Thema“ (topic) ist die Beschreibung eines Ereignisses in den jeweiligen Stories, gemäß Allan „a set of news stories that are strongly related by some seminal real-world event“ (Allan 2002a, 2). Für James Allan ist ein „Topic“ demnach nur die Beschreibung eines spezifischen Ereignisses (wie etwa die Übernahme von dba durch Air Berlin im August 2006), nicht aber ein Thema ohne Orts- und Zeitbezug (wie beispielsweise das Wachsen von Blumen an schattigen Standorten). M.E. lässt sich TDT jedoch auf alle Arten von Themen anwenden. ■ Das Gruppieren aktueller Stories zu einem neuen Thema ist die „Themenentdeckung“ (topic detection). ■ Das Hinzufügen von Stories zu einem bekannten Thema ist die „Themenverfolgung“ (topic tracking). Die Themenentdeckung und -verfolgung besteht aus mehreren Einzelaufgaben (die ersten fünf folgen Allan 2002a): ■ Textstellenzerlegung (story segmentation): Isolation derjenigen Textstellen (Stories), die das jeweilige Thema beinhalten (bei Dokumenten, die mehrere Ereignisse besprechen), ■ Themenentdeckung bzw. Erkennung eines neuen Ereignisses (new event detection): Identifikation der ersten Story, die ein neues Ereignis thematisiert, ■ Cluster-Erkennung (cluster detection): Zusammenfassung aller Stories, die dasselbe Thema beinhalten, ■ Themenverfolgung (topic tracking): Analyse des laufenden Nachrichten- 58(2007)1, 41-46 stroms auf bereits bekannte Themen, ■ Link-Erkennung (link detection): Analysewerkzeug zur Bestimmung der thematischen Ähnlichkeit zweier Stories, ■ Zuordnung eines Titels zu einem Cluster: entweder Titel der ersten Story oder Zuordnung der ersten n nach Gewichtung geordneten Terme aus allen Stories, die dem Cluster angehören, ■ Abstract: Verfassen einer kurzen Zusammenfassung des Themas (als Form automatischen Abstracting) oder – weitaus einfacher – Übernahme des ersten Abschnittes der ersten Story, ■ Rangordnung der Stories: sofern ein Cluster mehrere Stories umfasst, Sortierung der Texte nach Wichtigkeit. Einen Überblick zu den Arbeitsschritten vermittelt Abbildung 5. Abbildung 5: Arbeitsschritte der Themenentdeckung und -verfolgung. Quelle: Stock 2007, 427. Themenentdeckung Bei Nachrichten aus Hörfunk und Fernsehen muss zunächst eine Übertragung der Audio-Signale in (geschriebenen) Text vorgenommen werden. Dies geschieht entweder durch intellektuelle Transkription oder unter Nutzung von Spracherkennungssystemen (Allan 2003; zu Problemen vgl. McCarley & Franz 2000). In einer Nachrichtensendung (z.B. einer „Tagesschau“ mit einer Länge von 15 Minuten) werden mehrere singuläre Stories gebracht, die durch eine Segmentierung des Gesamttextes als jeweils einzelne Einheiten gezählt werden (Allan, Carbonell, Doddington, Yamron, & Yang 1998, 196 ff.). Analog wird mit dem Nachrichtenstrom einer Agentur umgegangen. Zur Vereinfachung kann man in diesem Fall annehmen, dass jedes Nachrichtendokument genau eine Story beinhaltet. Die entscheidende Frage bei der Analyse des Nachrichtenstromes ist: Behandelt die gerade angekommene Story ein neues Thema oder thematisiert sie etwas, was bereits als Thema bekannt ist (Allan, Lavrenko, & Jin 2000)? Ein (erkanntes) Thema wird durch den Durchschnittsvektor (Zentroid) seiner Stories ausgedrückt. Bei der Themenentdeckung errechnen wir die Ähnlichkeit bzw. Unähnlichkeit zwischen der aktuellen Story und allen anderen aus der Datenbank. Lässt sich keine Ähnlichkeit feststellen (liegt also ein neues Thema vor), so gilt diese erste Story als Repräsentant des neuen Themas. Lassen sich demgegenüber Ähnlichkeiten zwischen aktueller Story und alten Stories ausmachen, so ist der Fall der Themenverfolgung gegeben. Es folgt ein Vergleich zwischen der aktuellen Story und allen bereits erkannten Themen. Eine zentrale Rolle bei der Themenentdeckung bzw. -verfolgung spielt die „story link detection“, deren Algorithmus feststellt, ob es sich bei der aktuellen Story um ein neues oder um ein bekanntes Thema handelt. Allan, Harding, Fisher, Bolivar, Guzman-Lara, & Amstutz (2005) setzen an dieser Stelle das Vektorraummodell und eine Variante von TF*IDF (Termhäufigkeit * inverse Dokumenthäufigkeit) zur Bestimmung der Termgewichtung ein. Für jede Story aus dem Nachrichtenstrom wird für jeden Term ein Gewichtungswert errechnet. tft,s ist die (absolute) Auftretenshäufigkeit eines Terms t in der Story s, dft zählt alle Stories in der Datenbank, die den Term t enthalten, und N ist die Anzahl der Stories in der Datenbank. Das Termgewicht w von t in s errechnet sich wie folgt: wt,s = [tft,s * log((0,5 + N) / dft)] / [log(N + 1)]. Allan et al. schlagen vor, die ersten 1000 nach Gewichtung sortierten Terme in einem Story-Vektor zu berücksichtigen. Mit der Ausnahme weniger langer Nachrichtentexte sollten dabei alle Worte einer Story Berücksichtigung finden. Anhand der Berechnung des Cosinus wird die Ähnlichkeit des StoryVektors mit allen anderen Story-Vektoren der Datenbank analysiert. Die Autoren haben empirisch einen Wert von Sim(s1,s2) = 0,21 bestimmt, der neue von alten Stories trennt. Liegt die höchste Ähnlichkeit zwischen der neuen und einer beliebigen alten Story unter 0,21, so wird die aktuelle Story als neues Thema aufgefasst; liegt sie darüber, wird eruiert, zu welchem bekannten Thema die neue Story gehört. 43 Th e m e n e n t d e c ku n g u n d - v e r f o l g u n g Es zeigt sich in der Praxis, dass dieser allgemeine Ansatz nicht ausreicht, um genügend zuverlässig neue von alten Stories zu trennen. Mittels zusätzlicher Faktoren wird die Leistung von TDTSystemen besser. Eigennamen und weitere Themen Bei der Identifizierung eines Themas spielen Eigennamen („named entities“) auf der einen Seite und die weiteren Worte („topic terms“) auf der anderen Seite eine wichtige Rolle. Zwei Stories behandeln dann das gleiche Thema, wenn in ihnen sowohl dieselben „named entities“ als auch dieselben restlichen Worte übereinstimmen. Giridhar Kumaran und James Allan begründen diesen Ansatz so: „The intuition behind using this features is that we believe every event is characterized by a set of people, places, organizations, etc. (named entities), and a set of terms that describe the event. While the former can be described as the who, where and when aspects of an event, the latter relates to the what aspect. If two stories were on the same topic, they would share both named entities as well as topic terms. If they were on different, but similar, topics, then either named entities or topic terms will match but not both” (Kumaran & Allan 2005, 123). Ein anschauliches Beispiel eines „Fehlläufers“ zeigt Abbildung 6. Das System hat hierbei keinen Gebrauch von der Unterscheidung „named entities“ – „topic terms“ gemacht. Durch den hohen WDF-Wert von „Turkey“ bzw. „Turkish“ sowie den sehr hohen IDFWert von „Ismet Sezgin“ behauptet die Vektorraummaschine, dass die obere Story ähnlich zur unteren und damit keineswegs neu sei. Tatsächlich ist der obere Text jedoch neu. Kein einziger „topic term“ kommt in beiden Meldun- Abbildung 6: Die Rolle von „named entities“ und „topic terms“ bei der Identifikation eines neuen Themas. Quelle: Kumaran & Allan 2005, 124. 44 gen gemeinsam vor, so dass Kumaran und Allan schlussfolgern: „Determining that the topic terms didn’t match would have helped the system to avoid this mistake” (Kumaran & Allan 2005, 124). Es scheint demnach sinnvoll, die Ähnlichkeit (Cosinus) zwischen zwei Stories getrennt für „named entities“ und „topic terms“ zu berechnen. Nur wenn beide Ähnlichkeitswerte einen Schwellenwert überschreiten, wird eine Story als einem „alten“ Thema zugehörig eingestuft. Zeit- und Ortsbezug von Nachrichten Ein sehr wichtiger Aspekt von Nachrichten ist deren Zeit- und Ortsbezug. Makkonen, Ahonen-Myka und Salmenkivi (2004, 354 ff.; vgl. auch Makkonen, Ahonen-Myka, & Salmenkivi 2003) arbeiten zusätzlich zur „allgemeinen Ähnlichkeit“ mit „zeitlicher“ und „räumlicher Ähnlichkeit“. Zur Bestimmung des Zeitbezugs ist zunächst erforderlich, aus den Angaben im Text exakte Daten abzuleiten (Makkonen & Ahonen-Myka 2003; Kim & Myaeng 2004; Li, Li, & Lu 2006). Nehmen wir an, eine Nachricht trägt das Datum des 27. Mai 2003 (Abbildung 7). Im Text vorkommende Formulierungen wie Dem Ortsbezug (Jin, Myaeng, Lee, Oh, & Jang 2005) wird mit Hilfe eines geographischen Begriffssystems nachgegangen (für ein einfaches Beispiel siehe Abbildung 8). Die Ähnlichkeit zwischen unterschiedlichen Ortsangaben in zwei Stories kann durch die Pfadlänge ausgedrückt werden (Makkonen, AhonenMyka, & Salmenkivi 2004, 357 f.). Redet eine Quelle etwa von Puchheim und eine andere, thematisch verwandte, vom Landkreis Fürstenfeldbruck (FFB), so werden beide Stories anhand der Pfadlänge von 1 als ähnlich eingestuft. Ein anderes Paar von Nachrichten behandelt ebenfalls ähnliche Themen, wobei die eine Nachricht wiederum über Puchheim spricht und die andere über Venlo. Da die Pfadlänge nun aber 8 beträgt, spricht nichts dafür, dass es wirklich um dasselbe Ereignis geht. Themenverfolgung Bei der Themenverfolgung gehen wir von einer Menge bekannter Themen aus. Die Ähnlichkeitsberechnung erfolgt nunmehr durch den Abgleich zwischen den Themenvektoren, also dem jeweiligen Namen- und Topic-Zentroiden des Themas, und den jeweils in die Datenbank aufgenommenen neuen Stories. Abbildung 7: Auflösung von zeitlichen Ausdrücken. Quelle: Makkonen, Ahonen-Myka, & Salmenkivi 2004, 355. „letzte Woche“, „letzter Mittwoch“, „am nächsten Donnerstag“ usw. verlangen nach einer Auflösung in Datumsangaben, also in „2003-0519: 2003-05-26“, „200305-21“ bzw. „2003-0529“. Stories, die ansonsten ähnlich sind, sich aber im Datum nicht überschneiden, sind wahrscheinlich unterschiedlichen Themen zuzuordnen. Berichte über Karnevalszüge in Köln aus den Jahren 2005 und 2006 unterscheiden sich kaum in ihren Termen („Millionen Zuschauer“, „Prinzenwagen“, „Kamelle“), aber durch das Datum. Abbildung 8: Geographische Begriffsordnung als Hilfsmittel der Themenentdeckung und -verfolgung. Quelle: Stock 2007, 432. 58(2007)1, 41-46 Th e m e n e n t d e c ku n g u n d - v e r f o l g u n g Hinzutreten müssen Vergleiche von Raum- und Zeitbezug, sofern gegeben. Bei der ersten Story ist der Zentroid identisch mit dem Vektor dieser Story. Ab einer zweiten Story können wir erst sinnvoll von einem „Durchschnittsvektor“ reden. Der Zentroid ändert sich solange, wie noch weitere Stories zum Thema identifiziert werden. Benutzt man den Zentroiden zur Bestimmung des Titels, indem man beispielsweise die ersten zehn nach Gewichtung sortierten Terme des Zentroiden als „Titel“ auszeichnet, so kann sich der Titel durchaus ändern, insofern neue Stories dem Thema zugeordnet werden. Ebenfalls über den Zentroiden lässt sich das Abstract zum Topic herstellen (Radev, Jing, Stys, & Tam 2004). Die Berichterstattung über Ereignisse erfolgt – je nach internationalem Interesse – in mehreren Sprachen. Möchte man über Sprachgrenzen hinweg erkannte Themen verfolgen, so ist dies eine Aufgabe für die multilinguale Themenverfolgung (Levow & Oard 2002; Schultz & Liberman 2002; Ma, Yang, & Rogati 2005). Larkey, Feng, Connell und Lavrenko (2003) arbeiten mit automatischer Übersetzung, die jedoch nicht zu zufriedenstellenden Resultaten führt. Für den einsprachigen Fall liegt ein breites Wissens des TDT-Einsatzes in der englischen Sprache vor. Über andere Sprachen wird mit Ausnahmen zu experimentellen Ansätzen in Chinesisch (Wayne 2000; Chen & Ku 2002; Cieri, Strassel, Graff, Martey, Rennert, & Liberman 2002), Hindi (Allan, Lavrenko, & Connell 2003) und Spanisch (Yang, Carbonell, Brown, Lafferty, Pierce, & Ault 2002) kaum etwas berichtet. Verfügt ein Thema über mehrere Stories, so müssen diese in eine Rangfolge gebracht werden. Curtiss, Bharat und Schmitt verfolgen in einer Patentanmeldung von Google den Weg, Qualitätskriterien für die jeweiligen Quellen zu entwickeln: „(T)he group of metrics may include the number of articles produced by the news source during a given time period, an average length of an article from the news source, the importance of coverage from the news source, a breaking news score, usage patterns, human opinions, circulation statistics, the size of the staff associated with the news source, the number of news bureaus associated with the news source, the number of original named entities the source news produces within a cluster of articles, the breath of coverage, international diversity, writing style, and the like” (Cutiss, Bharat, & Schmitt 2003, 3). Umfasst ein TDT-System alle einschlägigen Quellen, so liegt es nahe, der ersten Story die „Ehre“ zu erweisen, pro- 58(2007)1, 41-46 minent an der Top-Stelle genannt zu werden. Die übrigen Stories können dann durchaus den Google News-Kriterien gemäß geordnet werden. Verfügt eine Story über mehrere Themen, kann sie also unterschiedlichen Topics zugeordnet werden, so steht TDT vor einer Herausforderung (Chali 2005). Eine sinnvolle Lösung ist, die Story allen erkannten Topics einzuordnen, wobei das „Erkennen“ eine Frage der Einstellung der Grenzwerte bei der Ähnlichkeit sowie dem Zeit- und Raumbezug ist. Hängen Themen hierarchisch zusammen, insofern ein Topic einen oder mehrere Sub-Topic(s) hat, so liegt es nahe, die Themen auch hierarchisch anzuzeigen (Pons-Porrata, BerlangaLlavori, & Ruiz-Shulcloper 2003). Fazit ■ ■ ■ ■ ■ Bei der Themenentdeckung und -verfolgung analysiert man den Strom an Nachrichten aus WWW, Deep Web (vor allem Datenbanken der Nachrichtenagenturen und Zeitungen) sowie Rundfunk (Hörfunk wie Fernsehen). Analog kann mit Beiträgen in Weblogs vorgegangen werden. Ziele sind, (1) neue Ereignisse zu identifizieren und (2) Stories zu bereits erkannten Themen zuzuordnen. Themenentdeckung und -verfolgung wird bereits (bezogen auf kostenlose Webseiten) als Profildienst für Neues von Nachrichtensuchmaschinen (z.B. Google News) angeboten. Bei der Entdeckung eines neuen Themas errechnet man die Ähnlichkeit zwischen einer aktuellen Story und allen bereits gespeicherten Stories in der Datenbank. Ergibt sich keine Übereinstimmung, so wird die Story als erster Repräsentant eines neuen Themas eingeführt. Ergeben sich Ähnlichkeiten mit gespeicherten Stories, so wird die Ähnlichkeit der aktuellen Story mit bekannten Themen errechnet und die Story einem Thema zugeordnet. Zur konkreten Berechnung von Ähnlichkeiten zwischen Stories sowie zwischen Story und Thema bieten sich TF*IDF sowie das Vektorraummodell an. Ein Thema wird durch den Zentroiden aller Stories, die das jeweilige Ereignis besprechen, dargestellt. In Nachrichten spielen „named entities“ eine große Rolle. Es erweist sich als sinnvoll, pro Dokument zwei Vektoren zu bestimmen, einen für Eigennamen und einen für die „topic terms“. Nur wenn bei beiden Vektoren Ähnlichkeiten mit anderen Stories festzustellen sind, dürfte die aktuelle Story zu einem bekannten Thema gehören. Zusätzlich ist es nötig, konkrete Zeit- und Raumbezüge in Stories als diskriminierende Merkmale heranzuziehen. ■ Titel wie Abstract des Topic lassen sich aus dem Term- bzw. Satzmaterial des Zentroiden, dem Durchschnittsvektor aller Stories des Topic, automatisch erstellen. Alternativ kann man mit Titel und erstem Abschnitt der ersten Story arbeiten. ■ Liegen zu einem Thema mehrere Stories vor, so werden diese in eine Rangfolge gebracht. An erster Stelle sollte diejenige Story gelistet werden, die als erstes über das Ereignis berichtet hat. Danach kann das Ranking anhand von Qualitätskriterien der Quellen gebildet werden. ■ Kommerzielle Informationsanbieter für Nachrichten (wie ASV Infopool, GBI-GENIOS, Dialog NewsEdge, Factiva oder LexisNexis) können von Methoden der Themenentdeckung und -verfolgung profitieren. Hier werden erstens personalisierte Pushdienste zu neuen Themen, die das Informationsprofil eines Nutzers befriedigen, sowie zweitens Klassierungsoptionen für Dokumente in einer Trefferliste nach Themen (unabhängig von Dokumentationssprachen) möglich. Literatur Allan, J. (2002a): Introduction to topic detection and tracking. – In: Allan, J., Hrsg.: Topic Detection and Tracking: Event-based Information Organization. – Boston: Kluwer, S. 1-16. Allan, J. (2002b): Detection as multi-topic tracking. – In: Information Retrieval 5, S. 139-157. Allan, J. (2003): Robust techniques for organizing and retrieving spoken documents. – In: EURASIP Journal of Applied Signal Processing Nr. 2, S. 103114. Allan, J.; Carbonell, J.; Doddington, G.; Yamron, J.; Yang, Y. (1998): Topic detection and tracking pilot study. Final report. – In: Proceedings of the DARPA Broadcast News Transcription and Understanding Workshop, S. 194-218. Allan, J.; Feng, A.; Bolivar, A. (2003): Flexible intrinsic evaluation of hierarchical clustering for TDT. – In: Proceedings of the 12th International Conference on Information and Knowledge Management. – New York: ACM, S. 263-270. Allan, J.; Harding, S.; Fisher, D.; Bolivar, A.; GuzmanLara, S.; Amstutz, P. (2005): Taking topic detection from evaluation to practice. – In: Proceedings of the 38th Annual Hawaii International Conference on System Sciences. Allan, J.; Lavrenko, V.; Connell, M.E. (2003): A month of topic detection and tracking in Hindi. – In: ACM Transactions on Asian Language Information Processing 2(2), S. 85-100. Allan, J.; Lavrenko, V.; Jin, H. (2000): First story detection in TDT is hard. – In: Proceedings of the 9th International Conference on Information and Knowledge Management. – New York: ACM, S. 374-381. Allan, J.; Larvenko, V.; Swan R. (2002): Explorations within topic tracking and detection. – In: Allan, J., Hrsg.: Topic Detection and Tracking: Eventbased Information Organization. – Boston: Kluwer, S. 197-224. Allan, J.; Papka, R.; Lavrenko, V. (1998): On-line new event detection and tracking. – In: Proceedings of the 21th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. – New York: ACM, S. 37-45. 45 Th e m e n e n t d e c ku n g u n d - v e r f o l g u n g Allan, J.; Wade, C.; Bolivar, A. (2003): Retrieval and novelty detection at the sentence level. – In: Proceedings of the 26 th International ACM SIGIR Conference on Research and Development in Information Retrieval. – New York: ACM, S. 314-321. Bharat, K. (2003): Patterns on the Web. – In: Lecture Notes in Computer Science 2857, S. 1-15. Brants, T.; Chen, F. (2003): A system for new event detection. – In: Proceedings of the 26 th International ACM SIGIR Conference on Research and Development in Information Retrieval. – New York: ACM, S. 330-337. Chali, Y. (2005): Topic detection of unrestricted texts: Approaches and evaluations. – In: Applied Artificial Intelligence 19(2), S. 119-136. Chen, H.H.; Ku, L.W. (2002): An NLP and IR approach to topic detection. – In: Allan, J., Hrsg.: Topic Detection and Tracking: Event-based Information Organization. – Boston: Kluwer, S. 243-264. Cieri, C.; Strassel, S.; Graff, D.; Martey, N.; Rennert, K.; Liberman, M. (2002): Corpora for topic detection and tracking. – In: Allan, J., Hrsg.: Topic Detection and Tracking: Event-based Information Organization. – Boston: Kluwer, S. 33-66. Curtiss, M.; Bharat, K.; Schmitt, M. (2003): Systems and methods for improving the ranking of news articles. Patentanmeldung Nr. US 2005/0060312 A1. – (Eingereicht am: 16.9.2003). Del Vorso, G.M.; Gullí, A.; Romani, F. (2005): Ranking a stream of news. – In: Proceedings of the 14th International World Wide Web Conference. – New York: ACM, S. 97-106. Feng, A.; Allan, J. (2005): Hierarchical topic detection in TDT-2004. Technical Report. – Center for Intelligent Information Retrieval. University of Massachusetts, Amherst. Fiscus, J.G.; Doddington, G.R. (2002): Topic detection and tracking evaluation overview. – In: Allan, J., Hrsg.: Topic Detection and Tracking: Event-based Information Organization. – Boston: Kluwer, S. 17-31. Flynn, C.; Dunnion, J. (2004): Event clustering in the news domain. – In: Lecture Notes in Computer Science 3206, S. 65-72. Franz, M.; Ward, T.; McCarley, J.S.; Zhu, W.J. (2001): Unsupervised and supervised clustering for topic tracking. – In: Proceedings of the 24th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. – New York: ACM, S. 310-317. Frey, D.; Gupta, R.; Khandelwal, V.; Lavrenko, V.; Leuski, A.; Allan, J. (2001): Monitoring the news: A TDT demonstration system. – In: Proceedings of the 1st International Conference on Human Language Technology Research. – Morristown, NJ: Association for Computational Linguistics, S. 1-5. Fukumoto, F.; Suzuki, Y. (2000): Extracting key paragraph based on topic and event detection: towards summarization. – In: NAACL-ANLP 2000 Workshop on Automatic Summarization – Vol. 4. – Morristown, NJ: Association for Computational Linguistics, S. 31-39. Jin, Y.; Myaeng, S.H.; Lee, M.H.; Oh, H.J.; Jang, M.G. (2005): Effective use of place information for event tracking. – In: Lecture Notes in Computer Science 3689, S. 410-422. Jones, G.J.F.; Gabb, S.M. (2002): A visualization tool for topic tracking analysis and development. – In: Proceedings of the 25th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. – New York: ACM, S. 389-390. Kim, P.; Myaeng, S.H. (2004): Usefulness of temporal information automatically extracted from news articles for topic tracking. – In: ACM Transactions on Asian Language Information Processing 3(4), S. 227-242. Kumaran, G.; Allan, J. (2005): Using names and topics for new event detection. – In: Proceedings of Human Language Technology Conference/ Conference on Empirical Methods in Natural Language Processing, Vancouver, S. 121-128. Kurtz, A.J.; Mostafa, J. (2003): Topic detection and interest tracking in a dynamic online news source. – In: Proceedings of the 3rd ACM/IEEE-CS Joint Conference on Digital Libraries. – Washington, DC: IEEE Computer Society, S. 122-124. Larkey, L.S.; Feng, F.; Connell, M.; Lavrenko, V. (2004): Language-specific models in multilingual topic tracking. – In: Proceedings of the 27 th 46 Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. – New York: ACM, S. 402-409. Lavrenko, V.; Allan, J.; DeGuzman, E.; LaFlamme, D.; Pollard, V.; Thomas, S. (2002): Relevance models for topic detection and tracking. – In: HTL San Diego, S. 104-110. Leek, T.; Schwartz, R.; Sista, S. (2002): Probabilistic approaches to topic detection and tracking. – In: Allan, J., Hrsg.: Topic Detection and Tracking: Event-based Information Organization. – Boston: Kluwer, S. 67-83. Leuski, A.; Allan, J. (2002): Improving realism of topic tracking evaluation. – In: Proceedings of the 25th Annual International ACM SIGIR Conference on Research and Development on Information Retrieval. – New York: ACM, S. 89-96. Levow, G.A.; Oard, D.W. (2002): Signal boosting for translingual topic tracking. – In: Allan, J., Hrsg.: Topic Detection and Tracking: Event-based Information Organization. – Boston: Kluwer, S. 175-194. Li, B.; Li, W; Lu, Q. (2006): Enhancing topic tracking with temporal information. – In: Proceedings of the 29th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. – New York: ACM, S. 667-668. Ma, N.; Yang, Y.; Rogati, M. (2005): Applying CLIR techniques to event tracking. – In: Lecture Notes in Computer Science 3411, S. 24-35. Makkonen, J. (2003): Investigations on event evolution in TDT. – In: Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology. Proceedings of the HLT-NAACL 2003 Student Research Workshop – Vol. 3. – Morristown, NJ: Association for Computational Linguistics, S. 43-48. Makkonen, J.; Ahonen-Myka, H. (2003): Utilizing temporal information in topic detection and tracking. – In: Lecture Notes in Computer Science 2769, S. 393-404. Makkonen, J.; Ahonen-Myka, H.; Salmenkivi, M. (2004): Simple semantics in topic detection and tracking. – In: Information Retrieval 7, S. 347-368. Makkonen, J.; Ahonen-Myka, H.; Salmenkivi, M. (2003): Topic detection and tracking with spatiotemporal evidence. – In: Lecture Notes in Computer Science 2633, S. 251-265. Manmatha, R.; Feng, A.; Allan, J. (2002): A critical examination of TDT’s cost function. – In: Proceedings of the 25th Annual International ACM SIGIR Conference on Research and Development on Information Retrieval. – New York: ACM, S. 403-404. Mayer, Y. (2004): System and method for improved searching on the Internet or similar networks and especially improved metanews and/or improved automatically generated newspapers. Patentanmeldung US 2005/ 0114324 A1. – (Eingereicht am: 14.9.2004). McCarley, J.S.; Franz, M. (2000): Influence of speech recognition errors on topic detection. – In: Proceedings of the 23 rd Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. – New York: ACM, S. 342-344. Nallapati, R. (2003): Semantic language models for topic detection and tracking. – In: Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology. Proceedings of the HLT-NAACL 2003 Student Research Workshop – Vol. 3. – Morristown, NJ: Association for Computational Linguistics, S. 1-6. Otterbacher, J.; Radev, D. (2006): Fact-focused novelty detection: A feasibility study. – In: Proceedings of the 29th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. – New York: ACM, S. 687-688. Papka, R.; Allan, J. (2000): Topic detection and tracking: Event clustering as a basis for first story detection. – In: Croft, W.B. (Hrsg.): Advances in Information Retrieval. Recent Research from the Center for Intelligent Information Retrieval. – Boston: Kluwer, S. 97-126. Peters, I.; Stock, W.G. (2006): Corporate Blogs im Wissensmanagement. – In: Wissensmanagement Nr. 6, S. 40-41 Pons-Porrata, A.; Berlanga-Llavori, R.; Ruiz-Shulcloper, J. (2003): Building a hierarchy of events and topics for newspaper digital libraries. – In: Lecture Notes in Computer Science 2633, S. 588-596. Radev, D.; Jing, H.; Stys, M; Tam, D. (2004): Centroid-based summarization of multiple documents. – In: Information Processing & Management 40, S. 919-938. Schultz, J.M.; Liberman, M.Y. (2002): Towards a „Universal Dictionary“ for multi-language information retrieval applications. – In: Allan, J., Hrsg.: Topic Detection and Tracking: Event-based Information Organization. – Boston: Kluwer, S. 225-241. Stock, M. (2002a): Factiva.com: Neuigkeiten auf der Spur. Searches, Tracks und News Pages bei Factiva. – In: Password Nr. 5, S. 31-40. Stock, M. (2002b): ASV Infopool. Boulevard online. – In: Password Nr. 10, 22-27. Stock, M; Stock, W.G. (2003a): GBI – the contentmachine: Wirtschaftsinformationen für Hochschulen, Unternehmen und Internetsurfer. – In: Password Nr. 2, 8-17. Stock, M.; Stock, W.G. (2003b): Von Factiva.com zu Factiva Fusion: Globalität und Einheitlichkeit mit Integrationslösungen – auf dem Weg zum Wissensmanagement. – In: Password Nr. 3, S. 19-28. Stock, M; Stock, W.G. (2003c): Dialog Profound / NewsEdge: Dialogs Spezialmärkte für Marktforschung und News. – In: Password Nr. 5, 42-49. Stock, M; Stock, W.G. (2003d): GENIOS Wirtschaftsdatenbanken: Bündelung deutscher und internationaler Informationen als Wettbewerbsvorteil. – In: Password Nr. 6, 14-22. Stock, M; Stock, W.G. (2005): Digitale Rechts- und Wirtschaftsinformationen bei LexisNexis. – In: JurPC. Zeitschrift für Rechtsinformatik, Web-Dok. 82/2005, Abs. 1-105. Stock, W.G. (2007): Information Retrieval. – München; Wien: Oldenbourg. Wayne, C.L. (2000): Topic detection and tracking in English and Chinese. – In: Proceedings of the 5 th International Workshop on Information Retrieval with Asian Languages. – New York: ACM, S. 165-172. Yang, C.C.; Shi, X.; Wei, C.P. (2006): Tracing the event evolution on terror attacks from on-line news. – In: Lecture Notes in Computer Science 3975, S. 343-354. Yang, Y.; Carbonell, J.; Brown, R.; Lafferty, J.; Pierce, T.; Ault, T. (2002): Multi-strategy learning for topic detection and tracking. – In: Allan, J., Hrsg.: Topic Detection and Tracking: Event-based Information Organization. – Boston: Kluwer, S.85-114. Themenentdeckung und -verfolgung, TDT, Google News, Nachrichten, Themenentdeckung, Themenverfolgung, elektronischer Informationsdienst, LexisNexis, Profildienst D e r A u to r Prof. Dr.Wolfgang G. Stock ist Leiter der Abteilung für Informationswissenschaft der Heinrich-Heine-Universität Düsseldorf. Der Artikel ist eine erweiterte Fassung von Kapitel 25 seiner aktuellen Publikation „Information Retrieval“ (Oldenbourg Verlag). [email protected] www.phil-fak.uni-duesseldorf.de/ infowiss 58(2007)1, 41-46 Diskussionsbeitrag Dr. phil. Eberhardt Gering, Wildau Etwas überraschend erschien im Herbst 2006 die zweite Ausgabe des Fachwörterbuches „Terminologie der Information und Dokumentation“. Überraschend, weil der Autor des vorliegenden Beitrags die Hoffnung auf eine Neufassung der Erstausgabe von 1975 schon fast aufgegeben hatte, nachdem eine von ihm vor ungefähr zehn Jahren dem Komitee Terminologie und Sprachfragen der DGD auf Anforderung übergebene ausführliche Zuarbeit unbeantwortet geblieben war. Der Grund des Schweigens wird nun etwas klarer: von der genannten Zuarbeit findet sich in der jetzt vorliegenden, laut Impressum „neu bearbeiteten Ausgabe“ nicht die kleinste Spur. Die damit zur Blindleistung mutierten wissenschaftlich begründeten Vorschläge von damals sollen an dieser Stelle nicht nochmals im Original wiedergegeben werden – ihr Inhalt deckt sich weitestgehend mit dem, was in der am Ende dieses Textes angegebenen Literaturstelle steht. Hier soll nur versucht werden, dasjenige in die mit der Neuausgabe hoffentlich wieder entfachte Terminologiedebatte einzubringen, was unverzichtbar scheint. Dem eiligen oder misstrauischen Leser sei empfohlen, jetzt gleich die weiter unten stehende „Soll-Liste der IuD-Basistermini“ zur Kenntnis zu nehmen. Er möge dann selbst entscheiden, ob er den Rest auch noch lesen will. Gegenstand der Informations- und Dokumentationstätigkeit sind in erster Linie die in Informationsquellen (insbesondere in schriftlichen und audiovisuellen Dokumenten) enthaltenen wissenschaftlich relevanten Begriffe und Aussagen über Objekte, Sachverhalte und Sachverhaltskomplexe in den verschiedenen Bereichen des Seins (Natur, Gesellschaft und Denken; Technik inbegriffen). Diese in Wort oder Bild festgehaltenen Begriffe und Aussagen sind die Basis für alle Arten von sozialen Informationen (naturwissenschaftliche, technikwissenschaftliche, geisteswissenschaftliche und sozialwissenschaftliche Informationen) einschließlich ihrer sämtlichen Mischformen. 58(2007)1, 47-50 Die Begriffe und Aussagen entstehen im Erkenntnisprozess, der sich im menschlichen Denken vollzieht und stets auf bestimmte Elemente von Ausschnitten aus den verschiedenen Seinsbereichen gerichtet ist. In abstrahierter und verallgemeinerter Sichtweise gehören zu diesen Elementen die jeweiligen Objekte, Objekteigenschaften, Objektrelationen, Sachverhalte und Sachverhaltskomplexe. ■ Der Begriff des Objekts schließt sämtliche Objekte (synonym Dinge, Gegenstände) aller Seinsbereiche (Natur, Gesellschaft und Denken ein). Der Begriffsumfang ist mehrschichtig. Er kann sich beziehen auf: a) ein einzelnes Objekt (z.B. ein Proton); b) eine Objektklasse (z.B. die Objektklasse der Atombausteine mit den Objekten Proton, Neutron und Elektron); c) eine Klasse von Objektklassen (z.B. die Klasse der Elementarteilchen mit den Objektklassen Atombausteine, Feldquanten u.a.). ■ Eine Objekteigenschaft ist ein wesensbestimmendes Merkmal des Objektes (z.B. das Atomgewicht des betreffenden Atoms). Eine Objektrelation ist eine Wechselwirkung des betrachteten Objekts mit anderen Objekten (z.B. die Massenanziehung zwischen dem betrachteten und einem weiteren Atom). Objekteigenschaften und Objektrelationen können selbst wieder eigenständiges Erkenntnisobjekt sein. ■ Ein Sachverhalt bezeichnet die Gesamtheit und Ganzheit eines Objekts mit seinen Objekteigenschaften und Objektrelationen. Das Gewinnen und Vermitteln von Wissen um konkrete Sachverhalte bzw. Sachverhaltskomplexe des Seins ist das eigentliche Ziel des Erkenntnisprozesses und damit die Aufgabe entsprechender wissenschaftlicher Informationen. Wir bezeichnen diese Informationen daher als Sachverhaltsinformationen. Die beiden Termini „Objekt“ und „Sachverhalt“ sind Grundkategorien der Informationswissenschaft. Ihre kon- sequente Berücksichtigung in der theoretischen und praktischen Arbeit führt zu größerer, besser begründbarer Klarheit im Begriffsgefüge und in der Terminologie der IuD. 1, 2 Wegen seiner übergreifenden Bedeutung für Theorie und Praxis der IuD, insbesondere im Zusammenhang mit der Rolle der Sachverhaltsinformationen, muss dem Terminus „Sachverhalt“ in der IuD-Terminologie ein zentraler Platz eingeräumt werden. Ein Sachverhalt ist nicht schlechthin ein statischer Zustand. Die allgemeinen Charakteristika eines Sachverhalts – das Zukommen von Eigenschaften zu einem Objekt und von Beziehungen zu anderen Objekten – gelten unabhängig davon, ob sich das Objekt im Zustand der Ruhe oder der Veränderung befindet, ob es als aktiver oder passiver Teil in größere Zusammenhänge eingebunden ist usw. Damit lassen sich auch komplexe Erscheinungen wie „System“ oder Veränderungen ausdrückende Erscheinungen wie „Ereignis“ oder „Vorgang“ als Einzelsachverhalte bzw. als Komplexe von beliebig vielen nachgeordneten Sachverhalten einordnen. Ein in der Wirklichkeit existierender Sachverhalt wird Tatsache oder Fakt genannt. Auch die aus der Wirklichkeit widerspruchsfrei abgeleiteten und nur im Denken gegebenen Sachverhalte sind Fakten. Dem wird durch den Terminus „ideeller Fakt“ Rechnung getragen. Das auf der Basis von Naturgesetzen im Bewusstsein entworfene Atommodell eines bestimmten chemischen Elements ist ein ideeller Fakt. Ein willkürlich im Bewusstsein konstruierter, mit der Wirklichkeit nicht widerspruchsfrei in Einklang zu bringender Sachverhalt ist hingegen eine Fiktion bzw. ein fiktiver Sachverhalt. Beispiel für eine Fiktion ist der Sachverhalt von einem funktionierenden Perpetuum mobile. 1 2 Eberhardt Gering: Terminologie der Softwaretechnik (Diskussionsbeitrag). – In: InformatikSpektrum 17 (1994) 3, S. 187 IuD – Information und Dokumentation 47 Te r m i n o l o g i e u n d S p r a c h f r a g e n Zur Terminologie der Information und Dokumentation Te r m i n o l o g i e d e r I u D Ein Objekt, das zum Gegenstand der Erkenntnis geworden ist, führt im menschlichen Bewusstsein zur Bildung eines adäquaten Begriffs, der sprachlich als Einzelwort oder abgegrenzte Wortgruppe zum Ausdruck kommt. Ein zum Erkenntnisgegenstand gewordener Sachverhalt (immer in Einheit von Objekt, Objekteigenschaften und Objektrelationen zu sehen) führt im Bewusstsein zu einer adäquaten Aussage, die ihren sprachlichen Ausdruck im Aussagesatz findet. Der menschliche Erkenntnisprozess kann prinzipiell zu drei unterschiedlichen Arten von Resultaten führen: ■ Resultat 1: Die gebildete Aussage über den betrachteten Sachverhalt erweist sich als richtig bzw. wahr. Sie steht weder zur Praxis, zu den Gesetzen der formalen Logik noch zu den Naturgesetzen und Naturkonstanten im Widerspruch. Eine Aussage dieser Art ist Grundlage für eine Fakteninformation. ■ Resultat 2: Die gebildete Aussage steht im Widerspruch zu mindestens einem der oben genannten Kriterien. Eine Aussage dieser Art ist unrichtig bzw. falsch und führt zu einer Fiktionsinformation oder zu einer bewussten Falschinformation. Die Beschreibung eines funktionierenden Perpetuum mobile ist eine Fiktionsinformation. Zu den auf Fiktionen beruhenden Aussagen gehören wissenschaftliche Idealisierungen, Utopien, Irrtümer, Phantastereien usw., aber auch bewusste Verfälschungen, Halbwahrheiten und Lügen. ■ Resultat 3: Die gebildete Aussage beruht auf einer Annahme bzw. Vermutung. Eine Entscheidung darüber, ob der betrachtete Sachverhalt richtig oder falsch erkannt wurde, ist nicht oder noch nicht möglich. Eine Aussage dieser Art ist Grundlage für eine Vermutungsinformation (Information über einen vermuteten Sachverhalt). Die Behauptung, dass es auf dem Planeten Mars Wasser gibt, liefert eine Vermutungsinformation. Zu den wissenschaftlich begründeten Vermutungen gehören Aussageformen wie Behauptung, Hypothese, Prognose und andere Formen der Erkenntnis, deren Übereinstimmung mit der Wirklichkeit möglich, aber noch nicht hinreichend bewiesen ist. Daten sind keine eigenständige Kategorie im Gefüge der Sachverhaltsinformationen. Es handelt sich bei Daten immer um verkürzte Formen adäquater Aussagesätze, wobei Daten nur dann als gesichert gelten, wenn sie nachweislich auf Faktenaussagen beruhen. Daten bezeichnen bestimmte, oft in numerischen Angaben dargestellte Merkmale von Erkenntnisobjekten. Ein Bei- 48 spiel sind die Daten der Schmelzpunkte von Metallen. Die Aussage: „Eisen hat einen Schmelzpunkt von 1540 Grad Celsius“ lässt sich in einer Tabelle der Schmelzpunkte in der Form „Eisen 1540 °C“ wiedergeben. (Weiteres zum Begriff Daten siehe unten) Die Informationsquellen, in denen die Objekte und Sachverhalte bestimmter Seinsbereiche in sprachlicher oder bildhafter Form dargestellt sind, werden in der Fachsprache der IuD als Dokumente bezeichnet. Zum Begriffsumfang des Dokuments gehören neben den schriftlichen Quellen noch andere Darstellungsformen von Gegenständen der Erkenntnis. Das betrifft vor allem die audio-visuellen Informationsquellen. Die bibliographischen und anderen Formen der Beschreibung von Dokumenten bilden die Dokumenteninformationen. Sachverhaltsinformationen und Dokumenteninformationen sind die beiden sich gegenseitig ausschließenden Grundtypen von wissenschaftlichen Informationen. Es gibt keinen dritten Grundtyp. Die beiden Grundtypen können als Mischform gemeinsam auftreten (das ist beispielsweise bei Referateblättern der Fall), sie verlieren dabei jedoch nicht ihren jeweiligen spezifischen Charakter. Gegenstand der Sachverhaltsinformationen sind die in den Dokumenten behandelten oder in der Praxis (z.B. Laborarbeiten oder archäologische Ausgrabungen) unmittelbar beobachteten Objekte und Sachverhalte. Unter dem erkenntnistheoretischen Aspekt sind objektSachverhaltsinformationen sprachlich formulierte Informationen (sie beziehen sich direkt auf die Objekte der wissenschaftlichen Erkenntnis). Tabelle 1: Soll-Liste der IuD-Basistermini Soll-Liste der IuD-Basistermini Objekt Objekteigenschaft Objektrelation Begriff Begriffsumfang Begriffsinhalt Sachverhalt Erkenntnisobjekt unter Ausklammerung seiner Eigenschaften und Relationen. Eigenschaft oder Merkmal eines Objektes. Beziehung eines Objektes zu anderen Objekten. Spiegelung eines Objektes im Bewusstsein. Gesamtheit der mit dem Begriff abgedeckten verschiedenen Arten des betrachteten Objekts. Gesamtheit der Merkmale der mit dem Begriff abgedeckten verschiedenen Arten des betrachteten Objekts. Fakt Fiktion Vermutung Objekt mit seinen Eigenschaften und seinen Relationen zu anderen Objekten. synonym Tatsache. Wirklich existierender Sachverhalt. nicht wirklich existierender Sachverhalt. Annahme über die Existenz oder Nichtexistenz eines Sachverhalts. Sachverhaltsaussage Faktenaussage synonym Aussage. Spiegelung eines Sachverhalts im Bewusstsein. auf einem Fakt beruhende Sachverhaltsaussage. Fiktive Aussage Vermutungsaussage auf einer Fiktion beruhende Sachverhaltsaussage. auf einer Vermutung beruhende Sachverhaltsaussage. Sprache Begriffswort Aussagesatz Objektsprache Metasprache Dokumentationssprache Sachverhaltsinformation Wort, das für sich allein genommen einen Begriff ausdrückt. Synonyme: Vollwort; Autosemantikum. sprachliche Form einer Sachverhaltsaussage. sprachliche Form für das Beschreiben von Objekten und Sachverhalten. sprachliche Form für das Beschreiben von Dokumenten als Ganzes. künstliche od. quasinatürliche Sprache zum Erschließen von Dokumenteninhalten. Fakteninformation Fiktive Information Vermutungsinformation Grundtyp wissenschaftlicher Information. Pendant zur Dokumenteninformation. auf Fakten beruhende Sachverhaltsinformation. auf Fiktionen beruhende Sachverhaltsinformation. auf Vermutungen beruhende Sachverhaltsinformation. Daten sprachlich verkürzte Formen von Sachverhaltsaussagen. Dokumenteninformation Grundtyp wissenschaftlicher Information. Pendant zur Sachverhaltsinformation. synonym Informationsquelle. Dokument 58(2007)1, 47-50 Te r m i n o l o g i e d e r I u D Gegenstand der Dokumenteninformationen sind dagegen die Dokumente als Ganzes. Aus erkenntnistheoretischer Sicht besitzen Dokumenteninformationen metasprachlichen Charakter (sie beziehen sich auf die Quellen, in denen die Erkenntnisobjekte betrachtet werden und nicht direkt auf die Erkenntnisobjekte selbst). Eine Terminologie der IuD muss, unter Berücksichtigung der obigen Darlegungen, die in Tabelle 1 aufgeführten Termini und deren Definitionen zu ihrer Grundlage machen. Diese Termini sollen IuD-Basistermini genannt werden. Unterstrichene Wörter sind übergeordnete Termini (Oberbegriffe) in bezug auf darunter stehende Wortgruppe. Tabelle 2: Vergleich der Soll-Liste mit den Registern der IuD-Terminologien IuD-Basistermini Terminologie 2006 Terminologie 1975 Handbuch 1977 Objekt Objekteigenschaft Objektrelation Objekt 1/ Merkmal Relation Dokumentationsobjekt Merkmal Relation ———- Begriff Begriffsinhalt Begriffsumfang Begriff Begriffsinhalt Begriffsumfang Begriff Begriffsinhalt Begriffsumfang Begriff ——- Sachverhalt Fakt —Fakten ——- Sachverhalt Fakt Fiktion Vermutung ——- ——- ——- Sachverhaltsaussage Faktenaussage Fiktive Aussage Vermutungsaussage Aussage ———- Aussage ———- Sachverhaltsaussage ———- In einer „Terminologie der IuD“ müssen durch Hinweise in den Definitionen die Zusammenhänge zwischen den oben aufgelisteten Basistermini noch vollständiger verdeutlicht werden. Sprache Wort Aussagesatz Objektsprache Metasprache Dokumentationssprache Sprache Wort Satz ——Dokumentationssprache Sprache Wort Satz ——Dokumentationssprache Sprache Wort; Sachwort ———Informationsrecherchesprache Ein Vergleich der Soll-Liste von Basistermini mit den Registern der IuD-Terminologien von 2006 und 1975 sowie mit dem Register des DDR-Handbuches der IuD von 1977 zeigt das in Tabelle 2 wiedergegebene Bild: Sachverhaltsinformation Fakteninformation Fiktive Information Vermutungsinformation —Faktendokumentation ——- Sachverhaltsauskunft Faktendokumentation ——- Sachinformation Fakteninformation ——- Daten Daten Daten Daten Dokument Dokumentbeschreibung Dokument Dokumenteninformation 1/ Objekt siehe auch dokumentarische Bezugseinheit 58(2007)1, 47-50 Dokument Dokument Dokumenteninformation Dokumentbeschreibung 49 Te r m i n o l o g i e d e r I u D Ein gesperrtes Feld bedeutet, dass es im betreffenden Register zu diesem Terminus keinen Eintrag gibt. Das Vorhandensein eines Eintrages in einem Register sagt noch nichts darüber aus, ob dieses Wort auch auf dem gleichen Begriffsinhalt und -umfang beruht wie der betreffende Terminus in der SollListe der Basistermini. Wie Tabelle 2 zeigt, klaffen mächtige Lücken in der gegenwärtigen IuD-Terminologie. Mit Sachverhalten und Sachverhaltsinformationen weiß man in der IuD offenbar nichts anzufangen, außer dass in der Fachliteratur immer wieder das ebenso stereotype wie inhaltlich völlig falsche Wortkonstrukt „Fakten, Daten und andere Sachverhalte“ auftaucht. Hierbei werden verschiedene Ebenen durcheinander gewürfelt denn Fakten existieren nur auf der Objektebene, Daten hingegen nur auf der Ebene der Aussagen über Objekte. Und was heißt in der zu beanstandenten Wortgruppe eigentlich „andere Sachverhalte“? Vermutungen bleiben in der IuD-Terminologie ebenfalls unberücksichtigt. Doch unsere Welt wimmelt von Sachverhaltsaussagen, welche den Charakter von Vermutungen haben, denken wir nur an die vielen wissenschaftlichen und weniger wissenschaftlichen Behauptungen, Hypothesen, Prognosen usw. Was machen wir damit in der IuD? Packen wir alle diese Arten von Vermutungen mit in die „Kiste der Faktenaussagen“, weil die Existenz einer bestimmten Vermutung ja auch ein „Fakt“ ist? Damit träfe man eine Aussage über eine Aussage, was natürlich zulässig ist, aber die Frage nach der Behandlung von Vermutungen nicht beantwortet. Vermutungen müssen als solche gekennzeichnet sein und müssen von den Faktenaussagen deutlich unterschieden werden. Auch Fiktionen scheint es der gegenwärtigen IuD-Terminologie zufolge nicht zu geben. Interessieren die uns als IuD-Fachleute überhaupt? Die Antwort muss auf jeden Fall lauten: Ja! Um einmal in die Geschichte zu gehen: Was würden wir beispielsweise mit dem Sachverhalt des geozentrischen Weltsystem des Ptolemäus anfangen, welches den Menschen mindestens anderthalb Jahrtausende lang als Fakt vorgeführt wurde und das doch eine einzige, riesige Fiktion ist? Manche meinen, das sei nicht mehr dokumentationswürdig. Abgesehen davon, dass diese Meinung nicht vertretbar ist – gibt es nicht in unserer Gegenwart auch immer wieder wissenschaftliche Erkenntnisse, die scheinbar auf Fakten beruhen und sich dann doch als falsch herausstellen, weil sie von fiktiven Vorstellungen ausgehen? Wie gehen wir mit entsprechenden Fachinformationen 50 um? Darf man sich damit herausreden, dass keiner die Wahrheit kennt, weil sie angeblich gar nicht zu erkennen sei oder weil es immer „mehrere Wahrheiten“ gäbe? Und wie behandeln wir wissenschaftlich unanfechtbare Aussagen, die ganz bewusst aus fiktiven Sachverhalten der Natur abgeleitet wurden (Beispiel die „idealen Gase“)? Wir können sie nicht einfach den Faktenaussagen zuordnen und die Informationen darüber zu Fakteninformationen erklären. Berücksichtigen müssen wir in der IuD auch die unablässig von neuen Erkenntnissen diktierten Wandlungen des Wahrheitscharakters von Aussagen. Die Wandlung von einer scheinbaren Faktenaussage zu einer fiktiven Aussage wurde schon am Beispiel des ptolemäischen geozentrischen Weltsystems gezeigt. Den umgekehrten Weg ging die nach damaliger Meinung der Kirche falsche Aussage über die Existenz des kopernikanischen heliozentrischen Weltsystems. Mit fortschreitender wissenschaftlicher Erkenntnis musste diese auf unumstößlichen Fakten beruhende Aussage schließlich als wahr anerkannt werden. Auch die Wege der Wandlung von Vermutungen in Faktenaussagen in der einen oder in fiktive Aussagen in der anderen Richtung müssen berücksichtigt werden. Bleibt noch etwas zu sagen zum Terminus „Daten“, der nun schon jahrzehntelang nach einer brauchbaren Definition ruft. Dabei ist die Lösung nicht schwer, was ein Beispiel zeigen soll. Nehmen wir den einfachen Aussagesatz „Der Eiffelturm in Paris ist 300 Meter hoch und hat eine Masse von 9000 Tonnen.“ In diesem Satz stecken zwei getrennte Aussagen: a) Die Höhe des Eiffelturms beträgt 300 Meter; b) Die Masse des Eiffelturms beträgt 9000 Tonnen. Höhe und Masse sind Merkmale des Objektes Eiffelturm. Diese beiden Aussagen (genauer Aussagesätze) lassen sich weiter verkürzen, indem der Objektname Eiffelturm als gemeinsames Bezugsobjekt vorangestellt und die beiden Teilaussagen auf die Merkmalsnamen (Höhe und Masse) und die Merkmalsausprägungen (300 Meter und 9000 Tonnen) beschränkt werden. Wählt man für die Dimensionen Höhe und Masse dann noch die gängigen Abkürzungen m (für Meter) und t (für Tonne), so erhält man unter der gemeinsamen Objektbezeichnung „Eiffelturm“ die zwei knappen Datenangaben: Höhe 300 m; Masse 9000 t. Verallgemeinernd lässt sich aus dem obigen Beispiel folgende Definition ableiten: Daten sind nach dem Schema „Objektbezeichnung-MerkmalsnameMerkmalsausprägung“ verkürzte Aus- sagesätze, wobei häufig die Merkmalsausprägung numerisch ist (bei bestimmten Daten ist die Merkmalsausprägung nichtnumerisch). Es sei noch darauf aufmerksam gemacht, dass in eine Terminologie der IuD auch die Termini „Wissenschaftliche Information“ und „Fachinformation“ gehören. Trennen sollte man sich hingegen von dem Terminus „Beschlagwortung“ (siehe S. 15), er ist, ebenso wie das andernorts zu lesende Wort „Verschlagwortung“, eine Verschlimmerung der deutschen Sprache. Die vom Verfasser dieses Beitrags eingeführten Termini „Vermutungsaussage“ und „Vermutungsinformation“ betrachtet er selbst als vorläufig, bis etwas Besseres vorgeschlagen wird. Leider geht durch die Aufnahme unverhältnismäßig großer Teile der Bibliotheksterminologie der Charakter einer eigenständigen IuD-Terminologie weitgehend verloren. Besser wären zwei getrennte Terminologien mit einem gemeinsamen Überlappungsteil. Literatur Eberhardt Gering: Sachverhaltsinformationen im Fachinformationsprozess – Begriffe und Termini. – In: nfd Information – Wissenschaft und Praxis 52(2001)3, S. 133-142 Wildau bei Berlin, den 27. November 2006 D e r A u to r Dr. Eberhardt Gering (Jg. 1936). Promovierter Informationswissenschaftler. Langjährige Tätigkeit auf dem Gebiet des Aufbaus und der Nutzung computergestützter Fachinformationssysteme in Industrie und Wissenschaft. An der Universität Potsdam ab 1991 tätig als Dozent für die Ausbildung wissenschaftlicher Dokumentare (STN-Schulungszentrum für Online-Datenbanken, bis 1994) sowie für die Aus- und Weiterbildung von wissenschaftlichem Personal und Studenten (bis 2001). Forschungsschwerpunkte: Gestaltung effektiver automatisierter Informationssysteme; Anwendungsmöglichkeit von natürlichsprachigen Informationssystemen; wissenschaftsmetrische Analysen großer Online-Datenbanken, Grundlagen der Sachverhaltsinformation. Asternring 29 15745 Wildau [email protected] www.dataleum.de 58(2007)1, 47-50 Chemieinformation gestern, heute, morgen Gregor Fels, Paderborn gen mit der Royal Society in London im Jahr 1660. So war die Philosophical Transactions 1667 die erste wissenschaftliche Zeitschrift, die in der westlichen Welt erschienen ist. Auch heute noch sind es die Wissenschaftsorganisationen, für die Chemie z.B. die GDCh oder die ACS, die die wissenschaftliche Kommunikation mitbestimmen, auch wenn der Einfluss der Verlage dabei nicht unbedeutend ist. Es ist beispielsweise der GDCh zu verdanken, dass wir heute an den HochElectronic media in chemistry – the development of chemical information schulen Literatur- und FaktendatenElectronic media are communication tools, which are coded and transmitted as banken wie selbstverständlich nutzen. digital data. In chemistry these are chemical publications, hand books, data seDabei ist es erst knapp zehn Jahre her, ries, spectral data, reactions, repositories for online learning and much more. In dass das „Endnutzerprojekt Datenbanthe framework of the presentation of the new information and knowledge platken“ in den Jahren 1995-97 – vom 1 form chem.de during ACHEMA 2006, the author gave an overview on the revoBMBF gefördert und von der GDCh orlutionary development of chemical information from yesterday to tomorrow. This ganisiert – für die Einführung und Nutarticle focuses on the text of the presentation, the transparencies are available zung der chemiebezogenen Datenban2 online on the platform chem.de (Forschungsführer/Fels, Gregor/Publikationen). ken an deutschen Hochschulen gesorgt hat. Gerade in den letzten Jahren hat die Während man im ZeitChemieinformation einen Wandel vollalter der Erfindung des zogen, bei dem wir – technisch und Buchdrucks noch ausmental – den Übergang von den konschließlich mechaniventionellen Bibliotheken mit ihren Resche Hilfsmittel wie galreihen voller Bücher und Journale Ramellis Bücherrad 4 zur Informationsaufzum elektronischen Arbeitsplatz im nahme zur Verfügung Büro, zu Hause oder eben in der Bibliohatte, gibt es seit etwa thek bewältigt haben. Mit der histori170 Jahren auch eine schen Rolle der Bibliotheken als „GateWissenschaft der Komkeeper“ der wissenschaftlichen Literamunikation, die uns die tur sind sie – im Zeitalter der Elektronik Kommunikation der – die Portale für die digitale InformaWissenschaft mittels tion, die von innerhalb und außerhalb elektronischer Medien der Hochschule zu erreichen sind, und erleichtert. die nicht zu den Regalpositionen der Sie hat ihren Ursprung katalogisierten Bücher, sondern – viel wohl in der Erfindung bedeutender – zu den verschiedensten Abbildung 1: Web-Portal zur elektronischen Bibliothek der Universität Paderborn des Telegraphen, 1837 Dienstleistungen der Fachinformatiodurch Samuel Morse, nen führen, wie z.B. den Datenbanken sie seit etwa 50 Jahren in steigendem geht weiter über das Telefon und oder den „downloadbaren“ PDF-DateiMaße auch – oder vielleicht irgendkommt mit der drahtlosen Kommunikaen von Zeitschriftenartikeln.3 wann nur noch – elektronisch verfügtion zum ersten Mal von der „one-tobar. Es waren die Chemical Titles und one“ Verkabelung zu einer Informatidie ersten online Journals der ACS, die onsvermittlung „one-to-many“. Heute das elektronische Zeitalter der Chemiesind wir mit dem Internet und z.B. den Die Kommunikation der Wissenschaft informationen eingeläutet haben. 1 www.chem.de Neben dem Vorhandensein der wissenist heute mehr oder weniger synonym 2 www.chem.de, siehe: Forschungsführer/ mit elektronischer Kommunikation: Inschaftlichen Information ist aber eine Fels, Gregor/Publikationen. 3 www.ub.uni-paderborn.de/ebibliothek/ ternet, Telefon, Radio und Fernsehen. soziale Infrastruktur notwendig, um die 4 www.hrz.uni-dortmund.de/docs/Medien/ Wissenschaft zu kommunizieren. Das Jahrhunderte lang waren Bücher und Lesemaschine.html Zeitschriften die Träger der Informahaben früher die gesellschaftlichen Alle im Text angegebenen Webadressen wurden tion. Das gilt auch heute noch, nur sind Gruppierungen übernommen, angefanam 11. Dezember 2006 überprüft. Elektronische Medien sind definitionsgemäß Kommunikationsmittel, die auf elektronischem Wege, digital kodiert, übermittelt werden. Bezogen auf die Chemieinformation handelt es sich dabei um chemische Publikationen, Handbücher, Datenreihen, Spektren, Reaktionen, Repositorien für Online-Learning und vieles mehr. Im Rahmen der Vorstellung der neuen Informations- und Wissensplattform „chem.de“1 während der ACHEMA 2006 hat der Autor den Versuch unternommen, die revolutionäre Entwicklung der Chemieinformation zwischen „gestern und morgen“ zu beschreiben. Der Vortragstext ist hier im wesentlichen unbebildert wiedergegeben, die Vortragsfolien sind auf eben dieser „chem.de“-Plattform abzurufen (Forschungsführer/Fels, Gregor/Publikationen).2 (Chemie)Information gestern 58(2007)1, 51-56 51 I n f o r m at i o n s p r a x i s Elektronische Medien in der Chemie E n t w i c k lu n g C h e m i e i n f o m at i o n Wissenschaft der Kommunikation ■ ■ ■ ■ ■ ■ ■ ■ Telegraph, Samuel Morse (1837) Telefon, Alexander Graham Bell, (1874) Radiosendung, James Clark Maxwell (1901) Integrierte Schaltkreise, Jack Kilby, Texas Instruments (1958) ARPAnet (1969) TCP/IP, Robert Kahn and Vinton Cerf (1973) WWW, Tim Berners-Lee (1989) Fachinformationsprogramme des BMBF (1985-98 und 1990-4) • Beilstein, Gmelin • Cheminnform RX • Detherm • SpecInfo Wikis bei der „many-to-many“ Kommunikation angelangt, die manchmal vielleicht auch schon „much-to-much“ ist. Die technologische Wiege des elektronischen Informationszeitalters liegt in der Zeit nach dem Zweiten Weltkrieg, zu Zeiten also, als der Transistor die Vakuumröhren der Computer ersetzte und als Jack Kilby den ersten integrierten Schaltkreis in den Labors von Texas Instruments (1958) hergestellt hat, und in deren Folge dann nach und nach die Taschenrechner Chips, die Mikroprozessoren und die Personalcomputer entstanden sind. Die Grundlagen für das World Wide Web wurden in den 60er Jahren des letzten Jahrhunderts gelegt, als das U.S. Defense Department 1969 das ARPAnet eingeführt hat. Das Internet-Protokoll, das TCI/IP, wurde 1973 von Robert Kahn und Vinton Cerf geschrieben. Das ist noch heute gültig. Es ist vielleicht kein Zufall, dass das Web in einem Physiklabor entstand, dem CERN, wo Tim Berners-Lee 1989 die grundlegende Pionierarbeit geleistet hat. Später wurde der erste Browser, Mosaic, am National Center for Supercomputing Applications (NCSA) an der University of Illinois bereitgestellt, gefolgt von den kommerziellen Entwicklungen von Browsern und Suchmaschinen in Stanford, Berkeley und Carnegie Mellon. Als besonderer Meilenstein der Chemieinformation in Deutschland sind in dieser Chronologie die Fachinformationsprogramme der Bundesregierung zu nennen, die 1985-88 mit insg. 50 Millionen DM und noch einmal 1990-94 mit jeweils 20 Mio DM pro Jahr den Aufbau der deutschen Datenbanken gefördert 5 6 7 8 www.cas.org/ www.cas.org/cgi-bin/regreport.pl Marx, W., Schier, H., CAS contra Google. Nachr. aus der Chemie 2006, 53, 1228-1232. www.nih.gov/about/director/pubmedcentral/ ebiomedarch.htm 52 haben, d.h. Beilstein, Gmelin, ChemInform RX, Detherm und Specinfo. Heute müssen wir für den Zugang zu diesem mit deutschen Steuergeldern geförderten Produkten beim Verlag Elsevier in Holland bezahlen. 1995 gab es dann einen Paradigmenwechsel in der deutschen Forschungspolitik: ■ Der klassische Datenbankaufbau und das Angebot wissenschaftlichtechnischer Informationen wurde in weiten Bereichen der Privatwirtschaft überlassen; marktwirtschaftliche Aspekte wurden also dominierend. ■ Die Krise der öffentlichen Haushalte, z.B. der rückläufige Erwerbungsetat der Bibliotheken, zwang dazu, zunehmend auch Originalinformationen elektronisch zu erstellen, zu verteilen und vorzuhalten; elektronisches Publizieren bekam ein stärkeres Gewicht. ■ Multimediale Kommunikationsformen sollten für Wissenschaft, Forschung und Ausbildung gefördert werden; Förderprogramme wie „neue Medien für die Bildung“ oder die „Notebook University“ wurden initiiert. Wie sieht es nun damit heute aus, also zehn Jahre später? Vermutlich wäre die heutige Informationsflut mit gedruckten Suchhilfen aber gar nicht mehr zu bewältigen. Im Laufe des 20. Jahrhunderts hat sich der jährliche Output der chemischen Forschung nahezu verhundertfacht und insgesamt einen Umfang von 30 Millionen Artikeln und Patenten erreicht. Es gibt heute, im Mai 2006, mehr als 28 Millionen reguläre Verbindungen und knapp 58 Millionen Biosequenzen. Die gegenwärtig gültigen Zahlen sind tagesaktuell beim Chemical Abstract Service abzurufen.6 Im Jahr 2004 erschienen fast 1,4 Millionen chemierelevante Arbeiten (inkl. Patente); darin wurden mehr als zwei Millionen neue Verbindungen und rund 15 Millionen Biosequenzen beschrieben (siehe Grafik). 7 Der Informationsberg wächst und es ist notwendig, diese wichtigen Fachinformationen zu strukturieren und zu verarbeiten. Schlagworte dabei sind ■ online Journals inkl. Preprint Archive. ■ Retrieval Tools für die Informationsbeschaffung. ■ digitale Bibliotheken mit ihren Literatur- und Faktendatenbanken. Unabhängig davon, ob die Inhalte frei verfügbar oder kostenpflichtig abzurufen sind, man muss sie finden, und da ist viel passiert in den letzten Jahren. Entwicklung der Chemieinformation in den letzten fünf Jahren Vier Aspekte sollen hierzu näher beleuchtet werden ■ die Explosion der Informationsflut. ■ die Methoden zur Beherrschung dieser Informationsflut. ■ der e-commerce market-place Gedanke. ■ die Web-Portale wie z.B. chem.de. Das mit der (Chemie)Information sicher eng verbundene „open access“-Thema soll dagegen an dieser Stelle ganz bewusst ausgelassen werden. Informationsflut Internet und Web stellen heute die Infrastruktur für die Chemieinformation dar. Man kann sich kaum noch vorstellen, wie mühsam es war, sich mit Hilfe der Chemical Abstract Bände5 über z.B. die Synthese einer organischen Verbindung zu informieren, angefangen von den aktuellen, losen Heften, bis zurück zu den – zum Glück – vorhandenen 5Jahre-Sammelbänden. Die jüngere Generation weiß sicher gar nicht mehr, wovon die Rede ist und bestaunt vielleicht nur verständnislos die immer noch vorhandenen meterlangen Reihen der CAS-Bände. Abbildung 2: Zeitlicher Verlauf der CASPublikationen (grün = Patente, blau = Artikel, rot = gesamt) Literaturdatenbanken und -retrival Einige der entwickelten Dienste und Leistungen zum Auffinden der Literatur haben weit verbreitete Anerkennung gefunden, andere haben eher aktiven Widerstand hervorgerufen. Nehmen wir beispielsweise das E-biomed Modell,8 das ursprünglich als frei verfügbares, zentrales Repositorium für Reprints und Artikel gedacht war, die dort unmittelbar nach der Annahme bei einem Journal abgelegt werden sollten. Aus der Sicht der Wissenschaftler natürlich eine geniale Idee, aber man kann sich leicht vorstellen, dass die wissenschaftlichen Verlage da nicht mitgemacht haben. Der E-biomedSponsor, das National Institutes of Health (NIH), hat daher die Bedingungen gelockert und den Fokus verringert, 58(2007)1, 51-56 E n t w i c k lu n g C h e m i e i n f o m at i o n woraus der PubMed Central Service entstanden ist. Etwa ein halbes Dutzend Verlage sind an diesem PubMed Cenral Service beteiligt, der hier beispielhaft für digitale Repositorien stehen soll, die Journalinhalte mehrerer Verlage zentral verwalten. Im chem.de-Portal hat das Teilprojekt ViFaChem 9 ähnliche Aufgaben, indem es einen zentralen Zugang zu chemierelevanten Informationen bereitstellen wird. Die DFG-Förderung dieses Teilprojektes läuft aber noch bis September 2007, so dass erst danach die volle Funktionalität dieses Bereiches zu erwarten ist. CAS und PubChem in ihrem Informationsangebot ganz gut. Diese Art von Konkurrenz, also freier Service statt kommerziellem Angebot, bringt zurzeit wohl die größte Bewegung – oder auch Unruhe – in die Chemieinformation. So kann man sich leicht vorstellen, dass beispielsweise das NMR-Shift Projekt, 12 eine Datenbank mit NMR-Daten, einem etablierten Programm wie Specinfo13 bzw. dem dahinter stehenden Verlag Wiley-VCH, Anlass genug gibt, technisch und inhaltlich nicht zu verweilen. In weit größerem Maße kommt es aber zu einer solchen Konkurrenz bei den Abbildung 3: Web-Portal der Literaturdatenbank im Web of Science Literaturdatenbanken werden in der Tat in vielfältigen Variationen angeboten, wobei auch die chemischen Gesellschaften, allen voran die ACS, nicht außen vor bleiben. So hat die ACS Ihre Zeitschriften über eine eigene Webseite zugänglich gemacht, dem ChemPort,10 bei dem wohl der CAS-Datenbank, also dem Chemical Abstract Services, die größte Bedeutung zukommt. CAS ist ein Musterbeispiel für eine Datenbank mit weitergehender interlektueller Bearbeitung, was sie vermutlich auch so teuer macht. Sie ist eine der größten Literaturdatenbanken überhaupt und reicht inzwischen mit ihren Inhalten über 100 Jahre zurück. Dabei wird die Primärliteratur aus über 10.000 Zeitschriften sowie alle chemierelevanten Patente, Bücher und Forschungsberichte berücksichtigt. Inzwischen gibt es mit PubChem11 eine weitere verbindungsbezogene Datenquelle, die das NIH im Rahmen seiner „open access Initiative“ „NIH-Roadmap for Medical Research“ zur kostenfreien Nutzung bereitstellt. PubChem deckt zwar derzeit nur einen kleinen Teil der von CAS erfassten Verbindungen und Literaturstellen ab, verzeichnet aber einen enormen Zuwachs. Da es in PubChem vorwiegend um biologisch aktive Verbindungen geht, ergänzen sich aber 58(2007)1, 51-56 großen Anbietern der Literaturdatenbanken, ■ dem Web of Science,14 das kommerziell von Thomson Scientific betrieben wird, ■ dem Scopus,15 das als direkte Konkurrenz von Elsevier im Herbst 2004 auf dem Markt gebracht wurde und ■ dem im Gegensatz dazu frei verfügbaren Google Scholar,16 das es seit seinem „Launch“ im November 2004 immer noch als Beta-Version gibt. Diese drei haben die Besonderheit, dass sie nicht nur alle Arbeiten der erfassten Zeitschriften, sondern auch alle darin enthaltenen Literaturverweise liefern. Wurden diese Zitierindexe früher noch ausschließlich benutzt, um Fachinformation zu suchen – in zurückliegenden wie auch in späteren Jahren –, werden sie heute auch dazu verwendet, Resonanz und Wirkung (Impact) als Maß für die Qualität eines Wissenschaftlers zu messen bzw. Wissenschaftler darüber zu bewerten. Das Web of Science ist aus dem guten alten Science Citation Index hervorgegangen, den Ältere noch als kleine „zerfledderte“ Heftchen kennen. Es gibt einen informativen Artikel von Peter Jacso in Current Science17, in dem er die drei großen Player gegenüber stellt, wobei aber schon eindeutig zu erkennen ist, dass er kein Freund des Google Scholar ist. Danach hat der Scopus zwar insgesamt mehr anzubieten (17.000 Zeitschriften gegenüber 9300 beim Web of Science), aber aus naturwissenschaftlich-technischer Sicht ist Scopus – zur Zeit noch – eindeutig schlechter als das Web of Science, da es nur 5500 gegenüber den 6400 Zeitschriften auswertet. Auf der Basis der Artikel ist das Verhältnis noch stärker zu Gunsten des Web of Science. Bei Google Scolar findet man zu all diesen Fragen keine Angaben, wie man überhaupt den Eindruck gewinnt, dass man sich bei Google nicht gern in die Karten schauen lassen möchte. Grund dafür ist sicher auch, dass noch nicht alles rund läuft und man also den beiden „Großen“ nicht nur inhaltlich, sondern auch funktionell hinterher hinkt. So findet Google Scholar z.B. bei der Abfrage nach ■ Protein: 10,5 Mio Treffer. ■ Proteins: nur 5,3 Mio Treffer. ■ Protein „OR“ Proteins sogar nur noch 2,1 Mio Treffer. Das Beispiel ist aus dem Jacsos-Artikel, kann aber auch heute noch – 11/2 Jahre später – genauso nachvollzogen werden. Man kann bei all den kleinen Spitzen von Jacso gegenüber Google Scholar geteilter Meinung sein, aber er beklagt zu Recht, dass Verlage ihre digitalen Inhalte kostenlos dem Google Scholar Projekt zur Verfügung stellen. Wenn Thomson oder Elsevier ebenso einen freien Zugang zu den Archiven der anderen Verlage gehabt hätten, hätten sie ihren Service vielleicht auch kostenfrei oder zumindest zu weit geringeren Kosten anbieten können. Der Aufbau einer Datenbank mit Multi-Millionen Einträgen erfordert Multi-Millionen Dollar, die sich durch den technischen Aufwand, aber zum Teil auch durch Lizenzgebühr zum Exzerpieren der etwa eine Million Paper pro Jahr, inklusive dem Hinzufügen von 20-22 Millionen Zitaten ergeben. Bezeichnenderweise schreibt Google Scholar auf der Startseite der Suchmaske die Phrase „Auf den Schultern von Giganten“, was man in mehrfacher Hinsicht deuten kann. 9 www.tib.uni-hannover.de/ueber_uns/pro jekte/vifachem/ 10 www.chemport.org 11 http://pubchem.ncbi.nlm.nih.gov/ 12 http://nmrshiftdb.pharmazie.uni-marburg. de/nmrshiftdb/pane0/Home 13 http://specinfo.wiley.com/specsurf/welcome.html 14 http://portal.isiknowledge.com/portal.cgi. 15 www.scopus.com/scopus/home.url 16 http://scholar.google.de/ 17. Jacso, P., As we may search – Comparison of major features of the Web of Science, Scopus, and Google Scholar citation-based and citation-enhanced databases. Current Science 2005, 89, (9), 1537-1547. 53 E n t w i c k lu n g C h e m i e i n f o m at i o n Abbildung 4: Google-Zugang zur wissenschaftlichen online Literatur Google geht aber noch einen Schritt weiter, indem sie seit Dezember 2004 Millionen Bücher von fünf bedeutenden Bibliotheken digitalisieren, d.h. einzuscannen und im Internet verfügbar machen (wollen), und zwar aus den Universitätsbibliotheken von Oxford, Harvard, Stanford und Michigan sowie aus der New York Public Library. Suchbarkeit ist die Triebkraft solcher Projekte und – bei den kommerziellen Anbietern wie Amazon – natürlich das Geschäft. So bietet Amazon auch von Copyright-geschützten Büchern einige Seiten zum Download an – als Leseprobe – und hat mit seiner „search inside the book“-Offerte offensichtlich eine Umsatzsteigerung von knapp zehn Prozent erreicht. Es gibt eine deutsche Initiative, in der 100 Verleger 100.000 neu veröffentlichte Bücher im Jahr 2006 digitalisieren wollen, mit einem Zugang zu den Büchern gegen Gebühr. Um dem Leser ein Maß für diese Anzahl an Büchern zu geben: In Deutschland wurden im Jahr 2004 insgesamt 86.543 Buchtitel produziert; im übrigen in China im Vergleich dazu 208.294 Bücher,18 nur das 2,4-fache. Faktendatenbanken Die bisher erwähnten Literaturdatenbanken arbeiten die Primärliteratur im 18 Rautenberg, U., Buchzeichen und das Image des Buches. Forschung und Lehre 2006, 13, 134-136. 19 www.mdl.com/products/knowledge/cross fire_beilstein/ 20 www.mdl.com/products/knowledge/cross fire_gmelin/ 21 www.expasy.org/sprot/ 22 www.rcsb.org/pdb/ 23 www.sciencedirect.com/preprintarchive 24 www.facultyof1000.com/ 25 www.psigate.ac.uk 26 www.vs-c.de 27 http://www3.interscience.wiley.com/ 28 http://chemistry.about.com/od/chemicalsup pliers/ 29 www.chemindustry.com/. 30 www.chem.com/ 31 www.chemie.de. 32 www.chemistry.org 33 www.chemweb.com/ 34 www.chemsitry.de/ 35 www.zim.mpg.de/openaccess-berlin/berlindeclaration.html 36 www.doaj.org/ 37 www.heise.de/newsticker/meldung/73198, Open Access: Mit Hochschul-PublikationsServern aus der Zeitschriftenkrise 54 Hinblick auf effektive Suchmöglichkeiten auf, nehmen aber keine inhaltliche Bewertung vor. Anders die Faktendatenbanken wie Beilstein 19 und Gmelin20, die unter der Oberfläche CrossFire von Elsevier’s MDL Information Systems angeboten werden. Sie enthalten neben Abstracts auch Strukturen, Reaktionen und Eigenschaften von Verbindungen. Auch hier kann man aber über die LitLink-Schnittstelle direkt zum Volltext gelangen. Es ist vielleicht bezeichnend, dass diese älteren Faktendatenbanken kostenpflichtig sind, während viele der jüngeren – die im übrigen überwiegend aus den Biowissenschaften kommen – frei zugänglich sind. Musterbeispiele dafür sind der SwissProt Server21 und die Protein Data Datenbank mit 3DStrukturen.22 Preprintserver und Lernmaterial Alle bislang genannten Literaturdienste haben gemein, dass sie sich auf Artikel beschränken, die bereits publiziert oder zur Publikation angenommen sind. Dem steht eine Reihe von Preprint-Servern gegenüber, auf denen Veröffentlichungen – in der Regel frei zugänglich – aufliegen, die bislang nicht konventionell publiziert worden sind und damit in der Regel auch keinen Peer-Review Prozess durchlaufen haben. Im Gegensatz zu Physikern sind die Chemiker im Umgang mit Preprint-Servern etwas reservierter, was zur Folge hatte, dass der Chemistry Preprint Server23 – der im übrigen im Jahr 2000 von Elsevier aus der Taufe gehoben worden war – am 24. Mai 2004 seinen Dienst wieder eingestellt hat, d.h. seit dem Datum nimmt er keine Beiträge mehr an. Was all diese Services nicht leisten können, ist eine Bewertung der Inhalte und das Herausfiltern des besten Materials für eine gegebene Fragestellung. Aber auch hier gibt es Abhilfe. So hat beispielsweise BioMed Central den „Faculty of 1000 subscription service”24 bereits 2002 ins Leben gerufen, wo führende Wissenschaftler ihre Meinung zu den wichtigsten Veröffentlichung aus Biologie und Medizin abgeben. Für 90 Euro pro Jahr kann man sich hier beraten lassen, welche Veröffentlichungen in diesen beiden Disziplinen für wichtig gehalten werden. Auf derselben Linie liegen die so genannten „subject-based information gateways“, die gesichtetes Material zur Verfügung stellen. Ein Beispiel ist das PSIgate, das „Physical Sciences Information Gateway“,25 ein freier Internet Service aus England, der gleichermaßen der Lehre und der Wissenschaft dient. Beim PSIgate findet man einen online Katalog von InternetAngeboten, die von Experten ausgesucht und kurz beschrieben werden. Während vom PSIgate nur wenig zusammenhängende Einzelthemen abge- rufen werden können, gibt es in Deutschland das wohl größte zusammenhängende Repositorium mit Lehrmaterial für die Bachelor-Ausbildung in Chemie.26 Die Inhalte sind – vom BMBF gefördert – zwischen 1999 und 2004 von 16 Hochschullehrern unter der Federführung des FIZ Chemie in dem Projekt „Vernetztes Studium – Chemie“ erstellt worden und werden nun seit dem 1. April 2006 vom FIZ Chemie unter einem anderen Namen – als Chemgapedia – angeboten. E-commerce market-place Eindeutig kommerziellen Hintergrund haben die elektronischen Medien in der Chemie, wenn man zu dem wachsenden Bereich des „e-commerce market place“ kommt. E-Commerce fängt natürlich bereits dort an, wo die Verlage Dienste auf ihren Web-Seiten anbieten, wie z.B. Wiley auf seiner „Interscience“-Seite.27 Das Internet als „market place“ ist aber generell für alle Anbieter eine riesige Möglichkeit, und so tummeln sich nicht nur wissenschaftliche Verlage sondern beispielsweise auch Chemikalienfirmen im Netz. 28-30 Web-Portale (Wissensportale) Um der vielfältigen und verteilten Information im Web Herr zu werden, bedient man sich – zumindest heute noch – der Web-Portale, d.h. einzelner Webseiten, auf denen Material zu bestimmten Inhalten oder Service-Angeboten zusammengefasst ist. Die Vielzahl ist schon fast unübersichtlich und ich möchte hier nur stellvertretend das deutsche Chemie.de,31 das ACS-Portal „chemistry .Org“ 32, das „Chemweb. com“33 und das „chemistry.de“ Portal34 des FIZ Chemie aufführen, wobei das FIZ-Chemie-Portal für sich allein steht, aber mit einer Reihe seiner Funktionen auch in das neue chem.de-Portal1 eingebettet ist. Sucht man nach Chemie-Portalen im Internet, findet man auch eine Web-Seite des Anbieters „match.com“ ein Partnerschaftsanbahnungsinstitut, bei dem die Chemie dadurch ins Spiel kommt, dass es dort heißt „Better loving through chemistry“, was auch immer damit gemeint ist. Open access Das „open access“ Thema ist natürlich ganz direkt mit den elektronischen Medien in der Chemie verbunden. Trotzdem soll hier nicht darauf eingegangen werden, weil die Thematik hier nicht ausreichend und daher nicht fair diskutiert werden kann. Vielmehr verweise ich auf die „Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities” 35 und auf das „Directory of Open Access Journals”. 36 Dass diese Diskussion noch lange nicht abgeschlossen ist, sieht man jüngsten Äußerungen der Hochschulrektorenkonferenz.37 58(2007)1, 51-56 E n t w i c k lu n g C h e m i e i n f o m at i o n Was haben wir von der (Chemie) Information morgen zu erwarten Die Entwicklung des WWW war weder prophezeit worden, noch war sie vorherzusehen, auch wenn in der Retroperspektive alles so logisch und konsequent aussieht. Die zugrunde liegenden Technik-Trends – wie beispielsweise das exponentielle Wachstum der Computerleistung oder die Bandbreite – erlauben zwar eine Zukunftsvision, aber die Anwendungen erlauben das nicht. Technologisch zielen wir auf Zeiten hin, in denen Bandbreite und Datenverarbeitung grenzenlos und frei sein werden, mit einer Service-Qualität mindestens so gut wie bei dem traditionellen Telefon-Netz und mit garantierter Sicherheit und Privatsphäre. Letztlich zielt auch das E-Science-Projekt der Bundesregierung darauf ab. In dem Projekt werden vom BMBF Entwicklungsaktivitäten mit dem Ziel gefördert, eine neue Service-Infrastruktur für die wissenschaftliche Kommunikation und Publikation, Informationsbeschaffung und Teamarbeit in virtuellen Organisationen zu schaffen. Es ist zu erwarten, dass auch die Chemieinformation davon profitiert. Vergleichbare „eScience“-Programme gibt es z.B. auch in den USA, dort ist von „Cyberinfrastructure“ die Rede. Unser Zugang zum Netz wird sich also verändern, denn ■ wir werden nicht mehr mit dem Kabel am Hub hängen, sondern uns im Wireless Lan aufhalten, ohne Restriktion auf Ort und Zeit, ■ wir werden die benötigten Daten weniger von einem lokalen Server, als via Internet aus mehreren Quellen von irgendwoher beziehen, ■ wir werden Geräte fernbedienen und Daten auf entfernten Rechnern auswerten, ■ aber es werden – außer bei z.B. der Sprachkommunikation über das Internet die meisten Kommunikationen weiterhin asynchron sein, abrufbar immer dann, wenn man sie benötigt. casting“ kommt eigentlich aus der Musikbranche, wo man Audiodateien (Musik) herunterladen kann, gleichzeitig aber seinen Rechner für das Hochladen eigener Dateien frei gibt. Man kann dem Namen schon fast entnehmen, wo er herkommt, weil das Pod in Podcasting etwas mit dem iPod zu tun hat. Was hat das mit Chemie zu tun? Bisher noch nicht viel, weil Podcasting bzw. die dabei verwendeten Podcatcher erst sporadisch auf Chemie angesetzt werden. Diese Podcatcher sind die eigentlichen „Content Aggregator“, also Websites oder Programme, die Inhalte verschiedener Quellen durchsuchen und diese übersichtlich aufbereitet zur Verfügung stellen. Bislang gibt es solche Content Aggregator, wie z.B. den „newsgator“38 oder das deutsche Podcast-Verzeichnis 39 eher für Nachrichten, für Informationen aus Kultur oder Gesundheit und für Bildungsaspekte. Man kann sie so einstellen, dass sie in regelmäßigen Abständen bestimmte Websites nach „Neuigkeiten“ durchsuchen und so als „persönliche Zeitung“ bzw. als persönliche Informationsquelle dienen. In diesem Fall zieht man sich also die Information, die man haben will, statt dass man bombardiert wird mit Information, die einem irgendjemand zusendet; also durchaus ein sinnvoller Prozess. Wir werden sicher in allernächster Zeit solche „aggregators“ in den gängigen Browsern eingebaut haben, z.B. ist er in der Internet Explorer Version 7 enthalten, die es derzeit in einer Beta-Version gibt; und wir werden solche Podcatcher auch in der Chemie haben. Eine Website, die dem nahe kommt ist „Triple Point“,40 die englische Übersetzung eines portugiesischen „aggrega- man z.B. verschiedenen Vorlesungen der organischen Chemie inklusive dem Entwickeln des Tafelbildes audiovisuell folgen. Wikis und Weblogs Als Tim Berners-Lee 1989 das World Wide Web erfunden hat, wollte er damit eine Kommunikations-Plattform für sich und seine Kollegen am CERN (in Genf) und anderswo in der Welt bereitstellen. Aber das ursprüngliche Konzept, dass die Nutzer in Echtzeit miteinander kommunizieren können, wurde von der Entwicklung überrannt, das Netz als flexible Methode zum Auffinden von Informationen zu nutzen. Heute, gut 15 Jahre später, scheinen wir wieder zu den Wurzeln des Web zurückzukommen, mit einer Entwicklung hin zu einem „sozialen Web“, das als Web 2.0 bezeichnet wird, auch wenn Naturwissenschaftler eher zögerlich diese Technik anzunehmen scheinen. Im Web 2.0 gewinnen die Grundgedanken des Web wieder an Bedeutung: Offenheit, Standardisierung und Freiheit. Nicht mehr die Programme auf dem PC zählen, das Internet selbst wird die Anwendung. Die Zeiten der lokalen Datenhaltung gehen zu Ende. Mobilität ist das Stichwort, und die Inhalte liegen im Netz, wobei es nicht mehr wichtig ist, wo man ist, man benötigt lediglich Zugang zum Internet. Egal ob per Kabel oder Funk, Daten und Content sind immer und überall verfügbar. Man spricht von „Social Bookmarking“, „Social Web“ oder „Social Software“, denn es geht um die Vernetzung von Inhalten und von Menschen. Typische Beispiele hierfür sind die so genannten Wikis, wie etwa die Online- Enzyklopä- Auf drei Entwicklungen soll hier mit Blick in die Zukunft eingegangen werden: ■ Content aggregator und podcasting, ■ Web 2.0 und Wikis und ■ E-Learning. Abbildung 5: Startseite zur Wikipedia-Enzyklopädie Chemie Content Aggregators Eine der spannenden Entwicklungen sind die „Content Aggregator“ und das „Podcasting“, d.h. automatische Informationsdienste, die man auf sich selber zuschneiden kann. Der Ausdruck „Pod- tors“ mit Chemieinformationen. Ein imponierendes Beispiel für ein Podcasting – gleichzeitig verbunden mit „screencasting“ – sind die E-Learning-Aktivitäten des Drexel College of Arts and Science in Philadelphia. 41 Hier kann 58(2007)1, 51-56 38 www.newsgator.com/Home.aspx 39 www.podcastzentrale.de/ 40 www.pontotriplo.org/triplepoint/2005/03/ quick_picks_fro.html 41 http://drexel-coas-elearning.wikispaces.com/ 55 E n t w i c k lu n g C h e m i e i n f o m at i o n view-Prozesses. Mit Blogs wäre eine echte, weltweite Diskussion der Ergebnisse nach der Veröffentlichung möglich. Abbildung 6: Das neue Chemie-Portal Chem.de die Wikipedia42 oder die BildersharingAngebote wie Flickr43 oder die SocialBookmarking-Plattform del.icio.us. 44 Allen dreien ist gemeinsam, dass sie mehr sind als nur reine Online-Lagerstätten für Content. Auch Chemieinformation bekommt man in einem Wiki, dem Chemie-Wiki, sowohl in englischer45 wie in deutscher Sprache.46 Wikis basieren auf zwei Grundgedanken: Der eine ist „Zusammen sind wir stark“ und der zweite „Das Ergebnis ist eine Potenz und nicht nur die Summe des Ursprünglichen“. Viele Menschen leisten für sich genommen kleine Beiträge und heraus kommt – hoffentlich – ein großes, gutes und lebendiges Lexikon. Die großen Internetkonzerne haben natürlich das Potential des neuen Web entdeckt und greifen längst zu. Flickr beispielsweise wurde schon vor geraumer Zeit von Yahoo gekauft, der führende Blog-Anbieter Blogger gehört zu Google, und eBay hat sich den innovativen Internet-Telefonie- und MessagingDienst Skype einverleibt. Blogs geistern schon seit über zehn Jahren durchs Internet, beginnen aber erst jetzt richtig populär zu werden. Ein Blog, oder besser ein Weblog, ist eine Webseite, die periodisch neue Einträge enthält, also so etwas wie ein Tagebuch. Bloggen ist in den letzten Jahren sehr populär geworden. Firmen machen das in großem Maße, um z.B. die Chronologie von Vorgängen festzuhalten. Wissenschaftler dagegen halten bislang eher an dem etablierten Publikationswesen fest, als einem feststehenden, archivierten Dokument, das einen bestimmten Meilenstein innerhalb einer Forschungsarbeit fixiert. Aber das ist statisch und daher begrenzt. Wer bekommt schon einen Kommentar zu seinem Paper außer von den Gutachtern im Zuge des Peer-Re42 43 44 45 46 http://de.wikipedia.org/ www.flickr.com/ http://del.icio.us/ http://en.wikipedia.org/wiki/Chemistry http://de.wikipedia.org/wiki/Chemie 56 E-Learning Schließlich ist noch zu erwähnen, dass das Web mehr und mehr Bedeutung gewinnt für die Ausbildung und für ein lebenslanges Lernen. Kurse in allen möglichen Disziplinen und Schwierigkeitsgraden werden von akademischen und nichtakademischen Anbietern für ein distant Learning verfügbar gemacht. Doch die E-Learning- oder ETeaching-Euphorie geistert immer noch als unklare Definition durch die Hochschullandschaft. Es hat sicher nichts mit E-Learning zu tun, wenn man vom Tafelbild auf Power-Point-Folien überwechselt, auch wenn diese dann mit Hilfe elektronischer Medien verbreitet werden. Da ist das elektronische Buch schon eher auf der richtigen Linie. Seit Jahren wird davon gesprochen und sicher wird es kommen, aber es wird wohl so bald nicht die Hardcopy ersetzen, sondern eher komplettieren. Unter E-Learning verstehe ich aber z.B. ein Projekt, das ich gerade mit Wiley ausprobiere, bei dem die Hörer der organischen Grundvorlesung ein komplettes Lehrbuch im online Zugriff haben, einschließlich der multimedialen Unterstützung durch Moleküldarstellung, Animationen und online Tutorien aber auch inklusive der automatisierten Erstellung, Beantwortung und Bewertung von Übungsaufgaben. vorstellbar und mit Sicherheit teurer wäre, als ein gesunder Medienmix. Eine Komplementarität von Medien ist sicher sinnvoller als eine Medienkonkurrenz bzw. eine Mediensubstitution. Wünschenswert ist dagegen die stärkere Einbindung elektronischer Zugänge zur Chemieinformation im Rahmen der Chemieausbildung an den Hochschulen. Dieser Aufgabe widmen sich gerade die Fachgruppe Chemie – Information – Computer der GDCh (die CIC) zusammen mit der amerikanischen Schwesterorganisation CINF der ACS, indem sie beispielsweise zurzeit gemeinsam ein Repositorium für Chemieinformation erarbeiten und zukünftig gemeinsame Symposien zu Entwicklungen der Chemieinformation abhalten, von denen das erste im Rahmen der 232. ACS Tagung im September 2006 in San Francisco stattfand und den Titel „Cyberinfrastructure in Chemistry, Information and Education: New Emerging Technologies“ trug. Danksagung Für die Unterstützung bei meiner Recherche für dieses Manuskript danke ich ganz besonders Frau Dr. Irina Sens und Herrn Dr. Oliver Koepler von der Technischen Informationsbibliothek Hannover, Frau Dr. Ulrike Hesse von der Bibliothek der Universität Paderborn und Herrn Dr. Axel Schunk von der GDCh. Chemie, Informationsdienst, Veröffentlichungswesen, Volltext, Geschichte, Entwicklungstendenz, Rechnerunterstütztes Lernen D e r A u to r Prof. Dr. Gregor Fels Schlussbetrachtung Wenn nun mit dem neuen Chemie-Portal „chem.de“1 ein weiteres elektronisches Medium der Chemieinformation zur Verfügung steht, wird uns das noch mehr an den Bildschirm fesseln. Es bleibt aber zu hoffen, dass wir damit nicht zum Aussterben des Buches beitragen. Auch wenn wirklich einmal alle (sinnvollen) Bücher elektronisch verfügbar sein würden, sollten immer noch ein paar Belegexemplare in realen Bibliotheken vorhanden sein. Aber soweit wird es sicher gar nicht erst kommen, allein schon aus kommerzieller Erwägung. Es müssten gigantische Datenbestände in einer unüberschaubaren Kontinuität gepflegt werden, was technisch und organisatorisch schwierig ist Professor für Organische Chemie an der Universität Paderborn. Einer der Schwerpunkte seiner Tätigkeit ist der Einsatz neuer Medien in der Lehre. Dafür erstellt seine Arbeitsgruppe Web-basierte Lehr- und Lerninhalte, in denen die Organische Chemie multimedial und interaktiv aufbereitet wird. Universität Paderborn Fakultät für Naturwissenschaften Department Chemie Warburger Str. 100, 33098 Paderborn Telefon: (0 52 51) 602181 Telefax: (0 52 51) 603245 [email protected] http://chemie.upb.de/fels 58(2007)1, 51-56 Ta h u n g s b e r i c h t Workshop „Semantische Lösungen für die Informationsintegration und Informationssuche – Praxisbeispiele aus Industrie und Hochschule“ Caroline Pförtner, Darmstadt Am 27.Oktober 2006 lud das Fraunhofer Institut für Integrierte Publikationsund Informationssysteme (IPSI) zusammen mit dem Fachbereich Informations- und Wissensmanagement (IuW) der Hochschule Darmstadt zu einem Tages-Workshop über „Semantische Lösungen für die Informationsintegration und Informationssuche“ ein. Der Einladung folgten mehr als 30 Unternehmensvertreter, Absolventen sowie einige Studenten des Fachbereiches. Dr. Thomas Kamps, Bereichsleiter des IPSI, und Prof. Dr. Martin Michelson, Dekan des Fachbereiches IuW eröffneten den Workshop. Nach der Begrüßung begann Dr. Kamps mit dem Thema „Semantische Techno- logien für die Informationsintegration und Informationssuche in Unternehmen“ als Einführung in diese umfangreiche Thematik. Dr. Kamps stellte die Nachteile der gegenwärtigen Suchmöglichkeiten den Vorteilen der semantischen Suche gegenüber. Momentan erfolgt in vielen Fällen eine Recherche über eine isolierte Abfrage in einzelnen Datenbanken, die oft keine zufrieden stellenden Ergebnisse liefern. Der Grund: Suchende müssen sowohl über den Aufbau und die speziellen Suchmöglichkeiten jeder Datenbank Bescheid wissen als auch – ohne Systemunterstützung – die isoliert gewonnenen Ergebnisse miteinander in Beziehung setzen. Eine Suche, die die Datenbanken semantisch verknüpft, bietet dagegen eine Effizienzsteigerung beim Wissensaustausch durch zügiger gefundene relevante Treffer. Voraussetzung für die semantische Integration ist eine automatische Erstellung von Begriffsnetzen aus vorhandenen Unternehmensinhalten, denn die manuelle Erstellung von Begriffsnetzen zum Zwecke der Datenintegration und Suche hat sich in der Praxis als zu kostspielig erwiesen. Zum Abschluss seines Vortrages erläuterte Dr. Kamps anhand eines Beispiels, wie schrittweise ein Wissensnetz aufgebaut wird. Dabei erklärte er wichtige Fachbegriffe, wie z.B. Topikalität, als Vergleich eines Textkorpus mit der Gesamtsprache. Abbildung 1: Prof. Dr. Michelson (rechts) und Dr. Kamps bei der Eröffnung des Workshops. 58(2007)1, 57-58 57 Wo r ks h o p Als nächster Referent stellte Prof. Dr. Gerhard Knorz, Vizepräsident der Hochschule Darmstadt, das Thema „Die Hochschulwelt als Ontologie – Prototyp eines ontologiebasierten Hochschulportals“ vor. Prof. Knorz erläuterte den Begriff Ontologie als eine formale, explizite Spezifikation einer gemeinsamen Begrifflichkeit. Von der Ontologie grenzte er die Klassifikationssysteme und Thesauri ab. Danach zeigte er anhand eines Beispiels in K-Infinity, einer Knowledge-Management-Software, wie die Ontologie seine Arbeit in der Hochschulleitung unterstützt. Nach dem Vortrag konnten die Teilnehmer mit Unterstützung von Mitarbeitern des Fachbereiches das Gehörte ausprobieren und Aufgaben bearbeiten. Dazu hatten die Mitarbeiter Computer mit der K-Infinity-Software vorbereitet. In der Mittagspause stärkten sich die Teilnehmer am reichhaltigen Buffet. Diese Zeit wurde auch für den Austausch mit anderen Teilnehmern und für das Knüpfen von Kontakten genutzt. steller intelligent-views sehr kooperativ und engagiert arbeitet und die Software sehr stabil und leistungsstark ist – abgeschlossen. EADS sieht aber auch, dass semantische Netze über ein großes Potential verfügen, das noch nicht umfassend genutzt wird. Der folgende Referent Richard Stenzel, wissenschaftlicher Mitarbeiter am IPSI, stellte die Lösung „ConWeaver“: semantische Informationsintegration und Suche – automatisch, individuell, multilingual“ vor. Die im Titel genannten Attribute charakterisieren für Herrn Stenzel die Herausforderungen bei der Integration von Unternehmensdaten und semantischer Suche. Dabei griff Herr Stenzel, wie auch schon Dr. Kamps, in seinem Vortrag noch einmal die Notwendigkeit des automatischen Aufbaus von Wissensnetzen als Voraussetzung für semantische Datenintegration und Suche auf. Mit Hilfe der „ConWeaverTechnologie illustrierte er den automatischen Aufbauprozess beispielhaft und zeigte insbesondere wie aus mulilingualen Textquellen automatisch Fachterminologie extrahiert, übersetzt und diger gefunden werden. Der Pflegeaufwand sollte so gering wie möglich gehalten werden. Zur Ausgangssituation: Die Dokumente lagen auf unterschiedlichen Fileservern; es gab Dokumente in Internetarchiven und weiteren Ablagen, die weder indexiert noch verschlagwortet waren. Eine Suche war nur möglich, wenn der Nutzer über Kenntnisse der Ordnerstruktur auf den Fileservern verfügte und die Dateinamen treffend benannt waren. Um das genannte Informationsportal aufzubauen, führte die VAG-Armaturen GmbH ein Projekt mit dem IPSI und der intelligent views GmbH durch. Das Ergebnis des Projektes ist eine webbasierte semantische Suchoberfläche für Unternehmensdaten der VAG-Armaturen GmbH, die von Herrn Dr. Kamps erläutert wurde. in das Wissensnetz eingespeist werden kann. Herr Stenzel präsentierte zudem wie die „ConWeaver-Technologie“ die auch Automatisierung des Wissensaufbaus mit der individuellen Analyse kundenspezifischer Daten kombinieren kann Im Ergebnis erhalten Kunden – im Gegensatz zu handelsüblichen Suchmaschinen – auf ihre Daten optimierte semantische Suchlösungen. Schließlich stellte José Manuel Ibañez von der VAG-Armaturen GmbH zusammen mit Dr. Kamps das gemeinsame Projekt „Informationsintegration mit einem Wissensnetz bei der VAG-Armaturen GmbH“ vor. Mit dem Einsatz von „ConWeaver“ sollte ein Informationsportal geschaffen werden, das eine zentrale Ablage für alle Informationen und Dokumente darstellt. Die Dokumente sollen so einfacher und vollstän- Der Workshop endete mit dem Dank von Dr. Kamps an die Teilnehmer und Referenten für Ihr Interesse und Engagement. Zum Abschluss fassten die Referenten ihre Eindrücke zum momentanen Stand der „Semantischen Lösungen“ zusammen und beantworteten im Rahmen einer lebhaften Podiumsdiskussion Fragen der Teilnehmer. Die Referenten José Manuel Ibañez, Klaus Reichenberger, Prof. Dr. Knorz und Richard Stenzel (v. l.) bei der Podiumsund Fragerunde. Nach der Mittagspause stellte Ravi Nirankari von dem Unternehmen EADS N.V. Military Air Systems (MAS) zusammen mit Klaus Reichenberger von der intelligent views GmbH ein fiktives EADS-Projekt zum Aufbau eines semantischen Netzes vor. EADS Military Air Systems verwendet semantische Netze zur Unterstützung der Arbeit in den virtuellen Teams, so dass sich die Suche nach Informationen und Dokumenten zielgerichteter und erfolgreicher durchführen lässt. Eine weitere Möglichkeit sieht EADS darin, Wissen innerhalb des Unternehmens effizienter und transparenter mit semantischen Netzen auszutauschen. Herr Reichenberger stellte die Projektarbeit bei EADS MAS vor. Das Referat wurde mit einer Zusammenfassung der bisherigen Erfahrungen – wie z.B., dass der Her- 58 D i e A u to r i n Caroline Pförtner Dipl.-Kauffrau (FH) Aufbaustudium Informations- und Wissensmanagement seit dem Sommersemester 2005 an der Hochschule Darmstadt [email protected] 58(2007)1, 57-58 3. Auflage – Alice Redmond-Neal und Marjorie M. K. Hlava (Hrsg.), Medford, New Jersey: Information Today, 2005. XIII, 255 Seiten. Regulärer Preis: $ 49,95 (ASIS&T-Mitglieder: $ 39,95), mit CDROM: $ 79,95 (ASIS&T-Mitglieder: $ 63,95). ISBN 1-57387-243-1 und ISBN 1-57387-244-X. Der Thesaurus-Hauptteil ist alphabetisch angeordnet. Mit 139 Seiten umfasst er etwas mehr als die Hälfte des Gesamtwerkes. Das zweispaltige Layout ist sehr übersichtlich. Jeder Eintrag wird mit seinen Relationen und ggf. vorhandener Scope Note aufgeführt, jeweils getrennt durch eine Leerzeile zum nächsten Eintrag. Einträge mit Spaltenumbruch werden in der nächsten Spalte wiederholt und mit „(cont.)“ gekennzeichnet. Deskriptoren sind fett ausgezeichnet, Nicht-Deskriptoren in Normalschrift. Die Relationen werden mit den international üblichen Abkürzungen dargestellt. Beispiele für typische Einträge: Google USE search engines Der von der American Society for Information Science & Technology (ASIS&T) in der dritten Auflage herausgebrachte Thesaurus umfasst die Bereiche Informationswissenschaft, Informationstechnologie und Bibliothekswesen. Die Herausgeberinnen haben die ersten beiden, 1994 und 1996 von Jessica Milstead erarbeiteten Auflagen des Thesaurus erheblich erweitert (die Gesamtzahl aller Terme liegt nun bei 1970) und dabei auch die Publikationen der ASIS&T Digital Library berücksichtigt (die diesen Thesaurus fortan für die Indexierung benutzt). Es wurde sich hauptsächlich an der Norm ANSI/NISO Z39.19 orientiert. Die von Milstead eingebaute facettierte Konstruktion des Thesaurus blieb erhalten. 18 Top-Terme, die als FacettenIndikatoren dienen, bilden das Grundgerüst des ASIS&T-Thesaurus. Dabei sind solch allgemeine Aspekte wie Organisationen, Ereignisse, theoretische Konzepte, Forschungsmethoden, Kommunikationsmedien etc. berücksichtigt. Die Top-Terme selbst stehen nicht als Deskriptor zur Verfügung. Nur eine geringere Zahl von Deskriptoren ist präkoordiniert, insbesondere Terme, die in der Fachliteratur üblich sind. Für komplexere Sachverhalte müssen ggf. mehrere Deskriptoren benutzt werden, wie anhand von Beispielen in den Benutzungshinweisen ausgeführt. Erfreulich ist, dass offensichtlich durch die Auswertung der ASIS&T Digital Library auch relativ neue Terme als De- 58(2007)1, 59-60 search engines SN Software which performs searches of queries submitted to it; it may analyze the query and/or rank the results. UF Google BT information retrieval software NT Internet search systems hybrid search engines meta search engines RT full text searching Alle Top-Terme und nicht für die Indexierung zugelassene und in Klammern eingeschlossene Terme sind an den Anfang sortiert. Dies ist etwas irritierend, wenn man an einer bestimmten alphabetischen Stelle den jeweiligen Eintrag nicht vorfindet. So gibt es z. B. mehrere Deskriptoren, die mit „research“ beginnen; vergeblich findet man dort aber den Top-Term „(research and analytic methods)“. Dass diese Sortierung ein offensichtlicher Fehler ist, wird durch eine Bemerkung in den Benutzungshinweisen deutlich, wonach der alphabetische Hauptteil die Klammern eigentlich ignorieren sollte. Laut Benutzungshinweisen sollte es auch eine hierarchische Relation TT (Top Term) geben, die aber im Thesaurus selbst nicht vorkommt. Außerdem war vorgesehen, Nicht-Deskriptoren kursiv auszuzeichnen, was im Hauptteil jedoch nicht geschehen ist. Für die Benutzungsfreundlichkeit sind dies aber keine gravierenden Fehler. Den Thesaurus-Hauptteil ergänzen zwei Teile. Zum einen gibt es einen hierarchischen Index der Deskriptoren (Hierarchical Index of Preferred Terms) mit 19 Seiten Umfang. Die 18 oben erwähnten Top-Terme bilden die Ausgangspunkte der Haupthierarchien, die sich zum Teil über mehrere Seiten erstrecken. Die Orientierung wird dabei durch die fett gesetzten Top-Terme gewahrt, die am Anfang jeder neuen Spalte wiederholt werden – auch hier mit „(cont.)“ ergänzt. Die eigentlichen hierarchischen Ebenen werden mittels Einrückungen dargestellt – hervorgehoben durch Punkte. Beispiel: (activities and operations) . information operations . . information attribution . . information discovery . . . information retrieval Einzelne Hierarchien reichen bis zu neun Ebenen tief und werden ggf. polyhierarchisch unter all ihren Oberbegriffen aufgeführt. Auch werden Oberbegriffe – zusätzlich zum Top-Term – in einer neuen Spalte mit „(cont.)“ wiederholt, so dass das Auge sofort den hierarchischen Zusammenhang erkennt. Eine Verbesserungsmöglichkeit im hierarchischen Index könnte eventuell eine thematisch zusammengehörige Anordnung der Top-Terme sein, die statt dessen alphabetisch sortiert sind. Bei insgesamt 18 Top-Termen ist das aber kein besonderer Nachteil. Der zweite Ergänzungsteil ist eine KWIC-Anordnung (Permuted Display of Terms) mit 95 Seiten. Dieser beinhaltet Top-Terme, Deskriptoren und Nicht-Deskriptoren, wobei letztere kursiv gesetzt und jeweils durch den Zusatz (Nonpreferred) gekennzeichnet sind. Der einspaltige Satz mit viel „white space“ ermöglicht eine schnelle Suche auch beliebiger Bestandteile von Komposita. Ein klar gekennzeichneter Seitenkopf im gesamten Werk ermöglicht das sofortige Erkennen, in welchem der drei Teile des Thesaurus man sich befindet. Neben dem Hauptzweck des ASIS&TThesaurus, dem Indexieren mittels Vokabularkontrolle, eignet er sich auch recht gut, um einen Überblick über die Disziplin zu bekommen. Abgesehen von der nicht-kursiven Darstellung von Nicht-Deskriptoren im Hauptteil sowie dem dortigen Lapsus der falschen Sortierung von Top-Termen sind Aufbau und Präsentation des Thesaurus gut gelungen und oft auch selbsterklärend. Dies mag auch der Grund für die nur wenige Seiten umfassenden Benutzungshinweise sein, die dennoch auch 59 Buchbesprechungen ASIS&T Thesaurus of Information Science, Technology, and Librarianship skriptor aufgenommen wurden (z. B. information architecture oder webliographies), andererseits scheinen aber auch noch manche Terme zu fehlen (z. B. accessibility). Redmond-Neal und Hlava betonen jedoch, dass sich auch dieser Thesaurus in ständiger Entwicklung befindet; Benutzer sind eingeladen, Verbesserungsvorschläge einzureichen. Buchbesprechungen kannt; so konnte z. B. ein Term, der bereits als RT angelegt war, auch als NT eingefügt werden (umgekehrt aber nicht, daher handelt es sich wahrscheinlich um einen Bug). Etwas enttäuschend für ein Java-basiertes Programm ist die nicht vorhandene Möglichkeit, mit Drag & Drop zu arbeiten. Leider ist auch keine Navigation in den verschiedenen ThesaurusAnsichten mit den Pfeil-Tasten möglich, und Rechts-Klick-Optionen gibt es auch keine. Eine Navigation in den Termen ist daher entweder nur mit der Maus bzw. über das Edit-Menü per Suche oder durch Auswahl eines anderen Terms aus den vorhandenen Relationen im rechten Bereich möglich. Oberfläche von Thesaurus Master mit hierarchischer Ansicht und ausgewähltem Deskriptor „search engines“ (links) und dessen Details (rechts) für den Thesaurus-Einsteiger verständlich sind. Bei der Buchausgabe mit CD findet sich auf dieser eine elektronische Version des ASIS&T-Thesaurus, zusammen mit der Software Thesaurus Master der Firma Data Harmony. Mit dieser unter Windows laufenden Software wurde der Thesaurus für die dritte Auflage erstellt. Thesaurus Master lässt sich jedoch nur installieren, wenn sich Java Runtime Environment (JRE) auf dem Computer befindet; diese Software befindet sich auch auf der CD und muss, wenn noch nicht auf dem Rechner vorhanden, vor Thesaurus Master installiert werden. Die Installation unter Windows XP verlief reibungslos. Die Oberfläche von Thesaurus Master ist mit nur vier Menü-Punkten (File, Edit, View, Help) recht einfach gehalten und in zwei in der Breite veränderbare Bereiche unterteilt. Auf der linken Seite 60 befinden sich alle Terme, die in verschiedenen Ansichten dargestellt werden können, wie z. B. alphabetisch (mit allen Relationen zu einem Term), hierarchisch (mit aufklappbaren Unterbegriffsebenen) oder permutiert. Diese drei Ansichten entsprechen auch den drei Teilen im Buch, wobei in der elektronischen Version Nicht-Deskriptoren stets kursiv ausgezeichnet sind, die nicht vorgesehene Sortierung der in Klammern eingeschlossenen Top-Terme aber auch hier gegeben ist. Im rechten Bereich sind die Details des im linken Bereich ausgewählten Terms zu sehen: Relationen, Term-Status, Scope Note, History, etc. Hier lassen sich auch Relationen hinzufügen und löschen und die anderen Term-Angaben editieren. Eine neu angelegte Relation wird automatisch um ihre entsprechende Gegenrichtung ergänzt. Unlogische Relationen werden vom System weitgehend, aber nicht vollständig, er- Unter den Output-Optionen befinden sich sowohl verschiedene ThesaurusAnsichten (alphabetisch, hierarchisch, permutiert) als auch verschiedene Datei-Formate (einfacher Text, HTML, XML). Leider lassen sich diese nicht beliebig kombinieren. So erfolgt ein HTML-Output stets in hierarchischer Ansicht. Das Help-Menü zeigt lediglich eine nicht so übersichtliche Hilfe-Datei an. Ausführlicher ist dagegen ein User Guide als PDF-Datei. Ein unverzeihlicher Fehler dabei ist allerdings der nicht vorhandene Index. Das Programm bietet noch einige weitere Feinheiten (z. B. Import-Möglichkeiten), auf die im Rahmen dieser Rezension nicht eingegangen werden kann. Insgesamt gesehen ist Thesaurus Master relativ einfach, aber übersichtlich gehalten. Manche Features (Navigation, Output) könnten sicherlich etwas großzügiger sein. Für die Darstellung und Benutzung des ASIS&TThesaurus ist das Programm aber vollkommen ausreichend. Jochen Fassbender, Bremen 58(2007)1, 59-60 Monographien-Zugänge der Monate Juli bis November 2006, zusammengestellt von Annette Bassenge vom Informationszentrum für Informationswissenschaft und -praxis. Die Bücher können unter Angabe der Signatur ausgeliehen werden, sofern es sich nicht um Präsenzbestände handelt. Die Monografien sind gemäß der Kategorien in Infodata angeordnet und innerhalb der Kategorien alphabetisch sortiert. Fachhochschule Potsdam Informationszentrum für Informationswissenschaft und -praxis, Friedrich-Ebert-Str. 4, 14406 Potsdam, Tel. (03 31) 580 22 30, Fax (03 31) 580 22 29, [email protected] 1. Allgemeines Neubau von Behördenbibliotheken : Beiträge zum 94. Deutschen Bibliothekartag Düsseldorf 2005 Wiesbaden, DE, 2005. - VI,38 S. (Arbeitsgemeinschaft der Parlaments- und Behördenbibliotheken: Arbeitshefte. 56) ISBN 3-925779-16-7 / ISSN 0518-2220 Öffentliche Verwaltung / Bibliothek / Gebäude / Ausstattung / Architektur Sign.: 11 UJ1 139 Parlaments- und Behördenbibliotheken international : Der Weltkongress Bibliothek und Information in Berlin 2003. Beiträge aus den IFLA-Sektionen „Bibliotheken und wissenschaftliche Fachdienste von Parlamenten" und „Behördenbibliotheken" Wiesbaden, DE, 2004. - XII, 76 S. (Arbeitsgemeinschaft der Parlaments- und Behördenbibliotheken: Arbeitshefte. 55) ISBN 3-925779-17-5 / ISSN 0518-2220 Öffentliche Verwaltung / Regierungsstelle / Bibliothek / Bibliotheksorganisation / Bibliotheksdienst Sign.: 11 UC1 178 Dewe, M. Planning public library buildings : Concepts and issues for the librarian Aldershot, GB: Ashgate, 2006. - XII, 354 S. ISBN 0-7546-3388-8 Öffentliche Bibliothek / Gebäude / Ausstattung / Architektur / Bauwesen / Planung Sign.: 11 UJ1 141 Eichhorn, M. Konflikt- und Gefahrensituationen in Bibliotheken : Ein Leitfaden für die Praxis Bad Honnef, DE: Bock u. Herchen, 2006. - 127 S. ISBN 3-88347-246-8 Bibliothek / Arbeitsablauf / Personal / Sicherheitsfragen / Benutzer / Kontrolle Sign.: 11 UN8 172 Orey, M. (Hrsg.); Fitzgerald, M. A. (Hrsg.); Branch, R. M. (Hrsg.) Educational media and technology yearbook : Volume 29, Westport, CT, US: Libraries unlimited, 2004. - XI, 424 S., ISBN 1-59158-068-4 Rechnerunterstütztes Lernen / Ausbildungsmethode / Fernstudium / Schule / Zusammenarbeit / Bibliotheksautomation / Informationstechnologie Sign.: 11 UT4 196-04 Orey, M. (Hrsg.); MacClendon, J. (Hrsg.); Branch, R. M. (Hrsg.) Educational media and technology yearbook : Volume 30 Westport, CT, US: Libraries unlimited, 2005. - XI, 452 S., ISBN 1-59158-207-5 Ausbildungsmethode / Rechnerunterstütztes Lernen / Informationstechnologie / Schule / Lehrplan / Bibliotheksautomation/ e-learning / Informationskompetenz Sign.: 11 UT4 196-05 Plassmann, E.; Rösch, H.; Seefeldt, J.; Umlauf, K. Bibliotheken und Informationsgesellschaft in Deutschland : Eine Einführung Wiesbaden, DE: Harrassowitz, 2006. - 333 S. ISBN 3-447-05230-9 Bibliothek / Information / Informationsgesellschaft / Infrastruktur / Bibliotheksnetz / Bibliotheksdienst / Informationsdienst / Bibliotheksorganisation / Marketing / Ausbildung Sign.: 11 UB1 155 58(2007)1, 61-62 Rosa, C. de (Mitarb.); Cantrell, J. (Mitarb.); Cellentani, D. (Mitarb.); Hawk, J. (Mitarb.); Jenkins, L. (Mitarb.); Wilson, A. (Mitarb.) Perceptions of libraries and information resources : A report to the OCLC membership Dublin, OH, US: OCLC Online Computer Library Center, 2005. - 286 S., ISBN 1-55653-364-0 Bibliotheksstatistik / Bibliotheksdienst / Informationsdienst / Elektronischer Dienst / International Sign.: 10 HA1 105 [Nicht ausleihbar] Wilson, A. (Hrsg.); Rosa, C. de (Mitarb.); Dempsey, L. (Mitarb.) Pattern recognition : The 2003 OCLC environmental scan. A report to the OCLC membership Dublin, OH, US: OCLC Online Computer Library Center, 2004. - X, 150 S., ISBN 1-55653-351-9 Bibliotheksorganisation / Bibliotheksautomation / Bibliotheksdienst / Elektronischer Dienst / Netzarchitektur / Zugriff / Maschinelle Katalogisierung Sign.: 11 UF1a 121 2. Formale Erfassung und inhaltliche Erschließung Chan, L. M.; Mitchell, J. S. Dewey Dezimalklassifikation : Theorie und Praxis. Lehrbuch zur DDC 22 München, DE: Saur, 2006. - 262 S., ISBN 3-598-11748-5 Klassifikationssystem / Universalklassifikation / DK / Benutzung / Buchaufstellung / Entwicklungstendenz Sign.: 11 UN3b 115 Neitmann, K. (Hrsg.) Aus der brandenburgischen Archivalienkunde : Festschrift zum 50jährigen Jubiläum des Brandenburgischen Landeshauptarchivs Berlin, DE: Berliner Wissenschafts-Verl., 2003. - 499 S., (Veröffentlichungen des Brandenburgischen Landeshauptarchivs. 40), ISBN 3-8305-0161-7 Archiv / Schriftgut / Öffentliche Verwaltung / Landeskunde / Archivgut / Landkarte / Bestand / Konservierung / Archivierung / Inhaltliche Erschließung Sign.: 11 UA1c 118 3. Informationsvermittlung Battelle, J. Die Suche : Geschäftsleben und Kultur im Banne von Google und Co Kulmbach, DE: Börsenmedien, 2006. - 360 S. ISBN 3-938350-11-3 Information / Information Retrieval / Rechnernetz / Informationsverhalten / Recherche / Recherchestrategie / Suchmaschine; Sign.: 11 UN7a 148 Berkman, R. The skeptical business searcher : The information advisor’s guide to evaluating Web data, sites, and sources Medford, NJ, US: Information Today, 2004. - XXIII, 281 S., ISBN 0-910965-66-8 Informationsbedarf / Informationsvermittlung / Elektronisches Dokument / Rechnernetz / Recherche / Recherchestrategie / Suchmaschine / Informationswert / Rechercheergebnis / Qualität / Precision; Sign.: 11 UN7a 147 Enser, P. (Hrsg.); Kompatsiaris, Y. (Hrsg.); O’Connor, N. E. (Hrsg.); Smeaton, A. F. (Hrsg.); Smeulders, A. W. M. (Hrsg.) Image and video retrieval : Proceedings, Berlin, DE: Springer, 2004. - XVII, 679 S. (Lecture notes in computer science. 3115), ISBN 3-540-22539-0/ISSN 0302-9743 Bildverarbeitung / Bilddatenbank / Videoband / Indexierungsverfahren / Information Retrieval / Recherchestrategie; Sign.: 11 ZI3 337-04 Morville, P. Ambient findability Sebastopol, CA, US: O'Reilly, 2005. - XIV,188 S. ISBN 0-596-00765-5 Elektronischer Dienst / Elektronisches Dokument / Informationsflut / Information Retrieval / Recherchestrategie / Effektivität / Informationskompetenz Sign.: 11 UN7a 146 Stuckenschmidt, H.; van Harmelen, F. Information sharing on the semantic Web Berlin, DE: Springer, 2005. - XIX, 276 S. (Advanced information and knowledge processing) ISBN 3-540-20594-2 Informationswissenschaft / Informationstheorie / Informationsquelle / Elektronischer Dienst / Metadaten / Semantisches Netz / Information Retrieval / Ontologie; Sign.: 11 UN3a 136 Vise, D. A.; Malseed, M. Die Google-Story Hamburg, DE: Murmann, 2006. - 300 S. ISBN 3-938017-56-2 Information Retrieval / Rechnernetz / Suchmaschine / Informationswirtschaft / Geschichte / Entwicklungstendenz; Sign.: 11 ZK1 265 4. Informationsmanagement Neues für Bibliotheken, Neues in Bibliotheken Enth.: Blanck, S.: Wert- und Wirkungsmessung in Bibliotheken; Klingenberg, A.: Unterrichtsmodell zur Entwicklung von Informationskompetenz bei Schülern der gymnasialen Oberstufe Wiesbaden, DE: Dinges + Frick, 2006. - 178 S. (B.I.T. online-innovativ. 12) ISBN 3-934997-14-7 / ISSN 1615-1577 Bibliothek / Bibliotheksorganisation / Bewertung / Effektivität / Benutzung / Benutzerausbildung Sign.: 11 UG1 302 Finger, H. Arbeitsabläufe in One-Person Libraries : Besonderheiten, Probleme, Möglichkeiten Halle, DE: Universitäts- u. Landesbibliothek SachsenAnhalt, 2002. - 64 S. (Schriften zum Bibliotheks- und Büchereiwesen in Sachsen-Anhalt. 83), ISBN 3-86010-644-9 Bibliothek / Bibliotheksorganisation / Arbeitsablauf / Bestandsaufbau / Katalogisierung / Inhaltliche Erschließung / Benutzung / Benutzerausbildung Sign.: 11 UG1 300 Hauke, P. (Hrsg.); Busch, R. (Hrsg.) „With a little help from my friends" : Freundeskreis und Fördervereine für Bibliotheken. Ein Handbuch Bad Honnef, DE: Bock u. Herchen, 2005. - 336 S. (Bibliothek und Gesellschaft), ISBN 3-88347-244-1 Bibliothek / Marketing / Öffentlichkeitsarbeit / Förderung / Finanzierung / Fundraising; Sponsoring Sign.: 11 UG2 148 Mühlenkamp, H.; Simonji, M. (Mitarb.) Zur Ermittlung der Qualität von Bibliotheksdienstleistungen : Konzept und Ergebnisse einer 2003 durchgeführten Benutzerumfrage Wiesbaden, DE: Dinges + Frick, 2004. - 111 S. (B.I.T. online – innovativ. 8) ISBN 3-934997-09-0 / ISSN 1615-1577 Bibliothek / Bibliotheksdienst / Bibliotheksorganisation / Dienstleistung / Bewertung / Kostenbewertung / Benutzung / Befragung / Datenanalyse / Qualität / Management; Sign.: 11 UG1 301 Schmitz-Justen, F. J. Knowledge factors : How to animate members of online communications to create knowledge-relevant content Frankfurt am Main, DE: Lang, 2006. - 231 S. ISBN 3-631-55466-4 Wissen / Management / Informationsprozess / Informationswert / Qualität / Rechnerunterstütztes Lernen / Mensch-Maschine-Kommunikation / Empirische Untersuchung; Sign.: 11 UN3a 138 Shepherd, E.; Yeo, G. Managing records : A handbook of principles and practice London, GB: Facet Publ., 2003. - XIV, 318 S. ISBN 1-85604-370-3 Schriftgutverwaltung / Management / Informationssystem / Normung / Norm Sign.: 11 US2 482 5. Informationssysteme und Anwendungen Dokumenten-Management : Vom Archiv zum Enterprise-Content-Management Bonn, DE: VOI, 2005. - XIV, 642 S. (Schriftenreihe des VOI) ISBN 3-932898-11-7 Dokumentenmanagement / Geschäftsprozess / Arbeitsablauf / Textverarbeitung / Datenübertragung / Rechnernetz / Electronic mail / Rechtsfragen / Sicherheitsfragen; Sign.: 11 US5 250 Bussler, C. (Hrsg.); Fensel, D. (Hrsg.); Orlowska, M. E. Hrsg.); Yang, J. (Hrsg.) Web services, e-business, and the semantic Web : Revised selected papers Berlin, DE: Springer, 2004. - X, 145 S. (Lecture notes in computer science. 3095) ISBN 3-540-22396-7 / ISSN 0302-9743 Elektronischer Dienst / Electronic Commerce / Informationssystem / Semantisches Netz / Marktforschung; Sign.: 11 ZC7 206-03 61 L i t e r at u r au s l e s e Literaturauslese L i t e r at u r au s l e s e Katsikas, S. (Hrsg.); Lopez, J. (Hrsg.); Pernul, G. (Hrsg.) Trust and privacy in digital business : Proceedings Berlin, DE: Springer, 2004. - XI, 298 S. (Lecture notes in computer science. 3184) ISBN 3-540-22919-1 / ISSN 0302-9743 Öffentliche Verwaltung / Elektronischer Dienst / Mehrwertdienst / Ethik / Electronic Commerce / Management / Verteiltes System / Rechtsfragen / Urheberrecht / Vertrauen / e-business Sign.: 11 ZC7 207-04 Kling, R.; Rosenbaum, H.; Sawyer, S. Understanding and communicating social informatics : A framework for studying and teaching the human contexts of information and communication technologies Medford, NJ, US: Information Today, 2005. - XX, 216 S. ISBN 1-57387-228-8 Informationstechnologie / Telekommunikation / Informatik / Humanfaktor / Sozialwesen Sign.: 11 UT1 178 6. Digitale Bibliothek Ball , R. (Hrsg.); Röpke , C. (Hrsg.); Vanderpijpen , W. (Hrsg.) Virus: sicher im Netz? : 2. Internationale Konferenz zur Virtuellen Bibliothek des Goethe-Instituts Brüssel, Jülich, DE, 2005. - 137 S. (Schriften des Forschungszentrums Jülich : Reihe Bibliothek. 13), ISBN 3-89336-377-7 / ISSN 1433-5557 Bibliothek / Rechnernetz / Elektronisches Publizieren / Entwicklungstendenz / Sicherheitsfragen / Speicherung / Elektronisches Dokument / Informationstechnologie / Rechtsfragen Sign.: 11 UI1 175 Heery, R. (Hrsg.); Lyon, L. (Hrsg.) Research and advanced technology for digital libraries : Proceedings Berlin, DE: Springer, 2004. - XV, 528 S. (Lecture notes in computer science. 3232) ISBN 3-540-23013-0 / ISSN 0302-9743 Bibliotheksautomation / Bibliotheksdienst / Elektronischer Dienst / Benutzerschnittstelle / Indexierungsverfahren / Information Retrieval Sign.: 11 UC1 176-04 Weßling, U. Das digitale Dienstleistungsangebot der Spezialbibliothek und Dokumentation des Bundesamtes für Naturschutz : Mit besonderer Beachtung des Arbeitsbereiches „Aufbau, Pflege und Bereitstellung eines elektronischen Bestandes“ Diplomarbeit an der Fachhochschule Köln, Studiengang Bibliothekswesen, 2005 Wiesbaden, DE, 2006. - VI, 97 S. (Arbeitsgemeinschaft der Parlaments- und Behördenbibliotheken: Arbeitshefte. #57) ISBN 3-925779-20-5 / ISSN 0518-2220 Fachinformation / Naturwissenschaften / Umwelt / Bibliothek / Bibliotheksdienst / Informationsdienst / Bestand / Dokumentation / Referenzdatenbank / Elektronischer Dienst / Elektronische Dokumentlieferung / Elektronisches Dokument / Zugriff / Rechnernetz / Speicherung / Digital Sign.: 11 UT2 135 7. Datenkommunikation / Netze / Dienste Bruns, A. (Hrsg.); Jacobs, J. (Hrsg.) Uses of blogs New York, NY, US: Lang, 2006. - 267 S. (Digital formations. 38) ISBN 0-8204-8124-6 / ISSN 1526-3169 Elektronische Medien / Elektronisches Publizieren / Elektronisches Dokument / Netzarchitektur / Humanfaktor / Industrie / Gesellschaft Sign.: 11 ZI4 162 Flaig, G.; Hoffmann, M.; Langauf, S. Internet-Telefonie : VoIP mit Asterisk und SER München, DE: Open Source Press, 2006. - 400 S. ISBN 3-937514-16-3 Telekommunikation / Fernsprechen / Informationstechnologie / Software / Datenübertragung / Rechnernetz Sign.: 11 ZK3g 193 Gallegos, F.; Senft, S.; Manson, D. P.; Gonzales, C. Information technology control and audit Boca Raton, FL, US: Auerbach Publ., 2004. - XXXV, 849 S., ISBN 0-8493-2032-1 Informationstechnologie / Kontrolle / Sicherheitsfragen / Management / Client-Server-Architektur / Elektronischer Dienst / Electronic Commerce Sign.: 11 ZK6 248(2) Ohlbach, H. J. (Hrsg.); Schaffert, S. (Hrsg.) Principles and practice of semantic Web reasoning : Proceedings Berlin, DE: Springer, 2004. - VI, 163 S. (Lecture notes in computer science. 3208) ISBN 3-540-22961-2 / ISSN 0302-9743 Elektronischer Dienst / Datenstruktur / Information Retrieval / Semantisches Netz / Reasoning / Fuzzy / Logik / Ontologie Sign.: 11 UN3a 137-04 Nirenburg, S. (Hrsg.); Somers, H. (Hrsg.); Wilks, Y. (Hrsg.) Readings in machine translation Cambridge, MA, US: MIT Press, 2003. - XV,413 S. ISBN 0-262-14074-8 Computerlinguistik / Maschinelle Übersetzung / Mehrsprachig Sign.: 11 ZB2 194 Rasmussen, C. E. (Hrsg.); Bülthoff, H. H. (Hrsg.); Giese, M. A. (Hrsg.); Schölkopf, B. (Hrsg.) Pattern recognition : 26th DAGM symposium, Tübingen, Germany, August 30-September 1, 2004. Proceedings Berlin, DE: Springer, 2004. - XVIII,581 S. (Lecture notes in computer science. 3175) ISBN 3-540-22945-0 / ISSN 0302-9743 Künstliche Intelligenz / Mustererkennung / Bildverarbeitung Sign.: 11 ZB1 600-04 9. Rechtsfragen Kiel, D. Urheberrechtsschutz im Zeitalter der Digitalisierung Diplomarbeit an der Fachhochschule Potsdam, FB Architektur und Städteplanung, 2006 Potsdam, DE, 2006. - V,79,47 S. Urheberrecht / Rechtsfragen / Rechnernetz / Musik / Zugriff / Kopierrecht / Vervielfältigung / Vermarktung Sign.: 10 D02 592 [Nicht ausleihbar] Linde, F. Ökonomie der Information Göttingen, DE: Univ.-Verl., 2005. - IX, 153 S. (Göttinger Schriften zur Internetforschung) ISBN 3-938616-09-1 Information / Informationswirtschaft / Anbieter / Benutzer / Netzarchitektur / Benutzung / Vervielfältigung / Kopierrecht / Verwertungsrecht Sign.: 11 UA1a 151 Hendley, T.; Broadhurst, R. Electronic document, records and content management : A comprehensive guide to electronic document, records and content management and a directory of products and services Hertfotdshire, GB: Cimtech, 2004. - III, 229 S. ISBN 0-9537954-7-0 / ISSN 1475-7443 Elektronisches Dokument / Inhaltliche Erschließung / Informationswert / Management / Informationsmanagement / Elektronischer Dienst / Zusammenarbeit Sign.: 10 CD1 227(15) [Nicht ausleihbar] Hewitt, H. Blog: understanding the information reformation that’s changing your world Nashville, TN, US: Nelson Books, 2005. - XXIV, 225 S. ISBN 0-7852-1187-X Elektronischer Dienst / Scheduling / Management / Informationsmanagement / Zeitfaktor / Tagebuch Sign.: 11 ZC6 296 Stempfhuber, M. (Hrsg.) In die Zukunft publizieren : Herausforderungen an das Publizieren und die Informationsversorgung in den Wissenschaften. Proceedings Bonn, DE, 2006. - 297 S. (Tagungsberichte. 11) ISBN 3-8206-0150-3 Informationsbedarf / Informationsvermittlung / Informationsversorgung / Entwicklungstendenz / Elektronisches Publizieren / Urheberrecht / Informationssystem / Suchmaschine Sign.: 11 UI1 121-05 Scoble, R.; Israel, S. Naked conversations : How blogs are changing the way businesses talk with customers Hoboken, NJ, US: Wiley, 2006. - 251 S. ISBN 0-471-74719-X Kommunikation / Elektronischer Dienst / Kommunikationsprozess / Geschäftsprozess / Humanfaktor / Scheduling / Management / Electronic Commerce / Konversation Sign.: 11 US5 254 Stielow, F. Building digital archives, descriptions, and displays : A how-to-do-it manual for archivists and librarians New York, NY, US: Neal-Schuman, 2003. - XII, 229 S. (How-to-do-it manuals for librarians. 116) ISBN 1-55570-463-8 Schriftgut / Museum / Archivierung / Digital / Projekt / Metadaten / Auszeichnungssprache Sign.: 11 UI1 176 Sieck, J. (Hrsg.); Herzog, M. A. (Hrsg.) Wireless communication and information Aachen, DE: Shaker, 2006. - 248 S. (Berichte aus der Informatik) ISBN 3-8322-5230-4 / ISSN 0945-0807 Mobilkommunikation / Telekommunikation / Breitbandkommunikation / Informationssystem / Geschäftsprozess / Informatik / Wirtschaftsinformatik Sign.: 11 ZC5 268 Syré, L. (Hrsg.); Wiesenmüller, H. (Hrsg.) Die Regionalbibliographie im digitalen Zeitalter : Deutschland und seine Nachbarländer Frankfurt am Main, DE: Klostermann, 2006. - 426 S. (Zeitschrift für Bibliothekswesen und Bibliographie . Sonderband. 90) ISBN 3-465-03461-9 / ISSN 0514-6364 Bibliographie / Geschichte / Regional / Land / Gedruckter Dienst / Entwicklungstendenz / Zugriff / Digital / Rechnernetz Sign.: 11 UN6 137 8. Künstliche Intelligenz Sieck, J. (Hrsg.); Herzog, M. A. (Hrsg.) Kultur und Informatik : Entwickler, Architekten und Gestalter der Informationsgesellschaft Frankfurt am Main, DE: Lang, 2006. - 201 S. ISBN 3-631-55417-6 Informationsgesellschaft / Kultur / Informatik / Entwicklungstendenz / Kunst / Virtuelle Realität / Multimedial / Informationsverhalten Sign.: 11 UA1a 150 Bishop, C. M. Pattern recognition and machine learning New York, NY, US: Springer Science u. Business Media, 2006. - XX, 738 S. (Information science and statistics). ISBN 0-387-31073-8 Maschinelles Lernen / Mustererkennung / Informationstheorie / Neuronales Netz / Wahrscheinlichkeitsrechnung Sign.: 11 ZB1 709 Spitzer, M. Vorsicht Bildschirm : Elektronische Medien, Gehirnentwicklung, Gesundheit und Gesellschaft Stuttgart, DE: Klett, 2005. - XVI, 303 S. (Transfer ins Leben. 1) ISBN 3-12-010170-2 Bildschirm / Sicherheitsfragen / Humanfaktor / Elektronische Medien / Wirkungsforschung / Kinder / Gesundheit Sign.: 11 HRC 146 62 10. Audiovisuelle DV Buurman, G. M. (Hrsg.) Total interaction : Theory and practice of a new paradigm for the design disciplines Basel, CH: Birkhäuser, 2005. - 367 S. ISBN 3-7643-7076-9 Design / Graphische Datenverarbeitung / MenschMaschine-Kommunikation / Dialogsystem / Benutzerschnittstelle / Virtuelle Realität Sign.: 11 ZI3 380 Groh, R. Das Interaktions-Bild : Theorie und Methodik der Interfacegestaltung Dresden, DE: TUDpress, 2005. - 223 S. ISBN 3-938863-05-6 Benutzerschnittstelle / Gestaltung / Mensch-Maschine-Kommunikation / Dialogsystem / Rechnernetz Sign.: 11 ZI4 166 58(2007)1, 61-62 Journal of Chemical Information and Modeling New York, Vol.46, No.4, July 2006 EDITORIAL Maggiora, Gerald M.: On Outliers and Activity CliffsWhy QSAR Often Disappoints, pp.1535 ARTICLES CHEMICAL INFORMATION Truchon, Jean-François; Bayly, Christopher I.: GLARE: A New Approach for Filtering Large Reagent Lists in Combinatorial Designn Using Product Properties, pp. 1536 Klekota, Justin; Brauner, Erik; Roth, Frederick P.; Schreiber , Stuart L.: Using High-Throughput Screening Data To Discriminate Compounds with Single-Target Effects from Those with Side Effects, pp.1549 Balaban, Alexandru T.; Schmalz, Thomas G.: StrainFree Sextet-Resonant Benzenoids and Their Antisextet Dualists, pp.1563 Korff, Modest von; Hilpert, Kurt: Assessing the Predictive Power of Unsupervised Visualization Techniques to Improve the Identification of GPCR-Focused Compound Libraries, pp.1580 Fitzgerald, Sara H.; Sabat, Michal; Geysen, H. Mario: Diversity Space and Its Application to Library Selection and Design, pp.1588 Sedykh, Aleksandr Y.; Klopman, Gilles: A Structural Analogue Approach to the Prediction of the Octanol-Water Partition Coefficient, pp.1598 Lin, Thy-Hou; Chiu, Shih-Hau; Tsai, Keng-Chang: Supervised Feature Ranking Using a Genetic Algorithm Optimitzed Artificial Neural Network, pp.1604 Gregori-Puigjané, Elisabet; Mestres, Jordi: SHED: Shannon Entropy Descriptors from Topological Feature Distributions, pp.1615 Eckert, Hanna; Vogt, Ingo; Bajorath, Jürgen: Mapping Algorithms for Molecular Similarity Analysis and Lingand-Based Virtual Screening: Design of DynaMAD and Comparison with MAD and DMC, pp.1623 COMPUTATIONAL CHEMISTRY Kerzmann, Andreas; Neumann, Dirk; Kohlbacher, Oliver: SLICK – Scoring and Energy Functions for Protein-Carbohhydrate Interactions, pp.1635 Elyashberg, Mikhail E.; Blinov, Kirill A.; Williams, Anthony J.; Molodtsov, S.G.; Martin, Gary E.: Are Deterministic Expert Systems for Computer-Assisted Structure Elucidation Obsolete?, pp.1643 Chaves, J.; Barroso, J.M.; Bultnick, P.; Carbó-Dorca, R.: Toward an Alternative Hardness Kernel Matrix Structure in the Electronegativity Equalization Method (EEM), pp.1657 Soriano, Elena; Marco-Contelles, José; Tomassi, Cyrille; Van Nhien, Albert Nguyen; Postel, Denis: Computational Analysis of Aza Analogues of [2’, 5’ –Bis-O(tert-butyldimethylsilyl)-‚-D-ribofuranose]-3’-spiro5’ 4’- (44’ ’ –amino-1’ ? –oxathiole-2’ ‘, 2’ ’-dioxide) (TSAO) as HIV-1 Reverse Transcriptase Inhibitors: Relevance of Conformational Prperties in the Inhibitory Activity, pp.1666 Cuadrado, Manuel Urbano; Ruiz, Irene Luque; G´mezNieto , Miguel Ángel: A Steroids QSAR Approach Based on Approximate Similarity Measurements, pp.1678 Remko , Milan; von der Lieth , Claus-Wilhelm: GasPhase and Solution Conformations of Selected Dimeric Structural Units of Heparin, pp.1687 Steffen, Andreas; Kämper, Andreas; Lengauer, Thomas: Flexible Docking of Ligands into Synthetic Receptors Using a Two-Sided Incremental Construction Algorithm, pp.1695 Betzi, Stéphane; Sure, Karsten; Chétrit, Bernard; Guerlesquin, Françoise; Morelli, Xavier: GFscore: A General Nonlinear Consensus Scoring Function for HighThrouighput Docking, pp.1704 Guha, Rajarshi; Dutta, Debojyoti; Jurs, Peter C.; Chen, Ting: R-NN Curves: An Intuitive Approach to Outlier Detection Using a Distance Based Method, pp.1713 Laffort, Paul; Héricourt, Pierre: Solvation Parameters. 2. A Simplified Molecular Topology to Generate Easily Optimized Values, pp.1723 Abraham, Michael H.; Ibrahim, Adam: Gas to Olive Oil Partition Coefficients: A Linear Free Energy Analyis, pp.1735 58(2007)1, 63-64 COMPUTATIONAL BIOCHEMISTRY Li, Yan: Bayesian Model Based Clustering Analysis: Application to a Molecular Dynamics Trajectory of the HIV-1 Integrase Catalytic Core, pp.1742 Ferro, Noel; Gallegos, Ana; Bultinck, Patrick; Jacobsen, Hans-Jörg; Carbó-Dorca, Ramón; Reinard, Thomas: Coulomb and Overlap Self-Similarities: A Comparative Selectivity Analysis of Structure-Function Relationships for Auxin-like Molecules, pp.1751 Sharma, Pooja; Ghoshal, Nanda: Exploration of a Binding Mode of Benzothiazol-2-yl Acetonitrile Pyrimidine Core Based Derivatives as Potent c-Jun N-Terminal Kinase-3 Inhibitors and 3D-QSAR Analyses, pp.1763 Amin, Elizabeth; Welsh, William J.: Highly Predictive CoMFA and CoMSIA Models for Two Series of Stromelysin-1 (MMP-3) Inhibitors Elucidate S1’ and S1-S2’ Binding Modes, pp.1775 PHARMACEUTICAL MODELING Ram, K.V.V.M. Sai; Rambabu, G.; Sarma, J.A.R.P.; Desiraju, G.R.: Ligand Coordinate Analysis of SC-558 from the Active Site to the Surface of COX-2: A Molecular Dynamics Study, pp.1784 Polgár, T›mea; Keserü, György M.: Ensemble Docking into Flexible Active Sites. Critical Evaluation of FlexE against JNK-3 and ‚-Secretase, pp.1795 Maniyar , Dharmesh M.; Nabney , Ian T.; Williams , Bruce S.; Sewing, Andreas: Data Visualization during the Early Stages of Drug Discovery, pp.1806 Zhu, Xiao-Lei; Zhang, Li; Chen, Qiong; Wan, Jian; Yang, Guang-Fu: Interactions of Aryloxyphenoxypropionic Acids with Sensitive and Resistant Acetyl-Coenzyme A Carboxylase by Homology Modeling and Molecular Dynamic Simulations, pp.1819 Liang, Hong; Wu, Xing; Guziec, Lynn J.; Guziec, Frank S., Jr.; Larson, Kimberly K.; Lang, Jennifer; Yalowich, Jack C.; Hasinoff , Brian B.: A Structure-Based 3DQSAR Study of Anthrapyrazole Analogues of the Anticancer Agents Losoxantrone and Piroxantrone, pp.1827 Guha, Rajarshi; Dutta, Debojyoti; Jurs, Peter C.; Chen, Ting: Local Lazy Regression: Making Use of the Neighborhood to Improve QSAR Predictions, pp.1836 Kirchmair, Johannes; Wolber, Gerhard; Laggner, Christian; Langer, Thierry: Comparative Performance Assessment of the Conformational Model Generators Omega and Catalyst: A Large-Scale Survey on the Retrieval of Protein-Bound Ligand Conformations, pp.1848 SOFTWARE DESCRIPTION Strizhev, Alex; Abrahamian, Edmond J.; Choi, Sun; Leonard, Joseph M.; Wolohan, Philippa R.N.; Clark, Robert D.: The Effects of Biasing Torsional Mutations in a Conformational GA, pp.1862 BIOINFORMATICS Palmer, Brian; Danzer, Joseph; Hambly, Kevin; Debe, Derek A.: StructSorter: A Method for Continuously Updating a Comprehensive Protein Structure Alignment Database, pp.1871 BOOK REVIEWS Warr, Wendy A.: Cheminformatics Developments Edited by J. H. Noordik. IOS Press: Amsterdam, 2004. 232 pp. ISBN 1-58603-450. Hardcover U.S. $ 175, Euro 145, £ 96, pp.1877 Journal of Documentation London, Vol.62, No.4, August 2006 ARTICLES Cross, Cate; Oppenheim, Charles: A genre analysis of scientific abstracts, pp.428 Zins, Chaim: Redefining information science: from “information science” to “knowledge science”, pp.447 Coleman, Anita S.: William Stetson Merill and bricolage for information studies, pp.462 Nicholas, David; Huntington, Paul; Jamali, Hamid R.; Tenopir, Carol: What deep log analysis tells us about the impact of big deals: case study OhioLINK, pp.482 Tudhope, Douglas, Binding, Ceri; Blocks, Dorothee; Cunliffe, Daniel: Query expansion via conceptual distance in thesaurus indexed collections, pp.509 BOOK REVIEW Urquhart, Christine: Management Information Systems Pors, Niels Ole: Managing Information Services Urquhart, Christine: Managing Electronic Records McLeod, Julie: Corporate Memory: Records and Information Management in the Knowledge Age (2nd ed.) Hannabuss, Stuart: Information Politics on the Web Haider, Jutta: Media, Technology and Every Day Life in Europe: From Information to Communication London, Vol.62, No.5, October 2006 ARTICLES Morris, Anne; Ayre, Catherine; Jones, Amy: Audiovisual materials in UK libraries: economic sense?, pp.555 Lloyd, Annemaree: Information literacy landscapes: an emerging picture, pp.570 Ford, Nigel; Mansopurian, Yazdan: The invisible web: an empirical stuffy of “cognitive invisibility”, pp.584 East, John W.: Subject retrieval of scholarly monographs via electronic databases, pp.597 Arsenault, Clément: Aggregation consistency and frequency of Chinese words and characters, pp.606 BOOK REVIEW Bawden , David: Annual Review of Information Science and Technology, Volume 40 Warner, Julian: Leonardo’s Laptop: Human Needs and the New Computing Glosiene, Audrone: Social Capital and Information Technology Hannabuss, Stuart: Internet Guide to Anti-Aging and Longvity Bawden, David: Memory Practices in the Sciences EDITORIAL Bawden, David: Great lives and information behaviour EMERALD LITERATI NETWORK 2006 Awards for Excellence Journal of Information Science East Grinstead, Vol.32, No.4, August 2006 Huntington, Paul; Nicholas, David; Jamali, Hamid R.; Watkinson, Anthony: Obtaining subject data from log files using deep log analysis: case study OhioLINK, pp.299 Ding, Shifei; Shi, Zhongzhi: Supervised feature extraction algorithm based on improved polynomial entropy, pp.309 Shi, Y.F.; Jin, F.X.; Li, M.Y.: A total entropy model of spatial data uncertainty, pp.316 Vechtomova, Olga; Wang, Ying: A study of the effect of term proximity on query expansion, pp.324 Joinson , Adam N.; Paine , Carina; Buchanan , Tom; Reips, Ulf-Dietrich: Watching me, watching you: privacy attitudes and reactions to identity card implementation scenarios in the United Kingdom, pp.334 Ortega, José Luis; Aguillo, Isidro; Prieto, José Antonio: Longitudinal study of content and elements in the scientific web environment, pp.344 Hider, Philip: Search goal revision in models of information retrieval, pp.352 Alwis, Gina de; Majid, Shaheen; Chaudhry, Abdus Sattar: Transformation in manager’s information seeking behaviour: a review of the literature, pp.362 Garcia-Zorita, Carlos; Martin-Moreno, Carmen; Lascurain-Sánchez, M. Luisa; Sanz-Casado, El›as: Institutional addresses in the Web of Science: the effects on scientific evaluation, pp.378 Knowledge Organization Würzburg, Vol.32, No.4, September 2006 EDITORIAL Smiraglia, Richard P.: About Knowledge Organization: An Editorial, pp.139 FEATURE Drolshagen , Jo Ann: Pictorial Representation of Quilts from the Underground Railroad, pp.141 ARTICLES Tsai, Chin-Chung; Chou, Yu-Ju: The Role of “Core” and “Anchored” Concepts in Knowledge Recall: A Study of Knowledge Organization of Learning Thermal Physics, pp.143 BOOK REVIEWS Redmond-Neal, Alice; Hlava, Marjorie M.K. (eds.): ASIS & T thesaurus of information science, technology, and librarianship. 3rd ed. Medforf, N.J.: Information Today, c2005. xiii,255 p. ISBN 1-57387-2143-1 (pb), pp.159 Mulvany, Nancy C.: Indexing Books, 2nd ed. Chicago: Univ. of Chicago Press, c2005. xiv,315 p. ISBN 0-22655276-4, pp.160 Williamson, Nancy: Classification Issues: Report. IFLA General Conference, Oslo, Norway 2005 and Universal Decimal Classification, pp.163 63 MediaInfo Media Info MediaInfo Online Weston, Vol.30, No.5, September/October 2006 FEATURES Klopper, Susan: The Journey from Corporate to Academic Librarian, pp.14 Huwe, Terence K.: From Librarian to0 Digital Communicator, pp.21 Berkien, Ton: Transforming Information Specialists into Intelligence Professionals, pp.27 Hammond , Richard: From Data Management to Data Analysis and Visualization, pp.32 Dames, K. Matthew: The Copyright Landscape, pp.35 Robinson, Brad; Marlatt, Greta E.: Libraries in the War on Terrorism, pp.39 Banks, Michael A.: Amazon’s on the Right Page with New Online Reader, pp.43 COLUMNS Fichter, Darlene: Intranet Librarian. Using Contextual Inquiry to Build a Better Intranet, pp.46 Guenter, Kim: Web Site Management. Developing Personas to Understand User Needs, pp.49 Ojala, Marydee: The Dollar Sign. Uncoveruing Cover Stories, pp.52 Plosker George R.: Information Strategist. The Complete New Yorker: A New Model for Electronic Access, pp.54 Jacsó, Péter: Péter’s Picks & Pans. JST’s J-STAGE and journal@archive, SciELO, Microsoft Academic Live, pp.57 Wiley, Deborah Lynne: Hardcopy. The Librarian’s Internet Survival Guide: Strategies for the High-Tech Reference Desk / Prioritizing Web Usability / Ambient Findability / Licensing in Libraries: Practical and Ethical Aspects, pp.51 Bates, Mary Ellen: Online Spotlight. Getting Past the Online Bouncer, pp.64 DEPARTMENTS Ojala, Marydee: The HomePage. Journeys and Transformations, pp.5 Sabroski, Suzanne: Industry News, pp.6 Notess, Greg R.: Search Engine Update: New Search Features, Developments, and Content, pp.12 Index to Advertisers, pp.63 B.I.T. online – Bibliothek, Information, Technologie, Bibliotheksmanagement Wiesbaden, Jg.9, H.3, September 2006 EDITORIAL Fuhlrott, Rolf:„Man spricht Deutsch!“, S.185 FACHBEITRÄGE Ruppelt, Georg: Demographische Veränderungen und die Zukunft der Bibliotheken, S.192 Seefeldt, Jürgen: Qualitätsmanagement, Standards und Bewertungskriterien in deutschen Bibliotheken, S.201 Sühl-Strohmenger, Wilfried: Das Netzwerk Informationskompetenz der baden-württembergischen Hochschul- und Landesbibliothek, S.205 NACHRICHTEN Ratzek, Wolfgang: Ehrenamtliche Kräfte und Bibliothekare in der Bibliotheksarbeit – Ein Problem der Wertschätzung, S.213 Reichmann , Gerhard: Die Untersuchung der Nutzungsintensität von Universitätsbibliotheken anhand der Arbeitsplatzauslastung, S.219 Ball, Rafael; Goebelbecker, Jürgen: NUCLiB – Die virtuelle Bibliothek Kerntechnik im Internet, S.225 Großgarten, Astrid: Die Archivalie Kirchenbuch zwischen Bestandserhalt, Bestandssicherung und neuen Nutzungsformen, S.230 REPORTAGEN Franke, Michael: Das Raum-Informationssystem der Philologischen Bibliothek der Freien Universität Berlin, S.233 Ratzek, Wolfgang: Singapur – Eine „Schatzinsel“ in der Welt der Bibliotheken, S.238 Syré, Ludger; Seefeldt, Jürgen: Russischer Bibliothekartag 2066 – Eindrücke von einer Reise nach Ekaterinburg, S.243 Reinitzer, Sigrid: Gutenbergs Erbe: Das Elektronische Buch – Fachtagung im April 2006 in Graz, S.251 Deider, Clemens: PostPrint 2006 - Eindrücke von der Fachmesse für Druck und Weiterverarbeitung in Berlin, S.255 Fellermann, Wibke; Bräutigam, David; Auras, Stefanie: Teaching Library. Eine Kernaufgabe für Bibliothekare. Bericht über das 9. Hamburger Kolloquium des Bibliotheks- und Informationsmanagements, S.257 Haaßengier, Ralf M.: Bibliotheken rüsten für die digitale Zukunft, S.259 64 DIGIT@L NEWS Zusatzfunktion für SISIS-SunRise Erwerbungs-Client, S.261 Direkter Draht zur Finanzbuchhaltung mit SISISSunRise FIBU-Interface, S.261 Literaturnachweise des GBV für WorldCat, S.261 Online-Archiv „DigiZeitschriften“ jetzt in SFX Knowledge-Base integriert, S.261 KURZ NOTIERT BOBCATSSS-Symposium 2007 – Marketing of Information Services – 29.-31. Januar 2007/Prag, S.263 BookData secures new contract with Essex, S.263 DGI-Tagung – Themenschwerpunkt CONTENT 4.-6. Oktober 2006/Frankfurt am Main, S.263 DMS 2006: Neue Generation der Bookeye Aufsichtsscanner, S.264 BOND besteht ISO-Zertifizierung mit Bravour, S.264 Bibliotheks-Lehrgang mit starker Managementorientierung – Informationsabend am 28.9.2006 / Donau-Universität Krems, S.264 IKMZ-Universitätsbibliothek Cottbus ist „Bibliothek des Jahres 2006“, S.265 LEARNTEC 2007 in der Messe Karlsruhe – 13.-15. Februar 2007, S.265 Zweiter Deutscher Bibliotheksleitertag – 4. Oktober 2006 / Frankfurt am Main, S.266 Ein neuer Lesesaal der Staatsbibliothek zu Berlin Unter den Linden, S.266 Bücher in der U-Bahn von Madrid, S.267 Libroplan startete mit Plaungsteam für Bibliothekstechnik, S.267 Andreas Ptack jetzt bei der ekz, S.268 Jürgen Jedek neuer Vertriebsleiter der Bibliotheca RFID AG, S.268 Swets und Ex Libris kooperieren im Bereich EDI Serial Claiming, S.268 Swets ist Global Sales Partner für eBooks Collection von Springer, S.268 ALPSP Learned Journal Collection erweitert Sektrum bei den Titelpaketen, S.268 REZENSIONEN Bibliotheken, Bücher und andere Medien in der Zeit des Kalten Krieges. Rez.: Dieter Schmidmaier, S.271 Buch-Stätte: Geschichte und Perspektiven der Leipziger Buchwissenschaft. Rez.: Dieter Schmidmaier, S.272 Jüdischer Buchbesitz als Raubgut. Rez.: Dieter Schmidmaier, S.274 Duden. Die deutsche Rechtschreibung. 24. Auflage 2006. Rez.: Rolf Fulrott, S.275 Eichhorn, Martin: Konflikt- und Gefahrensituationen in Bibliotheken. Rez.: Jürgen Plieninger, S.275 Tugenden der Medienkultur. Zu Sinn und Sinnverlust tugendhaften Handelns in der medialen Kommunikation. Rez.: Wolfgang Ratzek, S.276 Just, Peter: E-Books für Bibliotheken. Rez.: Sigrid Reinitzer, S.277 mdi Forum der Medizin_Dokumentation und Medizin_Informatik Mannheim, Jg.8, H.3, September 2006 FACHBEITRÄGE Seidel, Christoph; Lowes, Doris; Haux, : IT-Strategie des Klinikums Braunschweig – Aspekte des IT-Rahmenkonzeptes, S.100 Wirth, Ulrich: Macht Wissen Ah? – Wissensmanagement in der MDA-Ausbildung. Ein Plädoyer für Social Computing, S.106 Waegemann, C. Peter; Engelbrecht, Rolf; Klein, Frieder: CCR: Eine neue Lösung für Kontinuität der Information im Gesundheitswesen, S.112 Vosseler, Cornelia; Rübel, Hans-Werner: Erfolgsfaktoren für die Migration eines Informationssystems (IS) im Krankenhaus, S.114 VERANSTALTUNGEN Pretschner, D. P.; Bott, Oliver: 35 Jahre Medizinische Informatik, Neue Perspektiven, Kontinuitäten – Das Braunschweiger Symposium, S.118 eHealth auf der SYSTEMS 2006, S.124 BVMI Methods of Information und Yearbook of Medical Informatics für Mitglieder online verfügbar – Service für Assay zur Zertifizierung von ePAs, S.125 DVMD Noetzel, Jörg; Baller, Sascha: Die Deutsche Gesellschaft für Medizincontrolling e.V. (DGfM) stellt sich vor, S.126 Schmid, Sybille: Integrierte Versorgung: Neue Wege in der Gesundheitsversorgung – Neue Wege in der medizinischen Dokumentation?, S.127 Ein Verband macht mobil – Neue Strukturen innerhalb der Verbandsarbeit des DVMD ermöglichen mehr Einflussnahme der Mitglieder, S.130 Kooperatives Lehren und Lernen in typischen Lernsituationen (KOLLT) – Der sächsische MDA-Lehrplan und der Bund-Länder-Kommission-Modellversuch, S.131 Fankhänel, Anja: Medizinische Dokumentation in Europa – Schweiz, S.134 Gießler, Günther: Projektantrag im Leonardo-daVinci-Programm der EU durch die Berufsfachschule für medizinische Dokumentation in der Privaten Schule IBB gGmbH Dresden, S.136 Jonas, Markus: Neuer Service: Beratung in Arbeitsrechtfragen für DVMD-Mitglieder, S.137 PROJEKTBERICHTE Ingenerf, Josef; Schopen, Michael: Die Referenzterminologie SNOMED CT – Hinweise auf das Positionspapier der GMDS-Projektgruppe Standardisierte Terminologien in der Medizin (STM), S.138 Wissensmanagement Reutlingen, Jg. 9, H.5, Juli 2006 EDITORIAL Lehnert, Oliver: Wissensmanagement mit System, S.3 PRAXIS WISSENSMANAGEMENT Schütt , Peter: Der zweite Mann oder die Doppelspitze, S.10 Cress, Ulrike; Kimmerle, Joachim: Social Software im Unternehmen – (k)ein Strohfeuer?, S.14 Wilke, Martin: Erfahrungswissen lebendig halten, S.18 TITELTHEMA Seegmüller, Kirsten: Die Qual der Wahl: Das geeignete Wissensmanagement-System finden, S.20 Seegmüller, Kirsten: Zum Greifen nah, S.26 Raber, Peter: META-DOK – das webbasierte Dokumenten- und Wissensmanagement-System, S.27 Moser, Florian: So einfach wie Telefonieren – Collaboration-Lösungen bieten viel Potential für Prozessoptimierungen, S.28 DOKUMENTATION + KOMMUNIKATION Finke, Ina; Kohl, Holger: Verbandsinteressen statt Unternehmensziele, S.30 Lembke , Gerald; Vyborny , Michael: Soziale Netzwerkanalyse, S.32 Hein, Frank Martin: Elektronische Medien effizient nutzen, S.34 HUMAN RESOURCES Gálvez, Cristián: Humor ist, wenn man besser arbeitet, S.36 Keindl, Klemens; Rudlof, Matthias: Emotional statt rational, S.39 Wachs, Uwe: Wertschöpfung und Kommunikation – ein erfolgreiches Team?, S.42 TRENDS Reihlen, Markus; Schlapfner, Jan-Florian: Elektronischer Wissenstransfer: Königsweg für die Beratungspraxis, S.44 Schomisch, Michael; Wildhirt, Klaus: Gewusst wie: Beratungserfolg steigern, S.46 Springer, Alexander: Sortmunder Stadtwerke setzen auf Business Intelligence, S.48 Yilmaz, Yücel: Die Funktionen von Business Intelligence im Rahmen des Wissensmanagement, S.50 WISSENSWERTES Vollmar, Gabriele: Die Qual der Wahl, oder warum Esel sterben, S.57 Cahiers de la documentation – Bladen voor documentatie Bruxelles, Vol.60, No.3, September 2006 Éditorial – Woord vooraf, pp.3 Fort, Stéphanie: La gestion d’une bibliothèque avec un logiciel libre: Exemple concret et implications, pp.4 Lejeune, Christophe: Ce que l’annuaire fait à Internet: Sociologie des épreuves documentaries, pp.12 Jacobs, Stefaan: Federale Bibliotheken slaan de handen in mekaar, pp.23 Notes de lecture – Boekbesprekingen, pp.33 Nouvelles parutions – Nieuwe publicaties, pp.34 Regards sur la Presse – Een blik op de pers, pp.36 58(2007)1, 63-64 23. bis 24. Januar Berlin APE 2007 Academic Publishing in Europe Innovation & Publishing Arnoud de Kemp, [email protected], www.ape2007.eu 29. bis 31. Januar Prag, Tschechoslowakei BOBCATSSS 2007 Marketing of Information Services HdM – Fakultät Information und Kommunikation, BOBCATSSS, Wolframstraße 32, 70191 Stuttgart, Tel.: +49 (0)711 257 061 73, Fax: +49 (0)711 257 063 00, [email protected], www.bobcatsss.org 13. bis 15. Februar Karlsruhe LEARNTEC – 15. Internationaler Kongress und Fachmesse für Bildungsund Informationstechnologie KMK – Karlsruher Messe- und Kongress-GmbH, Festplatz 9, 76137 Karlsruhe, Tel.: (07 21) 3720-5357, Fax: (07 21) 3720-99-5357, [email protected], www.kmkg.de 21. bis 23. Februar Bangalore, Indien International Conference on Semantic Web and Digital Libraries (ICSD 2007) Dr. A.R.D. Prasad, Documentation Research and Training Centre, Indian Statistical Institute, 8th Mile, Mysore Road, Bangalore – 560 059 Karnataka, Indien, Tel.: (91-80-28483002) /3/4 extn no. 496 or 490, Fax: (91-80)28484265, [email protected], http://drtc.isibang.ac.in/icsd 11. bis 13. März Roskilde, Dänemark EUSIDIC Annual Conference 2007 What will be the impact of Web2.0 and Library2.0 applications on user services in library and information services management Johan van Halm, Executive Director, EUSIDIC c/o P.O.Box 688, 3800 AR Amersfoort, The Netherlands, Tel.: +31 (0)33 4701123, [email protected], www.eusidic.net 15. bis 17. März Melbourne, Australien The Indexing Life ANZSI Conference Margaret Findlay, Conference Convenor, Australian and New Zealand Society of Indexers, Victorian Branch, PO Box 4022, Auburn South VIC 3122 Australia, Tel./Fax: + 61 3 9818 1760, [email protected] 15. bis 21. März Hannover Info|telligence CeBIT 2007 Markus Beauchamp, Klingler GmbH, Crellestr. 21, 10827 Berlin, Tel.: (030) 397413 13, Fax (030) 397413 79, [email protected] 19. bis 22. März Leipzig 3. Leipziger Kongress für Information und Bibliothek Information und Ethik Deutsche Nationalbibliothek, Deutscher Platz 1, 04103 Leipzig, [email protected], www.bid-kongress2007.de 22. bis 25. März Leipzig Leipziger Buchmesse Leipziger Messe GmbH, Projektteam Buchmesse, Messe-Allee 1, 04356 Leipzig, www.leipziger-messe.de 14. bis 16. Mai Stuttgart Frühjahrstagung der Fachgruppe 7 im VdA Einschnitte, Ziele und Durchbrüche in der Dokumentation von Medien VdA – Verband deutscher Archivarinnen und Archivare e.V., Geschäftsstelle, Wörthstr. 3, 36037 Fulda, Tel.: (06 61) 29 109 72, Fax: (06 61) 29 109 74, [email protected] 20. bis 23. Mai Schwechat, Österreich REAL CORP 007 12. internationale Konferenz zu Stadtplanung, Regionalentwicklung und Informationsgesellschaft, und 2. Internationale Wiener Immobilienkonferenz und GeoMultimedia 2007 CEIT ALANOVA, Institut für Stadt, Verkehr, Umwelt und Informationsgesellschaft, concorde technology center schwechat (concorde.tcs), Am Concorde Park 2, Gebäude F, A-2320 Schwechat, Österreich, Tel.: +43 1 90360 1241, Fax: +43 1 90360 1299, [email protected], www.ceit.at 23. bis 27. Mai Philadelphia, PA, USA ASI Conference 2007 Liberating the Index Carolyn Weaver, Program Coordinator, E-Mail: [email protected] 30. Mai bis 1. Juni Köln 10. Internationale Symposium für Informationswissenschaft Open Innovation – neue Perspektiven im Kontext von Information und Wissen? Prof. Dr. Achim Oßwald, Fachhochschule Köln, Fakultät für Informations- und Kommunikationswissenschaft, Institut für Informationswissenschaft, Claudiusstraße 1, 50678 Köln, [email protected], www.isi2007.de 30. Mai bis 1. Juni Köln 13. Jahrestagung der IuK-Initiative Informationszentrum Sozialwissenschaften, Lennéstr. 30, 53113 Bonn, Tel.: (0228) 22 81-147, [email protected], www.iuk-initiative.org 30. Mai bis 1. Juni Ottawa, Kanada ISC/SCI Conference 2007 The Indexing Society of Canada/Société canadienne d’indexation, www.indexers.ca/ 13. bis 16. Juli London, England The Society of Indexers 50th Anniversary Conference 2007 E-Mail: [email protected] 19. bis 23. August Durban, Südafrika World Library & Information Congress – 73rd IFLA General Conference & Council Libraries for the future. Progress, Development & Partnership WLIC Conference Secretariat, Congrex Holland BV, Tel. +31 20 5040 201, Fax: +31 20 5040 225, [email protected], www.congrex.com 24. bis 28. September INFORMATIK 2007 – Informatik trifft Bremen Logistik 37. Jahrestagung der Gesellschaft für Informatik e.V. (GI) Prof. Dr. Rainer Koschke, Universität Bremen, Fachbereich 3 – Mathematik und Informatik, 28359 Bremen, Tel.: (04 21) 421-218-9671, Fax: (04 21) 218-4322, [email protected], www.informatik2007.de 25. bis 28. September 77. Deutscher Archivtag Mannheim Lebendige Erinnerungskultur für die Zukunft Thilo Bauer M.A., VdA – Verband deutscher Archivarinnen und Archivare e. V., -Geschäftsstelle-, Wörthstraße 3, 36037 Fulda, Tel.: (06 61) 29 109 72, Fax: (06 61) 29 109 74, [email protected], www.archivtag.de/at2007/ 25. bis 28. September 31. Tagung der Arbeitsgemeinschaft der Berlin Spezialbibliotheken (ASpB) Kooperation versus Eigenprofil? Arbeitsgemeinschaft der Spezialbibliotheken / Sektion 5 im DBV c/o Herder-Institut, Bibliothek, Gisonenweg 5-7, 35037 Marburg, [email protected], www.aspb.de 8. bis 10. Oktober Berlin Herbsttagung der Fachgruppe Dokumentation im Deutschen Museumsbund Monika Hagedorn-Sauppe, Institut für Museumskunde, In der Halde 1, 14195 Berlin, Tel.: (030) 8301-460, Fax: (030) 8301-504, [email protected], www.museumsbund.de 10. bis 12. Oktober Frankfurt am Main Online-Tagung 2007 und DGI-Jahrestagung 2007 DGI-Geschäftsstelle, Hanauer Landstr. 151-153, 60314 Frankfurt am Main, Tel.: (069) 43 03 13, Fax: (069) 4 90 90 96, [email protected], www.onlinetagung.de 10. bis 14. Oktober Frankfurt am Main Frankfurter Buchmesse Ehrengast Katalanische Kultur Dr. Juergen Boos, Ausstellungs- und Messe GmbH, Buchmesse Frankfurt, Reineckstraße 3, 60313 Frankfurt am Main, Tel.: (069) 2102-0, Fax: (069) 2102227/-277, [email protected] Te r m i n k a l e n d e r 2007 29560609_vo.qxd 29.09.2006 10:41 Uhr Seite 5 Auf alle Fälle frisch: Aktuelle Inhalte – perfekt auf Sie zugeschnitten Wiley InterScience® Inhalte Über 1500 Publikationen von Wiley aus allen Naturwissenschaften, Medizin, Technik, Wirtschaft und Finanzwesen Zugriff Einzelne Kapitel oder vollständige Titel Abonnement oder Kauf Leistungsumfang 29564609_vo Suche auf Kapitelebene Volltext im PDF-Format Download von Zitaten Benutzerstatistiken (COUNTER-kompatibel) OnlineBooks Ihre Bibliothek bleibt flexibel mit Wiley InterScience Online Books. Dahinter stehen maßgeschneiderte, aktuelle Inhalte, gepaart mit sinnvollen Abonnementsoptionen. Stellen Sie aus über 2000 Titeln Ihre elektronische Bücherei zusammen. Nach Bedarf ergänzen oder ändern Sie die Sammlung aus dem breit gefächerten Angebot bewährter Klassiker und aktueller Publikationen. Wie Sie zahlen (Kauf oder Abonnement – Komplette Bücher oder einzelne Kapitel) bestimmen Sie selbst. Für welches Modell Sie sich auch entscheiden: Unbegrenzt viele Nutzer können gleichzeitig auf Werke aus allen Naturwissenschaften, Medizin, Technik, Wirtschaft und Finanzwesen zugreifen. www.interscience.wiley.com TM