Inhalt Editorial - Comment
Transcription
Inhalt Editorial - Comment
Aktuelles Editorial Inhalt Liebe Leserin, lieber Leser! Aktuelles Ist Ihnen am Titelblatt dieser Zeitschrift etwas aufgefallen? Nein? Und wenn Sie ganz genau hinsehen? Auch nicht? Dann müssen wir es Ihnen wohl verraten: 2 Storage & Backup: Der aktuelle Status des SAN-Projekts 4 Neues Informationsangebot für Studierende Der Zentrale Informatikdienst hat ab sofort ein neues Logo, das in den nächsten Wochen auf allen unseren Print- und Webdokumenten auftauchen wird. Weil‘s so schön ist, zeigen wir es nochmals etwas größer: 5 Mailbox-Service: Neuerungen bei der Administration 5 Günstig telefonieren mit A1 Member Unlimited 6 Der neue Spamfilter – Erfahrungen, Empfehlungen, Einstellungen 8 ECDL, die Erweiterung 8 Personalnachrichten 9 eLearning: Fahrplan für WebCT Vista 4.0 1 PCs & Workstations Es handelt sich hierbei um die Schwarz/Weiß-Variante des neuen Logos, weil der Comment (noch) nicht in Farbdruck hergestellt wird. Im Gegensatz zum bisherigen Logo existiert davon aber auch eine „bunte“ Version, wobei dieselben Farben wie beim Logo der Uni Wien verwendet wurden – allerdings umgekehrt: Während das Universitäts-Logo aus einem blauen Schriftzug mit grauem Siegel besteht, ist beim neuen ZID-Logo die Schrift in Grau und das Pfeil-Signet in Blau gehalten. Auch mit dem Schriftzug selbst wurde die Zugehörigkeit zur Universität Wien betont: Der verwendete Font ist exakt derselbe, die Ligaturen (das Verschmelzen von l, i und d sowie von r und f ) spielen ebenfalls auf das Uni-Logo an, bei dem die Buchstaben u und n zusammengezogen wurden, und nicht zuletzt ist das ZID-Logo analog zum Uni-Logo in Kleinbuchstaben gehalten. Diese weitgehende Übereinstimmung konnte dadurch erreicht werden, dass derselbe Grafiker beauftragt wurde, der auch für das UniversitätsLogo verantwortlich zeichnet. Das altbekannte PfeilSignet soll einerseits die Wiedererkennungsrate des Logos steigern und andererseits auch jene Kontinuität symbolisieren, für die der Zentrale Informatikdienst seit Jahrzehnten steht. 17 Neue Standardsoftware Netzwerk- & Infodienste 18 10 Jahre Vienna Internet eXchange – Ein Service der Uni Wien für das österreichische Internet 19 GÉANT2 – Ein Glasfaser-Backbone für die Wissenschaft 20 Datennetz, quo vadis? 22 WLAN: Funknetz-Ausbau an der Uni Wien 24 „Verstrahlte“ Universität? – WLAN und Elektrosmog 29 Verzeichnisdienste: Von X.500 zu LDAP 33 Wie sag ich‘s meinem LDAP-Server? 34 Content Management Systeme: Software für operative Eingriffe in lebende Websites 37 Webauftritte leicht gemacht: Typo3 an der Universität Wien 40 Web-Publishing mit XML – Die eXtensible Markup Language verwirklicht den Cross-Media-Gedanken Anhang 45 Handbücher 46 EDV-Kurse des ZID bis Ende Jänner 2007 47 eLearning: WebCT Vista-Schulungen Ein erfolgreiches Semester wünscht Ihnen (und sich) die Comment-Redaktion 48 Kontaktadressen am ZID 48 Öffnungszeiten Comment 06 /3 Ausgehend von diesem Logo wird in den nächsten Wochen ein Corporate Design für den ZID entwickelt. Auch für den Comment haben wir große Pläne: Er soll ebenfalls ein neues Logo, ein neues Titelblatt sowie eine neue Website erhalten und bei dieser Gelegenheit auch etwas bunter werden. Wir hoffen, diese Vorhaben bereits mit der März-Ausgabe umsetzen zu können. Bleiben Sie also dran... 12 Alarmstufe Rot: Ihr PC wurde geentert! – Rootkits unter MS-Windows 2 Aktuelles STORAGE & BACKUP : DER AKTUELLE STATUS DES SAN-PROJEKTS Im Comment 06/1 wurde das Projekt vorgestellt, ein Storage Area Network (SAN) für die Universität Wien zu errichten.1) Damit soll einerseits die heterogene und teilweise veraltete Ausrüstung des ZID mit Massenspeicher konsolidiert und andererseits der chronische Platzmangel durch einen großzügigen Ausbau behoben werden. Im Rahmen dessen soll auch das Backup-System (siehe www.univie.ac.at/ZID/ backup/), das 1997 angeschafft wurde und schon in die Jahre gekommen ist, erneuert werden. Im Folgenden wird über den aktuellen Status dieses Projektes berichtet. Am 7. Februar 2006 wurde eine entsprechende Ausschreibung veröffentlicht. 23 Firmen haben die Ausschreibungsunterlagen abgeholt; davon haben zehn bis zum Ende der Frist am 31. März 2006 ein Angebot abgegeben. Das mag nicht viel erscheinen, doch mehr war kaum zu erwarten: Obwohl die Ausschreibung EU-weit veröffentlicht wurde, ist sie hauptsächlich für lokale Anbieter interessant – und da kommen nicht allzu viele in Frage. Das Interesse in der Branche war enorm: Storage-Projekte dieser Größenordnung gibt es in Österreich wohl kaum öfter als einmal im Jahr. Alle namhaften Hersteller von Storage-Produkten waren vertreten, entweder selbst oder durch Partnerfirmen, die als Reseller fungierten. Auch ein oder zwei „Außenseiter“ versuchten ihr Glück mit weniger bekannten Produkten. Die Ermittlung des Bestbieters war recht aufwendig und erforderte auch die Durchführung von Leistungstests (Benchmarks), die gemeinsam mit den Anbietern in der ersten Junihälfte erfolgte. The winner is ... Am 27. Juni 2006 wurde schließlich die Entscheidung gefällt: Den Zuschlag erhielten die Firmen Bull GmbH für den Teilbereich Storage und EDV-Design Informationstechnologie GmbH für den Teilbereich Backup. Bull GmbH ist die österreichische Niederlassung des internationalen Bull-Konzerns mit Sitz in Frankreich. Bull – benannt nach dem norwegischen Ingenieur Fredrik Rosing Bull, der 1919 eine auf Lochkarten basierende Rechenmaschine erfand – wurde 1931 in Paris gegründet und hat eine lange und wechselvolle Geschichte hinter sich. Heute ist Bull ein IT-Unternehmen, das neben Hardware (Server, Mainframes, Supercomputer) auch Software, Systemintegration, Dienstleistungen und Consulting anbietet. Bull GmbH tritt als Generalunternehmer und Systemintegrator auf; die Hardware wird größtenteils von anderen Firmen zugekauft, wobei die meisten Komponenten von EMC stammen. Comment 06 /3 EMC wurde 1979 gegründet und produzierte ursprünglich Möbel. Heute ist EMC einer der führenden Hersteller von Storage-Systemen. Das Firmenlogo zeigt den Schriftzug EMC2, das ist eine Kontraktion von EMCC, wobei die ersten drei Buchstaben die Initialen der Firmengründer sind und das zweite C für Corporation steht. Der Name hat also nichts mit der berühmten Einstein-Formel E = mc2 zu tun, obwohl die Assoziation möglicherweise durchaus erwünscht ist. 1) siehe Artikel Speicherplatz Absolut Notwendig in Comment 06/1, Seite 2 bzw. unter www.univie.ac.at/comment/ 06-1/061_2.html Abb. 1: Das größere der beiden Storage-Systeme (am primären Standort) 2) Original Equipment Manufacturer : Damit werden in der Computerbranche Produkte bezeichnet, die unter dem Namen eines anderen Herstellers verkauft werden. Aktuelles 3 1999 übernahm EMC die Firma Data General, die 1994 ein damals höchst innovatives Plattensystem namens HADA (High Availability Disk Array) vorgestellt hatte. Später wurde dieses unter dem Namen CLARiiON vermarktet und von EMC weiterentwickelt. Das neue Storage-System der Universität Wien heißt mit vollem Namen CLARiiON CX3-80 UltraScale und ist das größte Modell der neuesten CLARiiON-Generation, die erst am 8. Mai 2006 – also nach Ende der Abgabefrist – offiziell angekündigt wurde. Die technischen Daten des Systems sind im Kasten unten zu finden. Die Netzwerk-Komponenten (Switches) des SAN werden ebenfalls von EMC geliefert; es handelt sich dabei aber um OEM-Produkte2) von Brocade Communications Systems, dem führenden Hersteller von Fibre ChannelSwitches. Backup-System EDV-Design Informationstechnologie GmbH ist eine kleine Firma, die als IBM-Partner hauptsächlich IBMSysteme vertreibt. Auch die angebotene Backup-Lösung ist von IBM: Nachdem ebenso wie beim bestehenden Backup-System der IBM Tivoli Storage Manager (TSM) als Software zum Einsatz kommt, wird sich aus Benutzersicht nicht viel ändern: Die bisherigen Klienten funktionieren weiter,3) durch die höhere Leistungsfähigkeit der Server und die größere Geschwindigkeit der Bandlaufwerke werden Backup und Restore jedoch oft schneller vonstatten gehen. Vor allem aber sind wir Abb. 2: Blick in das Innere des Bandroboters des neuen Backup-Systems Storage- und Backup-System: Technische Daten Primärer Standort (Neues Institutsgebäude / NIG): • ein Storage-System EMC CLARiiON CX3-80 UltraScale mit 16 GB Cache und einer Gesamtkapazität von 150 Terabyte, davon 62 TB in Form von 146 GB- und 300 GB-FC-Platten, der Rest in Form von Low-Cost Fibre ChannelPlatten (500 GB; diese ersetzen in der neuesten Generation die bisher angebotenen S-ATA-Platten); eine Management Station Bull Express5800/TM800 • zwei EMC DS-4900B Fibre Channel-Switches mit je 48 Ports (4 Gbit/s) Sekundärer Standort (derzeit NIG, später Hauptgebäude): • zwei EMC DS-4900B Fibre Channel-Switches mit je 32 Ports (4 Gbit/s) • ein Bandarchiv mit Roboter IBM 3584, bestehend aus drei Einheiten („Frames“) mit insgesamt zehn Bandlaufwerken IBM 3592-E05 („Jaguar“) und 1024 Stellplätzen für Bandkassetten. Davon sind derzeit 800 mit Kassetten mit einer Kapazität von je 500 GB bestückt, sodass sich eine Gesamtkapazität von 400 Terabyte ergibt • zwei Backup-Server IBM pSeries 52A mit je vier Prozessoren und 4 GB Hauptspeicher Comment 06 /3 • ein Storage-System EMC CLARiiON CX3-80 UltraScale mit 16 GB Cache und einer Gesamtkapazität von 50 Terabyte, davon 20 TB in Form von 146 GB- und 300 GB-FC-Platten, der Rest in Form von Low-Cost Fibre ChannelPlatten (500 GB); eine Management Station Bull Express5800/TM800 4 Aktuelles durch die weitaus größere Kapazität des neuen Bandarchivs 4) für einige Zeit für die großen Datenmengen gerüstet, die demnächst – vor allem auch durch das neue Storage-System – auf uns zukommen werden. Zeitplan Das Backup-System wurde sehr schnell geliefert und im Laufe des Sommers aufgestellt, installiert und getestet. Die Abnahme erfolgte am 6. September 2006. Das StorageSystem wurde am 30. August geliefert. Nachdem es sich um ein sehr komplexes System handelt, nahm die Installation und Konfiguration längere Zeit in Anspruch und war in der dritten Septemberwoche abgeschlossen. Wie bereits im Comment 06/1 berichtet, soll das neue Storage-System aus Gründen der Ausfallsicherheit auf zwei Universitätsstandorte (Neues Institutsgebäude und Hauptgebäude) aufgeteilt werden. Nachdem die Adaptierung der benötigten Räumlichkeiten im Hauptgebäude noch nicht fertiggestellt ist, wurden vorläufig beide Teile in getrennten Systemräumen des Neuen Institutsgebäudes untergebracht. Das Storage Area Network wird eine zentrale Komponente der Infrastruktur des ZID sein, ohne die die meisten Services nicht funktionieren. Aus diesem Grund ist eine gründliche Vorbereitung mit umfangreichen Tests erforderlich. Die Testphase wird voraussichtlich Ende Oktober abgeschlossen sein. Dann werden zuerst die Fileserver5) an das SAN angeschlossen werden, weil dort derzeit der größte Platzmangel herrscht. Weitere Server werden nach und nach folgen; bis Jahresende sollte der Großteil der Daten übersiedelt sein. Wann der neue Systemraum im Hauptgebäude in Betrieb genommen werden kann, ist noch ungewiss: Vor allem aufgrund von Verzögerungen bei den erforderlichen Genehmigungen kann das noch länger dauern. Peter Marksteiner I 3) Ab einem Stichtag, der noch bekanntgegeben wird, zeigt der Hostname BACKUP.UNIVIE.AC.AT auf einen der neuen BackupServer, sodass Sicherungen auf das neue Backup-System erfolgen. Um auf Daten zuzugreifen, die vor diesem Tag gesichert wurden, ist dann der Hostname RESTORE.UNIVIE.AC.AT anzugeben. 4) Zum Vergleich: Das bisherige Bandarchiv besteht aus zehn Frames und hat etwa ein Viertel der Kapazität der drei Frames des neuen Systems, welches noch durch zusätzliche Frames beliebig erweitert werden kann. 5) siehe Artikel Fileservices: Willkommen in der Daten-Bank in Comment 05/1, Seite 24 bzw. unter www.univie.ac.at/ comment/05-1/051_24.html NEUES INFORMATIONSANGEBOT FÜR STUDIERENDE Infostand zu Semesterbeginn Kurs Unet & PC-Raum Basics Im Wintersemester 2006 hatten Studierende erstmals die Möglichkeit, sich gleich nach ihrer Studienzulassung direkt vor Ort – im Hauptgebäude der Universität beim Referat Studienzulassung / Student Point – am Infostand des ZID über die EDV-Services für Studierende zu informieren (siehe Foto). Das Beratungsangebot wurde dabei von den Studierenden ebenso gerne angenommen wie die dort verteilten Infomaterialien und Comment-Ausgaben. Für Studierende, die noch mehr über die EDV-Services des Zentralen Informatikdienstes erfahren wollen, wird ab dem Wintersemester 2006 der dreistündige, kostenlose Kurs Unet & PC-Raum Basics für Studierende angeboten. • Inhalt: das Unet-Service-Angebot sowie dessen praktische Nutzung, Erlangung praktischer Fertigkeiten in den Bereichen Drucken, Scannen, PDF-Erstellung, Datensicherung etc. (speziell ausgerichtet auf die Gegebenheiten in den PC-Räumen des ZID) • Termine (jeweils 9 – 12 Uhr): 19. Oktober 2006, 9. November 2006, 22. November 2006, 12. Dezember 2006 Comment 06 /3 • Kursort: PC-Raum 2 des ZID (Neues Institutsgebäude/ NIG, 1010 Wien, Universitätstraße 7, Stiege I, 1. Stock) • Anmeldung: Da nur eine beschränkte Anzahl an PCs zur Verfügung steht, ist eine telefonische oder persönliche Anmeldung am Helpdesk des ZID erforderlich (bzw. per eMail an [email protected] oder [email protected]). Das Infoteam in Aktion: Mag. Christoph Burger, Daniel Müller Die Anmeldefristen und weitere Infos zu den Kursinhalten finden Sie unter www.univie.ac.at/ZID/kurse/. Michaela Bociurko I Aktuelles 5 MAILBOX-SERVICE: NEUERUNGEN BEI DER ADMINISTRATION In der nunmehr zwölfjährigen Geschichte des MailboxService (siehe Comment 94/2, Seite 23 bzw. unter www. univie.ac.at/comment/94-2/942_23.html) gab es schon etliche Neuerungen, Umbauten und Reformen. Eine weitere Reform, die ausschließlich die Benutzerverwaltung betrifft, steht nun bevor: • Die Anmeldung zum Mailbox-Service soll mit Hilfe einer Webmaske wesentlich vereinfacht werden. Ganz ohne „Papierkram“ geht es leider trotzdem nicht: Zur Anmeldung ist nur die Eingabe der Sozialversicherungsnummer und des gewünschten Passworts erforderlich. Alle anderen benötigten Daten werden – sofern bekannt – automatisch aus der Personaldatenbank übernommen. Der Mailbox-Account wird sofort angelegt (aber noch nicht aktiviert), und aus der Webmaske wird eine PDFDatei generiert. Sobald diese ausgedruckt und unterschrieben beim Helpdesk des ZID einlangt, wird der Account freigeschaltet. • Das Ablaufen der Mailbox-UserIDs wird automatisiert erfolgen. Auf der Webseite www.univie.ac.at/ ZID/mailbox-ablauf/ ist detailliert beschrieben, unter welchen Bedingungen eine Benutzungsberechti- gung abläuft, innerhalb welcher Fristen eine Verständigung erfolgt und was Sie bei bevorstehendem Ablauf tun können (z.B. Weiterleitung von eMail und persönlicher Homepage). • Für Besucher, Gäste, Kursteilnehmer usw. gibt es derzeit verschiedene Arten von UserIDs mit eingeschränkten Berechtigungen: „K-IDs“ (Näheres siehe www.univie. ac.at/ZID/k-id/) und temporäre UserIDs (siehe www.univie.ac.at/ZID/mailbox/#temporaer ). Dieses Konzept wird nun verallgemeinert, sodass für jedes Service – Wählleitungszugang, Fileservices, Verwendung der PC-Räume usw. – einzeln festgelegt werden kann, ob eine UserID dafür berechtigt ist oder nicht. Solche „Mailbox Light“-UserIDs sollen mittelfristig K-IDs und temporäre UserIDs ersetzen, vorläufig stehen diese jedoch weiterhin zur Verfügung. Die beschriebenen Neuerungen werden voraussichtlich im November 2006 wirksam; in der nächsten Ausgabe des Comment wird darüber ausführlicher berichtet werden. Aktuelle Informationen zur Mailbox-Administration sind unter www.univie.ac.at/ZID/mailbox/ zu finden. Peter Marksteiner I GÜNSTIG TELEFONIEREN MIT A1 MEMBER UNLIMITED Handy-Tarife für MitarbeiterInnen der Universität Wien Zusätzlich kann die Option –50% Grundentgelt gewählt werden, die 50 Prozent des monatlichen Grundentgelts erspart, dafür allerdings die Servicebindung von 12 auf 24 Monate verlängert. Der Tarifwechsel in die Tarifmodelle A1 Member Start Unlimited und A1 Member Business Unlimited ist kostenlos. Jede/r Mitarbeiter/in der Universität Wien kann bis zu 4 Anschlüsse anmelden, wobei beide Tarife beliebig kom- binierbar sind und jeder Anschluss über ein anderes Konto abgebucht werden kann. Dieses Angebot gilt somit auch für die Familie oder FreundInnen eines jeden Angestellten, mit denen man dann besonders günstig telefonieren kann. Noch bis 30. Juni 2007 haben MitarbeiterInnen der Universität Wien Zeit, sich für eines der beiden Pakete zu entscheiden. Weitere Informationen zur An- bzw. Ummeldung sowie zu den Mitarbeitertarifen finden Sie auf den Webseiten des Zentralen Informatikdienstes unter www.univie.ac.at/ ZID/a1member/ oder bei der Mobilkom Austria AG unter www.a1.net/business/memberunlimited. Eine umfassende telefonische Beratung rund um die Uhr erhalten Sie zudem unter der kostenlosen A1-Servicenummer 0800 664 664. Karin Geicsnek I Comment 06 /3 A1 bietet nicht nur Geschäftskunden spezielle Tarife und Lösungen für die Mobiltelefonie an, sondern auch deren Angestellten. Daher wurden mit den Tarifen A1 Member Start Unlimited und A1 Member Business Unlimited zwei Angebote exklusiv für MitarbeiterInnen geschaffen. Die beiden Pakete unterscheiden sich bei Grundentgelt und Gesprächsgebühren, abgestimmt auf die Bedürfnisse von Wenigtelefonierern bzw. Vieltelefonierern. 6 Aktuelles DER NEUE SPAMFILTER – ERFAHRUNGEN, EMPFEHLUNGEN, EINSTELLUNGEN Am 16. Juni 2006 ist an der Uni Wien ein neuer Spamfilter in Betrieb gegangen, der im Artikel Wenn der Postmann zweimal klingelt im Comment 06/2 vorgestellt wurde.1) Dieser Spamfilter verwendet eine Kombination verschiedener Methoden zur Spambekämpfung; die wichtigsten davon sind Greylisting (temporäres Abweisen verdächtiger Nachrichten) sowie eine Bewertung anhand verschiedener formaler und inhaltlicher Kriterien durch das Programm SpamAssassin: Je mehr Punkte SpamAssassin vergibt, desto größer ist die Wahrscheinlichkeit, dass es sich bei einer Nachricht um Spam handelt. Im Folgenden wird über die ersten Erfahrungen mit dem neuen Spamfilter im Produktionsbetrieb berichtet, und es werden einige Tipps zur Wahl der optimalen Einstellungen gegeben. Erste Erfahrungen: Ein Monat Spam Wie viel Spam filtert der neue Spamfilter? Um meinen subjektiven Eindruck – deutlich weniger Spam – durch harte Zahlen zu untermauern, habe ich einen Monat lang (vom 16. Juni bis zum 16. Juli 2006) alle Spam-Nachrichten, die an mich zugestellt wurden, gewissenhaft gesammelt. Nachdem ich eMail an sehr viele verschiedene Adressen erhalte und die Charakteristika von Spam weitgehend konstant sind, lassen sich daraus recht verlässliche Rückschlüsse auf die Trefferquote insgesamt ziehen. • 314 Nachrichten wurden nicht als Spam erkannt; von diesen haben relativ viele (134) einen X-Univie-SpamScore von mindestens 6,0. Wählt man 6 als Grenzwert, ab dem Nachrichten gefiltert werden (siehe unten), so erhöht sich dadurch die Trefferquote auf 90,5%. Diese Trefferquoten beziehen sich nur auf jene Spam-Nachrichten, die bereits die ersten Hürden (Überprüfung auf Einhalten des Protokolls, Greylisting) überwunden haben. Wie viel Spam an diesen Hürden scheitert, lässt sich nur grob abschätzen: An einem typischen Arbeitstag werden etwa 150 000 Nachrichten sofort abgewiesen, 250 000 durch Greylisting verzögert zugestellt oder abgewiesen, etwas mehr als 100 000 Nachrichten insgesamt werden zugestellt. Von diesen werden etwa 20 000 von SpamAssassin als Spam erkannt. Nimmt man 20% nicht erkannte Spam-Nachrichten an, so werden von etwa 400 000 Zustellversuchen ungefähr 25 000 Spam-Nachrichten tatsächlich zugestellt (die automatisch generierten Statistiken des neuen Spamfilters können unter http://mailstats.univie.ac.at/ abgerufen werden). Um es kurz zusammenzufassen: Mehr als 90% aller SpamNachrichten scheitern bereits eingangs am Greylisting und anderen Maßnahmen; von den verbleibenden 5 – 10% werden etwa 80% vom SpamAssassin als Spam markiert, bei verschärften Einstellungen etwa 90%. Insgesamt ergibt sich daraus eine Trefferquote von 96 – 99%. Für eine große und heterogene Institution wie die Universität Wien ist das ein sehr respektabler Wert – viel mehr lässt sich mit serverseitiger Filterung alleine wohl kaum erreichen. Comment 06 /3 Die Bewertung dieser Nachrichten durch SpamAssassin ist in der Abbildung auf Seite 7 zu sehen: • Der maximale Wert des X-Univie-Spam-Level (das ist jenes Kriterium, nach dem der Spamfilter die Nachrichten filtert) ist 51: Bei Werten von mehr als 50 handelt es sich ganz sicher um Spam, deshalb wird die Darstellung dort abgeschnitten. Der numerische Wert des X-UnivieSpam-Score, von dem der X-Univie-Spam-Level abgeleitet ist, kann auch höher sein: Der höchste bis jetzt beobachtete Wert ist 73,4. • Von 1907 Nachrichten wurden 1593 als Spam erkannt (d.h. ihr X-Univie-Spam-Score ist mindestens 8,0). Das entspricht einer Trefferquote von 83,5% bzw. einer Reduktion von 64 auf 10 Spam-Nachrichten pro Tag. • 1119 Nachrichten (58,6%) haben einen X-Univie-SpamScore von mindestens 15,0; diese würden bei Verwendung der Standard-Einstellungen des Spamfilters sofort gelöscht werden. Einstellungen Der neue Spamfilter muss unter www.univie.ac.at/ ZID/spamfilter-webmaske/ aktiviert werden; dabei lässt sich seine Funktion über einige Parameter steuern. Bei den empfohlenen Standard-Einstellungen werden Nachrichten ab einem Spam-Level von 8 in einen eigenen SpamOrdner (Junk Folder) verschoben und ab einem Spam-Level von 15 automatisch gelöscht (nicht zugestellt). Diese Standard-Einstellungen sind wohl nie ganz falsch. Nachdem es aber große Unterschiede gibt – manche erhalten hunderte Spam-Nachrichten pro Tag, andere fast gar keine –, sind individuelle Anpassungen oft von Vorteil. Spam-Level und False Positives Die Wahl des optimalen Spam-Level, ab dem Nachrichten gelöscht bzw. in den Spam-Ordner verschoben werden, ist ein Balanceakt zwischen Effizienz und der Gefahr von False Aktuelles Positives (das sind legitime Nachrichten, die fälschlicherweise als Spam klassifiziert werden). Nach unseren Erfahrungen sind False Positives bei einem Spam-Level von 8 oder mehr äußerst selten. Wer dann immer noch viel Spam erhält, kann es mit 7 oder 6 versuchen; ein niedrigerer Wert ist nicht zu empfehlen. Wie groß die Gefahr von False Positives ist, hängt auch davon ab, mit wem man korrespondiert: Hat man viele internationale Kontakte, vor allem in Entwicklungsländern, ist sie verständlicherweise größer. Zur Vermeidung von False Positives kann auch das neue Whitelist-Feature des Spamfilters verwendet werden: Damit wird sichergestellt, dass Nachrichten, die bestimmten Kriterien genügen (Absender, Betreff) auf jeden Fall zugestellt werden. Eine reale Gefahr von False Positives gibt es höchstens bei akademischen eMail-Diskussionen über Spam: Wenn Sie eine Spam-Nachricht an einen Freund weiterschicken ( „Ich 1) siehe Comment 06/2, Seite 13 bzw. unter www.univie.ac.at/ comment/06-2/062_13.html 2) Dasselbe gilt bei Beschwerden über Spam: Aus diesem Grund werden Nachrichten an [email protected] (das ist jene Adresse, an die Beschwerden über Spam aus dem Uni-Netz geschickt werden sollen) nicht gefiltert. 3) Wenn Sie von den beiden Funktionen des Spamfilters (In einen Ordner verschieben bzw. Nicht zustellen) nur eine aktivieren wollen, dann tragen Sie bei der anderen als Spam-Level den Wert 99 ein: Keine Nachricht kann einen so hohen Spam-Level haben, weil der höchste mögliche Wert 51 beträgt. 7 habe da so eine seltsame Mail bekommen – weißt du, was das soll?“ ), kann es durchaus passieren, dass diese nie ankommt.2) Nicht zustellen Bei hinreichend hohem Spam-Level ist das Risiko von False Positives extrem gering, deshalb können solche Nachrichten gefahrlos ungelesen gelöscht werden. Der einzige Nachteil dieser Methode ist, dass im (unwahrscheinlichen) Fall einer fälschlicherweise gelöschten legitimen Nachricht weder der Absender noch der Empfänger etwas davon merken. Hier empfiehlt sich unter Umständen ein „Probelauf“: Lassen Sie die Nachrichten eine Zeitlang nicht löschen, sondern nur in einen eigenen Ordner verschieben,3) und aktivieren Sie das automatische Löschen erst, wenn Sie sich überzeugt haben, dass keine legitimen Nachrichten in diesem Ordner gelandet sind. Spam-Ordner Ein Junk Folder ist nur dann sinnvoll, wenn er auch von Zeit zu Zeit kontrolliert wird. Falls sich die Zahl der in diesen Ordner verschobenen Nachrichten in Grenzen hält, ist es durchaus zu empfehlen, ganz darauf zu verzichten: Es macht wohl kaum mehr Mühe, täglich zwei oder drei SpamNachrichten aus dem Posteingang zu löschen, als einmal in der Woche den Junk-Folder zu leeren. Wenn die Belästigung durch Spam sehr gering ist, kann der Spamfilter auch komplett deaktiviert werden. Comment 06 /3 8 Aktuelles Weiterleitungen Bei Weiterleitungen ist Folgendes zu beachten: • Weiterleitung von einer externen Mailadresse (z.B. [email protected]) an eine Uni-Adresse (z.B. [email protected]): Hier sind Greylisting und andere Maßnahmen, mit denen Spam gleich beim Eintreffen abgewehrt wird, meist nicht wirksam, weil die Nachrichten von einem legitimen Mailserver von myprovider.com entgegengenommen werden. Deshalb ist insgesamt mit einer geringeren Trefferquote zu rechnen, da nur SpamAssassin zum Einsatz kommt (mehr als zwei Drittel der erwähnten 1907 Spam-Nachrichten habe ich über externe Adressen empfangen). • Weiterleitung von einer Uni-Mailadresse (z.B. [email protected]) an eine externe Adresse (z.B. [email protected] ): Dabei kommen alle Maßnahmen wie Greylisting und Markieren durch SpamAssassin zum Tragen, nicht jedoch das automatische Filtern. Hier ist also eine Filterung durch das Mailprogramm des Empfängers erforderlich. Trotz des großen Erfolges des neuen Spamfilters werden wir uns nicht auf unseren Lorbeeren ausruhen: Spammer denken sich immer wieder neue Tricks aus, mit denen sie Spamfilter umgehen können. Daher sind laufend Anpassungen und Verbesserungen erforderlich, um die Trefferquote zumindest zu halten bzw. nach Möglichkeit noch weiter zu erhöhen. Peter Marksteiner I ECDL, die Erweiterung Seit dem Sommersemester 2006 haben Studierende und MitarbeiterInnen der Uni Wien die Möglichkeit, am Zentralen Informatikdienst ECDL Core-Prüfungen abzulegen (ECDL = European Computer Driving Licence, Europäischer Computer Führerschein). Um dieses Angebot abzurunden, können seit September 2006 auch ECDL Advanced-Prüfungen am ZID absolviert werden. Der ECDL Core dient dazu, grundlegende und praktische Fertigkeiten im Umgang mit dem Computer nachzuweisen; der ECDL Advanced bietet die Möglichkeit der Vertiefung. Er besteht aus vier Modulen (Textverarbeitung, Tabellenkalkulation, Datenbank, Präsentation), die – völlig unabhängig vom ECDL Core – einzeln absolviert werden können. Für jedes dieser Module wird eine eigene SkillsCard um € 35,– benötigt, die Prüfungsgebühr beträgt wie beim ECDL Core € 13,– pro Modul. Für jede positiv abgelegte Modul-Prüfung wird ein Zertifikat ausgestellt. Wer alle vier Module erfolgreich absolviert hat, erhält das ECDL Advanced Expert Zertifikat. Weitere Informationen (Anmeldungsmodalitäten, Prüfungstermine, Lernunterlagen, Demotests etc.) finden Sie unter www.univie.ac.at/ZID/ecdl/. Eveline Platzer-Stessl Comment 06 /3 PERSONALNACHRICHTEN Diesmal sind die meisten personellen Veränderungen am ZID aus der Abteilung Universitätsverwaltung zu berichten: Nach vier Monaten Vakanz hat das Referat UNIVIS-Produktionsbetrieb wieder eine Leitung: Elisabeth Vinek wurde mit Oktober 2006 zur Referatsleiterin ernannt. Ab November 2006 wird Anita Messinger dieses Referat verstärken. Im Referat i3v-Softwareentwicklung kümmert sich seit September 2006 Joachim Brunbauer um die ETL-Entwicklung für das Reporting System der Uni Wien, als Nachfolger von Christopher Anderlik, der leider mit Ende Oktober 2006 ausscheidet. Alexander Rosenauer hat sich ebenfalls entschlossen, die i3v-Entwicklung aufzugeben und den Zentralen Informatikdienst zu verlassen; mit Franz Seidl haben wir im August 2006 dafür einen weiteren Java-Entwickler angestellt. Mit Ende Jänner 2007 verlässt uns auch Martin Polaschek: Nachdem er acht Jahre lang am ZID entscheidend zum Erfolg des UNIVIS-Projekts beigetragen hat, setzt er seine wissenschaftliche Karriere am Institut für Knowledge and Business Engineering, wo er währenddessen als Universitätsassistent karenziert war, wieder fort. In der Abteilung PC-Systeme & Fakultätsunterstützung verstärkt Christoph Leitl seit Mitte Oktober 2006 das Referat Support Instituts-PCs; Nasret Ljesevic und Birgit Nierlich verlassen hingegen den ZID. Auch Walter Glaser, der am Zentralen Informatikdienst an einem molekularbiologischen Forschungsprojekt mitgearbeitet hat, scheidet nach erfolgreichem Abschluss des Projekts wieder aus dem ZID aus. Nicole Jezek wurde im Juli 2006 für die vakante Stelle in unserem eLearning-Team angestellt, und ab November 2006 verstärkt Manfred Rudis das Referat Datenleitungs-Infrastruktur. Seit Ende September 2006 kümmert sich auch Claudia Eitler-Buchner nach ihrer Mutterschutz-Karenz wieder um die Agenden im Direktionssekretariat. Wie immer wünschen wir allen neuen MitarbeiterInnen viel Freude und Erfolg mit ihrer Arbeit am ZID, und den scheidenden KollegInnen danken wir für ihre Leistungen und wünschen ihnen alles Gute für ihre Zukunft. Peter Rastl I Aktuelles ELEARNING: 9 FAHRPLAN FÜR WEBCT VISTA 4.0 WebCT Vista, die Lernplattform der Universität Wien, ist jetzt zweieinhalb Jahre alt. Mittlerweile verzeichnen wir rund 600 Lehrveranstaltungen pro Semester und eine stetig wachsende Gruppe an Lehrenden und TutorInnen, die im Umgang mit der Software geschult werden möchte. Stetig wird eLearning auch in den curricularen Strukturen der Universität verankert und evolviert: Inzwischen gibt es eine politische Einbindung der Fakultäten in die Strategieentwicklung sowie die Funktion fakultärer eLearning-Beauftragter. Längst ist die Lernplattform der Uni Wien auch im Kontext einer europaweiten Ausrichtung von eLearningStrategien sichtbar. Nun steht ein weiterer großer Schritt ins Haus: Das Upgrade vom mittlerweile bewährten WebCT Vista 3.0 auf die neue Version 4.0. Für diesen Wechsel spricht vor allem die bei gleichem Funktionsumfang wesentlich vereinfachte Benutzeroberfläche (einen gewissen Lernaufwand bereitet eventuell das stark veränderte Designerinterface für Lehrende). Serverseitig bietet Vista 4 strukturelle Verbesserungen, die sich erfreulich auf die Übersichtlichkeit der Datenbankstruktur und die Performance des Systems auswirken. Auch im europäischen Vergleich ist ein Umstieg auf Vista 4 im Sinne der technischen Weiterentwicklung und der Flexibilität von Content durchaus sinnvoll. Im Zuge der Vorbereitungen auf Vista 4 wurden auch verbesserte Schnittstellen und Anmeldeinterfaces für die Lehrenden entwickelt. Die Anmeldung und Verwaltung von Lehrveranstaltungen wird dadurch vereinfacht – Lehrende registrieren ihre Lehrveranstaltungen jetzt über http:// data.univie.ac.at/kurs/elv/. Voraussetzung dafür: Die Lehrveranstaltung muss schon im Online-Vorlesungsverzeichnis eingetragen sein. Parallel dazu wird an der Einbindung externer Applikationen und Add-Ons für Vista 4 (möglicherweise Wiki, ePortfolio) gearbeitet. Eine derzeit praktikable Funktion ist ein LaTeX-Parser, der bei Eingabe der Formel (LaTeX-Code) in die Adresszeile des Browsers eine .png-Datei generiert, die als Grafik in WebCT Vista eingebunden werden kann (z.B. http://latex.univie. ac.at/?x=1). Vorbereitungen: Wann kommt Vista 4? Vor einem Versionsumstieg müssen – mit ausreichender Vorlaufzeit – viele Parameter abgesichert sein. Dazu zählen in erster Linie gründliche Tests auf einem einzelnen Vista 4Server, die Ausweitung der Software auf einen Vista 4Cluster (ein Verbund mehrerer Rechner), das Einspielen notwendiger bzw. verfügbarer Service Packs und Language Packs, gefolgt von einem Nachziehen der Supportstrukturen. Dies umfasst u.a. die Überprüfung der migrierten Daten, das Testen von Backups und Templates, die Implementierung von Add-Ons, die Vorbereitung der Lehrenden, die Ausarbeitung von Vista 4-Schulungen, Dokumentationen, FAQs etc. Im Sinne einer sorgfältigen Vorbereitung des Vista 4-Software-Upgrades hat sich das Team entschieden, im Wintersemester 2006 wie bisher den Vista 3-Cluster für den laufenden Betrieb zur Verfügung zu stellen. Vista 4-Schulungen sind frühestens ab November 2006 vorgesehen. Das eigentliche Upgrade und die Datenmigration werden (nach gründlichen Tests auf dem Vista 4-Cluster) im vorlesungsfreien Februar durchgeführt, sodass zu Beginn des Sommersemesters 2007 mit einer verlässlichen Installation von WebCT Vista 4.0 gerechnet werden kann. Bis dahin werden Upgradeschulungen und entsprechende Dokumentationen zur Verfügung stehen, damit es auch für die bereits erfahrenen UmsteigerInnen keine bösen Überraschungen gibt. Vorschau: Was bietet Vista 4? Personal Desktop Am Personal Desktop (siehe Abb. 1) gibt es nur geringfügige Änderungen. Neu ist der so genannte Inhalts-Manager, der den globalen Dateimanager ersetzt. Das Symbol scheint folglich auch nicht mehr in der Desktop-Toolbar auf. Veraltete Kurse können, wie schon in Vista 3.0 nach dem Service Pack 6, aus- und eingeblendet werden. Studentenansicht Comment 06 /3 Abb. 1: Der Personal Desktop in WebCT Vista 4.0 – ein vertrautes Bild Da sich die Studierenden rein passiv mit den Kursinhalten auseinandersetzen müssen, bleiben hier die Features weitgehend gleich. Verändert haben sich lediglich einige StandardSymbole. Sind neue Objekte verfügbar, so versieht das System sie künftig mit einem grünen Stern (siehe Abb. 2 auf Seite 10). Die Studentenansicht kann vom Lehrenden editiert werden; das betrifft im Wesentlichen die Anordnung der Symbole, die Art der Icons und Menüleisten sowie die Kursinhaltsübersicht. 10 Aktuelles Designer und Dozenten Die weitaus umfangreichsten Funktionsänderungen und -erweiterungen betreffen das Designen und Verwalten von Lehrveranstaltungen. Die wesentlichsten Neuerungen sollen hier skizziert werden. Wie bisher können Lehrende entweder einen leeren Kurs einrichten, Inhalte aus einem anderen Kurs kopieren, dem Kurs eine Vorlage zuweisen oder Inhalte aus einer Datei importieren. Die neu eingerichteten Vista-Kurse können auf eigenen oder Fach bereichs-Vorlagen basieren. Sie sind bei der Anmeldung der eLearning-LV unter http:// data.univie.ac.at/ kurs/elv/ auszuwählen (Nähe res dazu finden Sie unter www.univie.ac.at/ Abb. 2: Die Studierendenansicht bleibt in WebCT Vista 4.0 weitgehend gleich. ZID/elearning/data/ Doku_elv_beantragen.pdf ). Bisher stand nach An- Comment 06 /3 meldung einer eLearning-Lehrveranstaltung den Lehrenden ein roher Standard-Kurs mit allen Werkzeugen zur Verfü- Abb. 3: Vorauswahl der Werkzeuge zur Einrichtung einer Lehrveranstaltung gung. Jetzt müssen Designer und Instruktoren beim ersten Login eine spezifische Auswahl an Werkzeugen vordefinieren. Sie erhalten dabei ein Fenster mit einer Übersicht über alle verfügbaren Tools (siehe Abb. 3). Ihre Auswahl – und zwar nur diese! – erscheint anschließend im Menüpunkt Kurswerkzeuge. Sollten Sie später feststellen, dass Sie ein nicht ausgewähltes Werkzeug doch benötigen, können Sie es nachträglich über die Designerwerk zeuge (Kurs verwalten) für den gesamten Kurs global freischalten. Es erscheint dann für De signer und Dozent im Menüblock Kurswerkzeuge bzw. Ver waltungs werkzeuge; die Studierenden haben über die Kurssymbolleiste Zugriff. Aktuelles Abb. 5: Kein Einstellen des Zeichensatzes mehr beim Upload, .zip-Dateien bei Upload mehrerer Dateien sind nicht mehr nötig Einen guten Überblick über die wichtigsten Features bietet das auf Englisch verfügbare Interface-Tutorial (http://tutorials.webct.com/exploring/ interface.htm). Aufgrund der stark veränderten Selektiven Freigabe sollte eventuell das technische Aufbaumodul Lerngruppen/Aufgaben nochmals besucht werden (siehe www.univie.ac.at/ZID/ elearning-schulungen/). Annabell Lorenz I Comment 06 /3 Insgesamt sind das Designerund das Dozenten-Interface in Vista 4 intuitiver gestaltet (siehe Abb. 4). Die Prozesse des Erstellens und des Lehrens sind noch immer deutlich getrennt, die Interfaces selbst wurden aber im optischen Erscheinungsbild stark analogisiert. Das Kursmenü befindet sich nun in beiden Ansichten vertikal auf der linken Seite und bietet einen Hide/ShowModus, in dem der Text versteckt wird. Das umständliche Aktions menü ist gänzlich verschwunden. Zu beinahe jedem Element existiert nun direkt im Anschluss an den Text ein Drop-Down-Menü, das man durch einen Mausklick Abb. 4: Vereinfachtes Strukturieren der Startseite und weiterer Verknüpfungen auffächern kann. Die StudenKalender, Wirt einiger lästiger Bugs im parasitenträchtigen tenansicht ermöglicht den Lehrenden wie bisher eine Vista 3.0, sind Einträge nun endlich auch über die Jahresschnelle Überprüfung der Studierendenperspektive. grenze hinaus möglich! Eine weitere sehr praktische Neuerung: Beim plattforminternen Mailtool kann man jetzt bei Die vielleicht wichtigste Veränderung ist das Wegfallen der Auswahl der Adressaten zwischen Rollen (z.B. alle Studes Bestands (Content Inventory). Damit entfällt eine „Ladierenden), Gruppen und Einzelpersonen differenzieren. gerungsebene“ von Content. Die je nach Werkzeug erstellten Objekte (Inhaltsdateien, Lernmodule, Diskussionen, Da der Bestand wegfällt, verändert sich auch die Selektive Chats etc.) finden Sie nur mehr rubriziert über das jeweilige Freigabe. Aufgaben lassen sich jetzt als .zip-Datei herunWerkzeug: Um z.B. Zugriff auf alle verfügbaren Tests zu terladen und können wie viele andere Werkzeugkompohaben, müssen Sie unter Kurswerkzeuge das Tool Tests annenten nun lokal gespeichert und damit flexibler in andeklicken – dort sind alle Online-Tests aufgelistet. Das Kursren Kursen verwendet werden. Auch die nachträgliche Eindesign wird damit wesentlich vereinfacht. Auf der Startseite bindung dieser Komponenten ist nun deutlich vereinfacht: befinden sich nun drei Rubriken. Aus jeder Rubrik können Bislang musste man zwischen der Funktion Inhaltsimport Sie per Drop-Down-Menü die entsprechenden Objekte einund dem Dateimanager trennen sowie zur Vermeidung von zeln anwählen und beliebig in Ihre Kursstruktur einbauen. Datenkorruptionen mit Zeichensätzen jonglieren. Jetzt gibt es den Dateimanager zwar nach wie vor (Rubrik DesignerAuch die Kommunikationswerkzeuge, vor allem Chat werkzeuge), er befindet sich aber direkt hinter dem Icon und Diskussionsforen, sind in ihrer Ansicht deutlich verKurs verwalten, wo durch entsprechende Verlinkung und einfacht; diese Reduktion der Kanäle hat sich auch auf die einfachere Darstellung die Funktion Import klar entschärft Fehleranfälligkeit von WebCT Vista positiv ausgewirkt. Beim wurde. Beim Anklicken öffnet sich ein Java-Applet (siehe Abb. 5). Hier besteht für jegliche Art von Content eine Verknüpfung zum Dateimanager, Templates werden über den von den Lehrenden lang ersehnten Vorlagen-Manager eingespielt. Deutlicher getrennt sind nun auch die Ordner für persönliche und für kursbezogene Dateien. 11 12 PCs & Workstations ALARMSTUFE ROT: IHR PC WURDE GEENTERT ! Rootkits unter MS-Windows Das Leben mit Computerviren, Würmern und Trojanern ist für Windows-Benutzer1) schon seit langem selbstverständlich. Die mächtigsten und tückischsten aller Trojaner – bei Profi-Hackern sehr beliebt und bei Anwendern und Systemadministratoren entsprechend gefürchtet – sind die so genannten Rootkits. Der Name stammt aus der Unix-Welt, da hier die ersten Rootkits auftraten. Root in Unix entspricht dem Administrator-Nutzer unter Windows, er hat alle Rechte am System. Ein Rootkit ist also ein Softwarewerkzeug, das dem Eindringling alle Rechte des Administrators verschafft – und dies auf Dauer. Denn: Es versteckt seine Existenz vor allen, bis auf den Hacker selbst. Selbst die besten Suchwerkzeuge nach digitalem Ungeziefer versagen oft bei Rootkits. Zwar muss es dem Angreifer zunächst gelingen, einen Rechner zu knacken und das Rootkit zu installieren; anschließend ist dieses jedoch kaum mehr zu finden bzw. zu entfernen – auch nicht für Experten. Feindliche Vorgangsweisen Comment 06 / 3 „Blinde Passagiere“ wie Trojaner oder Rootkits erhält man vorrangig durch administrative Nachlässigkeiten, die ihrerseits ihre Ursache in mangelndem Sicherheitsbewusstsein haben: Hacker scannen das Netzwerk nach angreifbaren Rechnern und nisten sich überall dort ein, wo sie leicht Unterschlupf finden. Besonders gefährdet sind auch Rechner, die für Hacker aus strategischen Gründen interessant sind – z.B. weil sie eine schnelle Internetanbindung haben oder sich in Netzen befinden, die ergiebige Spionagemöglichkeiten versprechen. Das einzige Mittel dagegen ist eine rigorose, umfassende Sicherheitspolitik, wie sie der ZID schon seit längerem empfiehlt (mehr dazu im Abschnitt Was bleibt zu tun?). Rootkits sind – obwohl von einer hohen Dunkelziffer ausgegangen werden muss2) – unter Windows zwar weniger verbreitet als Viren und Würmer, dafür aber umso unangenehmer. Beispielsweise hatte ein Administrator eines Institutsservers der Uni Wien zweimal ein Problem mit einem HE4Hook-Rootkit (siehe weiter unten), obwohl sich der Server hinter einer Firewall befand und sich der Administrator deshalb sicher wähnte. Beim ersten Mal fiel der WindowsServer dadurch auf, dass von ihm eine Netzwerkattacke ausging, die viel Bandbreite in Anspruch nahm. VirenscannerUntersuchungen blieben erfolglos, die schädliche Aktivität war aber unleugbar. Der Server wurde also vom Netz genommen, und als der Administrator schließlich die Festplatte ausbaute und auf einem anderen, „sauberen“ PC als Datenplatte durchsuchte, wurde das Rootkit sichtbar. Der Server wurde daraufhin komplett neu aufgesetzt; dennoch gelang es Hackern wieder, das System zu knacken (vermutlich war der Server nach einem Software-Update nicht sofort neu gestartet worden, sodass die Sicherheitsänderungen nur teilweise aktiv waren). Diesmal wurde der Server nach Strich und Faden ausspioniert – Serverdaten wurden analysiert und kopiert, Passwörter abgehört und in versteckten Bereichen gespeichert – und damit zu einer großen Gefahr für seine (Netzwerk-)Umgebung. Erst durch weitreichende, konsequent eingehaltene Sicherheitsmaßnahmen konnten die Hacker gestoppt werden. Rechner an der Uni Wien spielen bei solchen Attacken leider allzu oft die Rolle des „dummen Opfers“. Meist sind sie nicht das direkte Ziel des Hackers, sondern nur Mittel zum eigentlichen Zweck. Mit einem geenterten Universitäts-PC hat der Angreifer mehrerlei erreicht: • Der PC dient ihm als Sprungbrett für weitere Attacken und zur Verschleierung seiner Herkunft. • Der PC steht ihm als Spam-Verteilerknoten (als Schleuse für den Versand unerwünschter Massenmail) zur Verfügung. • Der PC – mit seiner im Allgemeinen guten Ausstattung und Netzwerkbandbreite – kann im Rahmen eines netzwerkmäßig verteilten Großangriffs auf ein externes Ziel (Distributed Denial of Service, DDoS) als ferngesteuerter „Zombie“ eingesetzt werden. • Der PC ist der sprichwörtliche „Fuß in der Türe“ zum Datennetz der Universität. Durch Abhören von Authentisierungsinformationen (z.B. Mailbox-Passwörter) kann der Angreifer weitere Systeme infiltrieren bzw. unter falscher Identität beliebig agieren. Gut getarnt ist halb gewonnen Wie unter Unix/Linux3) gibt es auch unter Windows zwei grundsätzlich verschiedene Arten von Rootkits. Die Usermode-Rootkits sind klassische Trojaner und können daher im Allgemeinen mit einem geeigneten aktuellen Viren- 1) Alle Personenbezeichnungen in diesem Artikel sind geschlechtsneutral zu verstehen. 2) Das Jahr 2006 wurde von Sicherheitsexperten zum „Year of the Rootkit“ gekürt. 3) siehe Artikel Ihr Linux-Rechner wurde assimiliert – ist Widerstand zwecklos? Rootkits unter Linux in Comment 06/1, Seite 19 bzw. unter www.univie.ac.at/comment/06-1/061_19.html 4) siehe Artikel Sonys digitaler Hausfriedensbruch in Comment 06/1, Seite 24 bzw. unter www.univie.ac.at/comment/06-1/ 061_24.html PCs & Workstations scanner gefunden werden. Sie laufen im Usermode, d.h. mit den Rechten des Anwenders. Ihr Wirkprinzip ist die Unterdrückung relevanter Information bei der Ausgabe: Jedes Programm, das den Hacker verraten könnte, wird so umgeschrieben, dass die elektronischen Spuren des Angreifers verwischt werden und seine Anwesenheit im System verborgen bleibt. Usermode-Rootkits sind unter Windows (im Gegensatz zu Linux) selten, weil sie für die Hackergemeinschaft mit großem Aufwand verbunden sind: Aufgrund der proprietären und noch dazu komplexen grafischen Oberfläche von Windows müssen dafür sehr viele Anwendungen umprogrammiert werden. Umso größerer Beliebtheit bei Hackern erfreuen sich die Kernelmode-Rootkits. Kernelmode-Rootkits sind äußerst effizient und daher der ultimative Schrecken jedes PC-Verantwortlichen oder Anwenders. Sie fälschen Informationen bereits vor der Ausgabe, auf der Ebene des Systemkerns. Das Ergebnis: Dateien verschwinden, Anwendungen des Hackers werden im laufenden System versteckt, offene Netzwerkzugänge dem eigentlichen Administrator vorenthalten, Systemregistraturdaten falsch angegeben, Einträge in der Ereignisanzeige von Windows unterdrückt oder gefälscht und vieles andere mehr. Jede Anwendung, die ein Nutzer oder Administrator aufruft, wird daran gehindert, korrekte Daten wiederzugeben. Daher ist der Schädling auf regulärem Weg kaum zu finden. Selbstredend können Kernelmode-Rootkits auch die Ausführung eines Virenscanners behindern oder gar unterdrücken, während sich der genasführte Administrator sicher wähnt; dasselbe gilt für den Zugriff auf Aktualisierungsdaten des Scanners im Internet. Windows-Firewalls werden ausgehebelt, Webseiten und Internetadressen werden umgelenkt, Kommunikation wird abgehört oder kontrolliert. Das Bedrohungspotenzial ist schier unerschöpflich. Das erste Kernelmode-Rootkit für Windows wurde 1999 von Greg Hoglund, einem Systemsicherheitsarchitekten, entwickelt (bis zu diesem Zeitpunkt waren alle trojanischen Aktivitäten Teil des Usermodes). Sein NT Rootkit ist in der Anwendung sehr einfach: Im Prinzip lässt es alle Informationen – Dateien, laufende Programme (Prozesse), Registratureinträge – vor den Augen des Anwenders verschwinden, die als Kennung den Text _root_ vorangestellt haben. Es ist auch in der Lage, eine zweite Internetadresse für den PC zu vergeben, über die der Hacker unbehelligt in das System einsteigen kann. Alle Aktivitäten, die der Hacker über diese Internetadresse abwickelt, werden vom Rootkit getarnt. Das Rootkit versteckt sich zudem selbst: Nach der Installation ist es unsichtbar. Wie gelangt nun der Hacker an die getarnten Daten? Ganz einfach: Wird ein verborgenes Programm mitsamt seiner Kennung aufgerufen, so ist die Tarnung dafür aufgehoben. Die Idee dahinter ist, dass nur der Hacker weiß, welche Programme vor den Augen des PC-Besitzers versteckt sind, und daher nur er selbst diese Programme ausführen kann. Kopiert er z.B. den Windows-Explorer und speichert die Kopie unter einem neuen Namen (mit Kennung), so wird beim anschließenden Aufruf dieser Kopie die Dateiansicht plötzlich wieder vollständig angezeigt. Ähnlich funktioniert das mit dem Task-Manager, dem Registratur-Editor etc. Ist ein Hacker nicht imstande, eine individuelle Kennung in das Rootkit zu programmieren, kann er vom Administrator auf diesem Weg enttarnt werden. Das NT Rootkit ist heute mehr Konzept als taugliches Rootkit, dennoch wird es gerne als Anschauungsbeispiel für die Infektionsmöglichkeiten eines Windows-Betriebssystemkerns präsentiert. Die Janusköpfigkeit solcher Sicherheitsbemühungen zeigte sich schon bald: Die Ideen Hoglunds wurden natürlich von der Hackergemeinde aufgegriffen und verfeinert, sodass mittlerweile eine Vielzahl weit moderner und wesentlich flexiblerer Kernelmode-Rootkits existiert. Vier davon – HE4Hook, Vanquish, FU/FUTo und das AFX-Rootkit – werden im Folgenden näher vorgestellt. Schurken im Schatten – und wie man sie aufspürt Wie kann etwas Unsichtbares gefunden werden? Zum Glück gilt auch hier: Tand, Tand ist das Rootkit aus des Hackers Hand. Jedes Rootkit ist nur so gut wie sein Programmierer, sodass kleinere Fehler dann doch oft zur Enttarnung führen. Solche Fehler sind sowohl bei der Methode der Infektion des Systemkerns als auch bei deren Umsetzung möglich. Daher ist es grundsätzlich wichtig, den Gegner zu kennen, d.h. über die Funktionsweise von Rootkits Bescheid zu wissen. HE4Hook Das HE4Hook-Rootkit wird auch als „russisches Rootkit“ bezeichnet. Es ist kein vollständiges Rootkit, d.h. es kann keine Registratureinträge und offenen Ports verschwinden lassen, versteckt aber Dateien und Programme (Prozesse). Auf Anfrage verhindert es auch das Löschen von Dateien oder das Stoppen von Prozessen, für den Fall, dass jemand zufällig ein getarntes Objekt ergattert. HE4Hook ist ein älteres Rootkit und läuft auf modernen Windows-Versionen Comment 06 / 3 Unter Windows werden Kernelmode-Rootkits häufig als Gerätetreiber oder als DLL (Dynamic Link Library) mit allen Rechten des Administrators – als Teil des Betriebssystems – installiert. Die alternative Methode ist, mit Hilfe eines einmalig aufzurufenden Programms die Systemschnittstellen im Speicher des PCs zu ändern, sodass jeder Systemaufruf einer Anwendung zuerst an dem im Speicher residierenden Rootkit vorbei muss. Einmal installiert, werden Rootkits beim Systemstart automatisch wieder geladen. Dank ihrer Versteck-Technik sind ihre Spuren nach dem Laden sofort verschwunden – wenn sich der Administrator anmeldet, hat der PC längst voll durchgestartet und der Spuk läuft. Wie schwierig das Entfernen eines solchen Rootkits sein kann, hat der Sicherheitsexperte Marc Russinovich am Beispiel von Sonys XCP-Rootkit4) in seinem Weblog dokumentiert (www.sysinternals.com/blog/blogindex.html). 13 14 PCs & Workstations nicht. Beispielsweise erzeugt es unter Windows XP einen formidablen Absturz, wenn es geladen wird, hinterlässt dabei aber Spuren in der Ereignisanzeige (siehe Abb. 1). Unter Windows XP ServiceRelease 2 hingegen stürzt das Betriebssystem komplett ab. Falls also auf Ihrem PC unerklärliche Systemabstürze oder ähnliche Fehlermel dun gen wie in Abb. 1 auftreten, könnte es sein, dass er von einem Hacker geentert wurde, der beim Installieren des Rootkits nicht erfolgreich war. FU/FUTo Comment 06 / 3 Das FU- (bzw. das neuere FUTo)Rootkit6) ist Hackern beim Verstecken von Prozessen behilflich. Der Windows-Systemkern hält an einer bestimmten Stelle im Hauptspeicher eine spezielle Liste von aktiven Programmen (Prozessen) für die Abfrage bereit, die durch den Windows Task-Manager angezeigt werden kann. In dieser Liste sind alle ausführbaren Programme eingetragen und durchnummeriert. Diese Nummerierung nennt man Prozess-Identifikation (PID). Da Vanquish sich diese Liste in kurzer Zeit sehr Im Vergleich zu HE4Hook sind die oft ändern kann, wird jedes ProMöglichkeiten des Vanquish-Rootgramm zusätzlich mit einem Eintrag Abb. 1: Ereignisanzeige unter Windows XP nach kit relativ schlicht gehalten, dafür versehen, der auf das vorige bzw. Systemabsturz durch HE4Hook-Rootkit funktioniert es aber auch auf neuedas nächste Programm in der Liste ren Windows-Versionen – also auf verweist. Diese Prozess-Liste wird Windows 2000, 2003 und XP. Wie das NT Rootkit verbirgt daher „Kette“ genannt. Fordert ein Hacker beim FU-Rootkit Vanquish alles, was als Kennung seinen Namen enthält (es das Verstecken eines Programms an, werden die Verketkann allerdings noch keine Nutzer, Prozesse oder offenen tungseinträge des vorigen und nachfolgenden Eintrags so Ports verstecken). Ein mit Vanquish kompromittiertes Sysgeändert, dass sie das zu tarnende Programm umgehen und tem lässt sich nicht mit vernünftigem Aufwand säubern: somit unsichtbar machen. Da die PID aber noch existiert, Das Rootkit installiert sich nicht nur über die DLLs und setzt kann das getarnte Programm trotzdem ausgeführt werden. sich vor die Programmschnittstellen (APIs) von Windows, sondern infiziert auch Prozesse und nistet sich in der ReAbb. 2 zeigt solche Prozesslisten in der Ansicht des Taskgistratur ein. Nur Prozesse und Dateien, welche die Kennung Managers von Windows 2000 sowie in der Ansicht des FUaufweisen, werden von Vanquish verschont. Damit ist es im Rootkit. Noch ist alles in Ordnung. Der Hacker, der sich in laufenden System faktisch nicht mehr sichtbar bzw. entferndiesem Fall bereits Administrator-Rechte angeeignet hat, bar. Zusätzlich protokolliert das Rootkit automatisch jedes bringt jetzt sukzessive alle Prozesse zum Verschwinden eingegebene Passwort in der Datei C:\vanquish.log. (siehe Abb. 3). Da die Kennung vanquish wie bei Hoglunds erstem Rootkit fix vorgegeben ist, kann das Vorhandensein von Vanquish auf diesem Weg aufgedeckt werden: Man erstellt einfach eine Datei mit dieser Kennung im Namen; verschwindet sie, dann ist Vanquish installiert. Leider ist diese Methode nicht immer erfolgreich – versierte Hacker bauen eine andere Kennung in das Rootkit ein. Für einen stichhaltigeren Test muss man wissen, dass Vanquish lediglich Windows-APIs täuschen kann, also nur reine WindowsAnwendungen von ihm betroffen sind. Glücklicherweise gibt es aber unter Windows immer noch das gute alte DOS, das keine Windows-APIs verwendet und daher von Vanquish nicht betrogen werden kann. Wenn Sie also die WindowsEingabeaufforderung (die „DOS-Box“, unter Start – Ausführen zu finden) mittels command – keinesfalls mit cmd 5) – aufrufen, so läuft DOS in einer Windows-Emulation. Mittels dir C:\vanquish.log unter command kann ein Standard-Vanquish gefunden werden. Hat der Hacker die Kennung geändert, dann muss die Ergebnisliste des Befehls dir /s unter cmd mit derjenigen des gleichen Befehls unter command verglichen werden. Zeigt cmd weniger Dateien als command, so ist mit großer Wahrscheinlichkeit ein Vanquish-Rootkit aktiv. Natürlich ist es nicht sinnvoll, wenn der Hacker alle Prozesse verschwinden lässt. Diese Demonstration zeigt jedoch, dass mit Ausnahme des Leerlaufprozesses (das ist jenes Programm, das ausgeführt wird, wenn das System nichts zu tun hat) keine Einschränkungen für das Versteckspiel mit FU bzw. FUTo bestehen. Eine Spezialität von FU ist, dass Privilegien von beliebigen Prozessen im laufenden Betrieb geändert werden können. Beispielsweise ist es möglich, einem Programm, das von einem Hauptbenutzer gestartet wurde, nachträglich Administrator-Rechte zu geben. Darüber hinaus kann FU den Anmeldevorgang eines Nutzers „impersonalisieren“: Windows weiß dann nicht, welcher Nutzer 5) Der Unterschied zwischen dem DOS-Befehlsinterpreter command und seinem Windows-Äquivalent cmd ist, dass cmd sehr wohl Windows-APIs verwendet. Das äußert sich insbesondere bei langen Dateinamen: Während diese unter cmd vollständig dargestellt werden, werden sie unter command nach dem sechsten Zeichen abgeschnitten und mit einer Tilde (~) sowie einer Ziffer ergänzt. 6) FU steht für fool the superuser ( „täusche den Administrator“) und ist eine Anspielung auf den Unix-Befehl su (substitute user ), mit dem im laufenden System ein Benutzerwechsel durchgeführt werden kann. PCs & Workstations wirklich angemeldet wurde. Installiert wird FU über den Treiber msdirectx.sys, der aufgrund der Namensgebung leicht mit Microsofts Multimedia-Software DirectX verwechselt werden kann. Wie verrät sich nun dieses Rookit? Das ältere FU-Rootkit produziert unter neueren Windows-Versionen (2003, XP) durchaus sporadische Systemabstürze. FUTo geht es mit Windows 2000 und XP ähnlich. Da Windows nicht nur für Prozesse, sondern auch für Anwendungen eine eigene Namensliste im Systemkern hält, können Programme, die explizit den Anwendungsnamen setzen (z.B. die schon erwähnte DOS-Box), durch FU/FUTo in der Anwendungsliste des Task-Managers nicht zum Verschwinden gebracht werden. Die Folge ist, dass Prozessliste und Anwen dungsliste des Task-Managers nicht übereinstimmen – d.h. eine Anwendung läuft, es ist aber kein zugehöriger Prozess zu finden. 15 Trick ist daher, sich zunächst als unprivilegierter Hauptbenutzer anzumelden und dann erst auf den AdministratorNutzer zu wechseln, wodurch das Rootkit zumindest teilweise sichtbar wird. Das Wettrennen Wie Linux-Rootkits sind auch Windows-Rootkits sehr abhängig von ihrer exakten Implementierung. Ändern sich im AFX Das AFX-Rookit ist der Mercedes unter den hier genannten Windows-Rootkits: Es läuft unter Windows NT, 2000, 2003 und XP. AFX kann Prozesse, Dateien, Verzeichnisse, Systemmodule, Windows-Registratureinträge, offene Ports sowie System-Ikonen (systray icons) verstecken. Eine Besonderheit von AFX ist, dass es auch Datei-Deskriptoren ( file handles) verbergen kann. Ein Datei-Deskriptor ist eine Datenstruktur im Speicher des Systems, die zum Zeitpunkt des Lesens oder Schreibens einer Datei für diese zentral angelegt wird und mittels der die Verwaltung aller Dateien durchgeführt wird, die soeben geöffnet sind. Werkzeuge wie Filemon (siehe www.sysinternals.com ), die anhand solcher Datei-Deskriptoren offene Dateien anzeigen und somit z.B. eine offene Datei c:\vanquish.log aufdecken können, sind gegen das AFX-Rootkit chancenlos. Abb. 2: Prozessliste im Task-Manager (links) und in der Ansicht des FU-Rootkits (rechts) AFX hat – wie viele andere Windows-Rootkits – derzeit noch das Problem, dass es (z.B. unter Windows 2003 oder Windows XP) nicht mit mehreren gleichzeitig angemeldeten Nutzern umgehen kann. Ein möglicher Administrator- Comment 06 / 3 Die Bedienung dieses Rootkits ist verblüffend einfach: Es versteckt jenes Verzeichnis, aus dem heraus es installiert wird. Der Verzeichnisname (genauer: die unterste Ebene des Pfades zum Installationsverzeichnis) wird dabei gleichzeitig zum Schlüssel für die Sichtbarkeit – wie vanquish bei Vanquish oder _root_ bei Hoglunds NT Rootkit. Abb. 3: Das FU-Rootkit kann bis auf den Leerlaufprozess alle Prozesse zum Verschwinden bringen. 16 PCs & Workstations Windows-Kern oder in den Programmschnittstellen wesentliche Teile durch ein Service-Release (wie z.B. das ServicePack 2 von Windows XP), dann ist mit hoher Wahrscheinlichkeit das abgestimmte Zusammenspiel zwischen Rootkit und Systemkern nicht mehr möglich. Die Folge davon sind Abstürze von Programmen oder des gesamten Betriebssystems, die vor allem zu zwei Zeitpunkten auftreten: Wenn der wahre Administrator des Systems ein Upgrade auf ein neues Service-Release durchführt (also ein ServicePack einspielt) oder wenn der Hacker sein Rootkit in eine unpassende Windows-Version einspielt. Daher sind System- oder Programmabstürze – insbesondere des Windows-Explorers – vom Sicherheitsstandpunkt generell bedenklich und sollten analysiert werden. Zwischen Betriebssystem-Herstellern und Hackern hat sich diesbezüglich ein richtiggehendes Wettrennen eingestellt: Die Systemhersteller schließen Lücken und machen den Hackern durch Änderungen an den Programmschnittstellen (APIs) das Leben schwer; die Hacker passen sich an und entwickeln ausgefeiltere Rootkits. Je nach aktuellem Software-Stand haben abwechselnd die „Guten“ oder die „Bösen“ die Nase vorne. Explizite Rootkit-Scanner, wie sie unter Linux gebräuchlich sind, gibt es unter Windows nicht. Eine interessante Entwicklung zur Enttarnung von Rootkits sind jedoch die so genannten Baseline -Werkzeuge wie z.B. Patchfinder 2 oder das neuere Windows Memory Forensic Toolkit (zu finden unter www.rootkit.com). Jede Aktion eines Nutzers bewirkt eine Vielzahl von Systemaufrufen – wird beispielsweise der Windows-Explorer gestartet, so müssen Dateien gelesen und geschrieben, Registratureinträge gelesen bzw. geändert und Netzwerkschnittstellen verwendet werden. Ein Baseline-Werkzeug analysiert diese Systemaufrufe und merkt sich die Muster. Wird danach ein Rootkit (oder auch ein Virenscanner!) installiert, schlägt das Baseline-Werkzeug Alarm, da sich die Aufruf-Muster geändert haben. Selbstverständlich haben auch Baseline-Werkzeuge ihre Nachteile: Wie die Virenscanner brauchen sie viele Ressourcen vom System und sind hochgradig abhängig von der eingesetzten Windows-Version. Machtlose Virenscanner Das Aufspüren aktiver Kernelmode-Rootkits gestaltet sich schwierig. Ist ein Rootkit erst einmal erfolgreich installiert und auf Dateisystem-Ebene zum Verschwinden gebracht worden, entzieht es sich erfolgreich der Suche. In Abb. 4 ist ein ergebnisloser Scan des McAfee Virenscanners nach einem laufenden HE4Hook-Rootkit zu sehen – obwohl er die Signatur von HE4Hook kennt, was nicht selbstverständlich ist: Beispielsweise ignorierten manche Scanner das FURootkit mehr als zwei Jahre nach dessen Erscheinen noch immer. Es gibt also keine zuverlässige Möglichkeit, bereits im System laufende Kernelmode-Rootkits mittels Virenscanner zu finden. Windows lässt sich jedoch durch rechtzeitiges Drücken der F8-Taste beim Start im „abgesicherten Modus“ laden. Viele Rootkits werden dann nicht gestartet, sodass ein anschließendes Aufspüren möglich wird. Die beste Möglichkeit, Rootkits zu finden, besteht darin, die Festplatte in einen anderen Windows-PC zu transferieren und sie dann mittels Virenscanner zu untersuchen. Dieser PC sollte jedoch sehr sicher betrieben werden, da eventuelle dort installierte Rootkits das Ergebnis natürlich verfälschen würden. Am besten geeignet ist hier ein neu instal7) siehe Artikel Sicherheit von Anfang an in Comment 04/1, Seite 20 bzw. unter www. univie.ac.at/comment/04-1/041_20. html 8) siehe Artikel Department of Desktop Security: Red Alert bei Windows-Betriebssystemen in Comment 04/1, Seite 18 bzw. unter www. univie.ac.at/comment/04-1/041_18. html Comment 06 / 3 9) siehe Artikel McAfee VirusScan – Ihr Goalkeeper im Einsatz gegen virale Offensiven in Comment 04/1, Seite 21 bzw. unter www.univie. ac.at/comment/04-1/041_21.html 10) siehe Artikel Phishing: Bitte nicht anbeißen! in Comment 06/2, Seite 37 bzw. unter www. univie.ac.at/comment/06-2/062_37. html 11) siehe Artikel Kammerjäger im Netz in Comment 06/1, Seite 31 bzw. unter www.univie. ac.at/comment/06-1/061_31.html Abb. 4: HE4Hook wird trotz bekannter Signatur vom Virenscanner nicht gefunden. 12) siehe Artikel Goldene Regeln für ein intaktes (Windows-)Betriebssystem in Comment 04/1, Seite 16 bzw. unter www.univie.ac.at/ comment/04-1/041_16.html PCs & Workstations lierter Windows-PC, der von Beginn an sicher betrieben wurde.7) Ein Säubern mittels Virenscanner, wie es bei sonstigem digitalen Ungeziefer üblich ist, reicht bei Rootkits jedoch nicht. Die einzig sinnvolle Methode zur „Rettung“ eines derart aufgehackten PCs ist, ihn komplett neu aufzusetzen – d.h. man muss seine Daten sichern, die Festplatte formatieren und anschließend sowohl das Betriebssystem als auch die benötigten Anwendungsprogramme neu installieren, wobei das direkte Überspielen von Programmen zu vermeiden ist. Was bleibt zu tun? Es zeigt sich, dass die Suche nach bereits installierten Rootkits sehr mühsam und zeitintensiv, zugleich aber auch qualitativ unsicher ist. Wieder einmal ist Vorsorge der beste Schutz und ein Minimieren der Angriffsfläche die beste Waffe gegen Hacker: • Halten Sie unbedingt Ihr System durch Security-Updates 8) und regelmäßige Updates des Virenscanners 9) am aktuellen Stand der Technik. • Schränken Sie den Zugriff auf Ihren Rechner ein. Verwenden Sie die Windows-Firewall, wo immer es möglich ist, und erlauben Sie dabei nur das, was Sie wirklich brauchen. • Schalten Sie Windows-Dienste ab, die Sie nicht benötigen. Leider ist dies nicht leicht zu beurteilen und sollte daher nur von versierten Benutzern durchgeführt werden; mit der Verwendung der Windows-Firewall ist jedoch bereits viel gewonnen. • Meiden Sie generell dubiose Webseiten und verwenden Sie Ihren Browser nicht, wenn Sie als Administrator Ihres PCs angemeldet sind. • Schalten Sie das automatische Ausführen von programmierten Webinhalten wie JavaScript und ActiveX nach Möglichkeit aus – stellen Sie den Browser vielmehr so ein, dass Sie zuvor gefragt werden, ob Sie das jeweilige Programm ausführen wollen. Das ist zwar lästig, aber im Zweifelsfall bewahrt es vor unreflektiert ausgeführten Programmen aus dem Internet. Neue Standardsoftware Neue Produkte (Stand: 2. Oktober 2006) • Corel WordPerfect Office X3 für Win. • Endnote X für Win. & Mac • MS-Visual Studio 2005 Prof. für Win., deutsch (englisch ist seit längerem verfügbar) • MS-Windows 2003 Server Standard R2 • ScanSoft PaperPort Prof. 11.0 für Win. • SigmaPlot 10.0 für Win. • SPSS 13.0 für Mac Updates (Stand: 2. Oktober 2006) • RSI IDL 6.3 für Win., Mac & Unix (bisher 6.2) Alle Informationen zur Standardsoftware sind unter www.univie.ac.at/ZID/standardsoftware/ zu finden. Eine Liste der Softwareprodukte, die im Rahmen der Fakultätsunterstützung (Ferninstallation und Softwarewartung von PCs) angeboten werden, finden Sie unter www.univie.ac.at/ZID/fu-windows/. Peter Wienerroither oder der Anmeldeinformation für Ihren lokalen PC. Beliebt sind auch Word-Dokumente, bei deren Öffnen ein Makro aktiviert wird, das wiederum einen Trojaner auf Ihrem PC installiert. Lassen Sie sich nicht reinlegen – solche Mails können Sie getrost löschen! Notebooks sind durch ihren häufigen Standortwechsel besonders gefährdet: Moderne Computer-Würmer melden ihr erfolgreiches Eindringen in ein System an zentraler Stelle und führen anschließend Befehle von dort aus.11) Hat sich ein Wurm in ein Notebook eingenistet, kann er damit auch hinter Firewalls verschleppt werden und sogar dort – in vermeintlich geschützter Umgebung – sein Unwesen treiben. Ein Notebook ist kein Server; daher sollten hier potentiell riskante Dienste wie integrierte Webserver, Datei- und Druckerfreigaben etc. unbedingt deaktiviert werden. Einen Windows-Rechner „sauber“ zu halten bedeutet Arbeit, manchmal sogar viel Arbeit. Der nötige Aufwand lässt sich stark reduzieren, indem Sie Ihren Arbeitsplatzrechner vom ZID im Rahmen des PC-Deployment managen lassen (siehe www.univie.ac.at/ZID/fu/). Richtiges Verhalten beim Umgang mit Netzwerkdiensten wie WWW, eMail und dergleichen12) lässt sich dadurch aber nicht ersetzen: Nur permanente Wachsamkeit und ein kritisches Überdenken der eigenen Sicherheitsstrategie kann einigermaßen verlässlich Ruhe verschaffen. Weitere Informationen, Windows-Rootkits und RootkitAnalysewerkzeuge finden Sie unter www.rootkit.com. Aron Vrtala I Comment 06 / 3 • Seien Sie im Umgang mit dem Internet misstrauisch: Schon so mancher Rechner wurde durch eine PhishingAttacke erfolgreich geentert.10) eMail-Nachrichten von (vorgeblich) Banken, der Polizei oder anderen scheinbar seriösen Institutionen, in denen Sie aufgefordert werden, umgehend einem Link zu folgen oder ein Attachment zu öffnen (paradoxerweise werden hierfür oft Sicherheitsgründe angeführt), zielen in aller Regel nur darauf ab, Sie zu einer unüberlegten Handlung zu verführen – z.B. zur Preisgabe Ihres Mailbox-Passworts 17 18 Netzwerk- & Infodienste 10 JAHRE VIENNA INTERNET EXCHANGE Ein Service der Uni Wien für das österreichische Internet Seit dem letzten Comment-Bericht über den vom Zentralen Informatikdienst der Uni Wien betriebenen Vienna Internet eXchange (VIX, www.vix.at ) sind schon wieder fünf Jahre vergangen.1) Gut funktionierende Einrichtungen werden wie selbstverständlich genutzt und erhalten selten ein explizites PresseEcho; es ist also durchaus erfreulich, dass seither weder hier noch an anderer Stelle über den VIX berichtet werden musste. 10 Jahre sind allerdings ein würdiger Anlass, wieder einmal Bilanz zu ziehen. Unsere Entscheidung vor etwa sechs Jahren, interessierten Internet Service Providern neben dem Neuen Institutsgebäude (1010 Wien, Universitätsstraße 7) noch einen zweiten Standort für Anschlüsse an den VIX anzubieten und zu diesem Zweck einen Partner-Vertrag mit der Firma Interxion in der Shuttleworthstraße in WienFloridsdorf abzuschließen, hat sich als goldrichtig erwiesen: Einerseits funktioniert die Zusammenarbeit mit den Interxion-MitarbeiterInnen seit Beginn der Partnerschaft ausgezeichnet; andererseits hat die von Interxion strikt eingehaltene Carrier & Provider-Neutralität und -Unabhängigkeit wesentlich dazu beigetragen, dass diese Firma sämtliche Turbulenzen nach dem „Internet-Hype“ bestens überstanden hat und heute mit einem in Wien nahezu konkurrenzlosen Internet-Datacenter weiterhin als einziger sinnvoller Standort-Partner für den Betrieb eines neutralen Internet Exchange Point (IXP) in Frage kommt. Comment 06 /3 Neue „Terabit-Switches“ zum Geburtstag Es stand daher für uns außer Frage, auch bei der jüngsten gerätetechnischen Neuausstattung des VIX für beide Standorte – VIX1 im NIG und VIX2 bei Interxion – identisch leistungsfähige Ethernet-Switches zu beschaffen. Nachdem die Anfang 2001 in Betrieb gegangenen Switches (Extreme Networks, Black Diamond 6808) trotz eines zwischenzeitlichen Upgrades im Jahr 2004 am Ende ihrer Leistungsfähigkeit angelangt waren, war die Zeit reif für eine neue Hardware-Generation – nicht zuletzt auch deshalb, um den VIXKundInnen 10-Gigabit-Anschlussports anbieten zu können. Die entsprechende Ausschreibung (Ende 2005) hat Siemens Austria mit Foundry Networks BigIron RX-16 Switches gewonnen. Diese Switches haben eine Datendurchsatz-Kapazität von bis zu 1,6 Terabit pro Sekunde (800 Gbit/s Full Duplex) und sind auf die bevorstehende 40 GigabitEthernet- bzw. 100 GigabitEthernet-Technologie vorbereitet. Wir sind also sehr zuversichtlich, mit diesen Geräten wieder eine gute Wahl für etwa die nächsten fünf Jahre getroffen zu haben. Die Umstellung gelang reibungslos in zwei Nächten Ende März 2006, dank perfekter Zu sammenarbeit unserer eigenen TechnikerInnen mit jenen von Siemens und Interxion. Die Umstellung je Standort dauerte jeweils weniger als zwei Stunden; ein Komplettausfall des gesamten VIX konnte vermieden werden. Die Betriebsstabilität des Vienna Internet eXchange ist eines unserer Aushängeschilder, und es erfüllt uns durchaus mit Stolz, dass der VIX als ein „universitär“ betriebener Internet Exchange Point zu den stabilsten InfrastrukturEinrichtungen im Internet gehört. Das Volumen des gesamten Peering-Verkehrs am VIX liegt derzeit in einer Größenordnung von 1 Gigabyte pro Sekunde, also knapp 100 Terabyte pro Tag. Wir beobachten am VIX in den letzten Jahren etwa eine Verdoppelung des Volumens pro Jahr, was im Vergleich zu den größten Internet Exchange Points in Europa (etwa AMS-IX in Amsterdam, DE-CIX in Frankfurt oder LINX in London) zwar ein geringeres Wachstum darstellt, aber für einen IXP mit eher regionalem Fokus durchaus beachtlich ist. Noch ein Geburtstag: 5 Jahre Euro-IX VIX war und ist als Gründungsmitglied maßgeblich am Aufbau und der Weiterentwicklung der European Internet Exchange Association (Euro-IX, www.euro-ix.net) beteiligt, die seit Anfang 2001 insbesondere der Kommunikation und dem Erfahrungsaustausch von primär europäischen IXP-Betreibern und damit der Verbesserung der europäischen Internet-Infrastruktur dient. Das Interesse von IXP-Betreibern aus Japan und den USA war allerdings bald so groß, dass Euro-IX seit Anfang 2005 auch Betreibern von außerhalb Europas eine assoziierte Mitgliedschaft anbietet – kürzlich ist sogar der National Internet eXchange of India (www.nixi.in) beigetreten. Christian Panigl I 1) siehe Comment 01/1, Seite 30 bzw. unter www.univie.ac.at/ comment/01-1/011_30.html (dort finden Sie auch einige generelle Hintergrundinformationen zu Internet Exchange Points sowie zum VIX) Netzwerk- & Infodienste 19 GÉANT2 – EIN GLASFASER-BACKBONE FÜR DIE WISSENSCHAFT Das seit einigen Jahren unter dem Namen GÉANT (www. geant.net) bekannte und von DANTE (www.dante.net) betriebene europäische Backbone-Netzwerk für Wissenschaft und Bildung hat in den letzten Monaten einen Generationswechsel vollzogen und heißt nun GÉANT2 (www. geant2.net). In einem aufwendigen Ausschreibungsverfahren wurde das Netzwerk weitestgehend auf Basis gemieteter Glasfaserstrecken neu gestaltet. Den europäischen Wissenschaftsnetzen – von Irland bis Griechenland, von Spanien bis Finnland – stehen jetzt Bandbreiten von mehr als 10 Gigabit pro Sekunde (Gbit/s) zur Verfügung. Der direkte Zugriff auf die Glasfaser-Infrastruktur (Dark Fibre) erlaubt DANTE nunmehr eine relativ kostengünstige Erweiterung der gemeinsam genutzten Bandbreiten. Ebenso ist es jetzt möglich, dedizierte Hochgeschwindigkeitsverbindungen für Spezialprojekte anzubieten – z.B. im Bereich der Astronomie, Hochenergiephysik, Meteorologie, Telemedizin sowie anderer Grid-Projekte. 10 Gbit/s für ACOnet Auch das vom ZID der Uni Wien in Kooperation mit anderen Universitäten betriebene österreichische Wissenschaftsnetz ACOnet (www.aco.net) verfügt seit Dezember 2005 über einen 10 Gbit/s-Anschluss an GÉANT2 (zuletzt war ACOnet mit einem redundanten 622 Mbit/s-Anschluss an GÉANT angebunden). Ein zweiter 10 Gbit/s-Anschluss soll spätestens zum Jahresende 2006 zur Verfügung stehen; dieser dient zur Erhöhung der Ausfallsicherheit und ermöglicht die Nutzung von dedizierten Gigabit-Verbindungen zu anderen europäischen Wissenschaftsnetzen. Die ebenfalls auf Basis einer gemieteten Glasfaserstrecke von unserem slowakischen Schwesternetzwerk SANET errichtete Verbindung zwischen Bratislava und Wien wurde im Jänner 2006 auf 10 Gbit/s umgestellt. Eine weitere Glasfaserstrecke zwischen Brno und Wien wurde in den Sommermonaten im Auftrag des tschechischen Wissenschaftsnetzes CESNET errichtet und getestet und konnte mittlerweile ebenfalls mit 10 Gbit/s in Betrieb genommen werden. Diese Strecke komplettiert nunmehr ein trilaterales Glasfaserdreieck Bratislava–Brno–Wien. Über diese bi- bzw. trilateralen Verbindungen wird, im Gegensatz zu GÉANT2, nicht ausschließlich Datenverkehr zwischen den angeschlossenen Wissenschaftsnetzen ausgetauscht: Wir nutzen diese zusätzliche Infrastruktur auch zur Verbesserung unserer regionalen Internet Connectivity, indem wir jeweils die Netze unserer „Schwestern“ am lokalen Internet Exchange Point ankündigen (siehe dazu auch Artikel auf Seite 18). Somit ist ACOnet indirekt über SANET am slowakischen SIX (www.six.sk) sowie über CESNET am tschechischen NIX (www.nix.cz) vertreten, ebenso wie die genannten Schwesternetzwerke über ACOnet am Vienna Internet eXchange (www.vix.at). Ein ähnliches Modell ist mit dem polnischen Wissenschaftsnetz in Planung. ACOnet hat daher im April 2006 als erster VIX-Teilnehmer auch dort die durch neue Infrastruktur geschaffene Möglichkeit eines 10 Gbit/s-Peering-Anschlusses realisiert und im Sinne der Ausfallsicherheit im Mai 2006 durch einen zweiten solchen Anschluss erweitert. Ausblick Comment 06 /3 Topologie von GÉANT2 (Mai 2006) Diese enorme Bandbreitenerhöhung soll jedoch nicht nur den ACOnet-Teilnehmern in Wien zur Verfügung stehen, sondern auch in den Bundesländern zugänglich werden. Deshalb sind wir derzeit dabei, mittels einer Ausschreibung (zweistufiges Verhandlungsverfahren) den österreichweiten ACOnet-Backbone zu erneuern. Unser Ziel ist es, eine ähnlich flexible und zukunftsorientierte Infrastruktur auf Basis von Glasfaserstrecken zu errichten, wie sie bei den meisten nationalen Wissenschaftsnetzen und im GÉANT2 realisiert wurde und wird. Ab Mitte 2007 sollten damit allen österreichischen Universitäten und ACOnet-Teilnehmern Bandbreiten von 10 Gbit/s und mehr zur Verfügung stehen. Christian Panigl I 20 Netzwerk- & Infodienste DATENNETZ, QUO VADIS ? Netzwerke sind aus unserem Leben kaum noch wegzudenken: Ein PC an jedem Arbeitsplatz, ein Telefon sowieso schon lange, Notebooks und PDAs ersetzen zunehmend Papier und Bleistift, immer mehr wird über das Internet abgewickelt – von Milch kaufen bis hin zu Operationen über ganze Kontinente hinweg. Aus der „Spielwiese Internet“ ist eine Infrastruktur geworden, die zuverlässig funktionieren muss. Das Internet ist an Universitäten schon seit langem ein integraler Bestandteil der Forschung und kommt seit einigen Jahren auch in der Lehre immer stärker zum Einsatz. Aufgrund dessen hat sich das Datennetz der Uni Wien zu einem komplexen System entwickelt, das ständig erweitert und ausgebaut wird, um dem wachsenden Bedarf an Bandbreite gerecht zu werden, eine möglichst hohe Verfügbarkeit für die BenutzerInnen sicherzustellen und neue Einsatzgebiete abzudecken. Der folgende Artikel soll einen kleinen Überblick über den aktuellen Status und die Möglichkeiten des Uni-Datennetzes geben, aber auch aufzeigen, warum gewisse Dinge (noch) nicht realisierbar sind. Schneller, höher, weiter Comment 06 /3 Vor wenigen Jahren waren PCs mit integrierten Netzwerkanschlüssen noch ausgesprochen unüblich. Netzwerkkarten mussten extra gekauft und in den Rechner eingebaut werden, wobei eine Bandbreite von 10 Megabit pro Sekunde (Mbit/s) durchaus als leistungsfähiger Anschluss galt. Heute sind PCs nicht mehr ohne Netzwerk erhältlich, und die eingebauten Anschlüsse sind meist schon auf GigabitEthernet (= 1000 Mbit/s) ausgelegt. Als Folge dieser Entwicklung hat sich nicht nur die Zahl der an das Uni-Datennetz angeschlossenen Rechner drastisch erhöht (heute sind es bereits über 15 000), auch der „Bandbreiten-Hunger“ der einzelnen BenutzerInnen ist gestiegen. Um die Netzwerkinfrastruktur diesen Anforderungen anzupassen, war eine Reihe von Maßnahmen notwendig: Einerseits wurde die Netzwerkanbindung der meisten Universitätsstandorte auf Glasfaserleitungen und GigabitEthernet umgestellt (früher waren es Kupferkabel, und die Bandbreite betrug oft nur 1 Mbit/s), und alle größeren Standorte wurden im Sinne der Ausfallsicherheit redundant – d.h. über mehr als einen Weg – angebunden. Zum anderen wurde auch innerhalb der Gebäude die Infrastruktur dahingehend ausgebaut, dass jeder Anschluss mit 100 Mbit/s versorgt werden kann.1) Hier drängt sich natürlich sofort eine Frage auf: Warum nur 100 Mbit/s und nicht gleich GigabitEthernet, wenn die meisten PCs sowieso schon dafür ausgerüstet sind? Die Antwort auf diese Frage hat mehrere Aspekte. Zum einen zeigen die Statistiken, dass fast alle Rechner mit diesen 100 Mbit/s das Auslangen finden – für die meisten PCs würden sogar 10 Mbit/s reichen. Dies liegt in der Regel daran, dass der Kommunikationspartner im Internet üblicherweise nicht einmal annähernd über die Bandbreite eines UniversitätsPCs verfügt. Beim Zugriff auf Netzwerkdienste innerhalb der Uni Wien (Fileservices, Backup etc.) trifft das zwar nicht zu; nachdem diese Server mit ihrem Gigabit-Anschluss aber eine Vielzahl von Klienten versorgen müssen, steht dem einzelnen Benutzer ohnehin nur ein Teil der Bandbreite des Servers zur Verfügung. An vielen Universitätsstandorten kommt erschwerend hinzu, dass die Verkabelung zu einem Zeitpunkt errichtet wurde, als GigabitEthernet noch nicht spezifiziert war. Im Gegensatz zu FastEthernet (= 100 Mbit/s), das nur zwei Drahtpaare eines Kabels für die Datenübertragung verwendet, benötigt GigabitEthernet vier Paare. Daher könnte man mit GigabitEthernet nur die Hälfte der vorhandenen Anschlüsse nutzen, was im Widerspruch zum wachsenden Bedarf an Anschlüssen steht. Während Arbeitsplatzrechner in der Regel mit 100 Mbit/s auskommen, sieht die Lage bei Servern naturgemäß etwas anders aus: Nicht nur vom ZID, sondern auch von anderen Organisationseinheiten der Uni Wien werden zahlreiche Server betrieben, die große Datenmengen verarbeiten oder schnell übertragen müssen und eine entsprechende Netzwerkanbindung benötigen. (Achtung: Da die geeignete Einbindung in das Datennetz von Fall zu Fall unterschiedlich sein kann, ist es wichtig, dass der ZID rechtzeitig – d.h. bereits in der Planungsphase solcher Projekte – kontaktiert wird, um Verzögerungen möglichst zu vermeiden! ) Ein aktuelles Beispiel für vermehrten Bandbreiten-Bedarf sind internationale Kooperationen zum verteilten Rechnen in so genannten Grids. Dabei werden Rechner mittels spezieller Software so vernetzt, dass die im Grid vorhandenen Ressourcen (Rechenleistung, Daten, ...) von allen TeilnehmerInnen genutzt werden können – in Analogie zum Strom, der aus der Dose fließt, sobald ein Gerät angesteckt wird, wobei allerdings bei Grid Computing jeder beteiligte Computer auch Ressourcen zur Verfügung stellt. Um Rechner rund um die Welt in einem solchen Verbund zusammenfassen zu können, sind schnelle Datennetze dazwischen unabdingbar. Die verfügbaren Bandbreiten im europäischen Backbone-Netz wurden im Rahmen des GÉANT2-Projekts erst kürzlich erhöht (siehe Seite 19) und sollten nun für längere Zeit ausreichen; allerdings gilt es jetzt, auch innerhalb 1) Nähere Informationen dazu finden Sie im Artikel Der ZID wirft neue Netze aus in Comment 05/2, Seite 41 bzw. unter www. univie.ac.at/comment/05-2/052_41b.html. 2) siehe Artikel Social Software mit dunkler Seite in Comment 06/2, Seite 27 bzw. unter www.univie.ac.at/comment/06-2/ 062_27.html Netzwerk- & Infodienste der Universität die Systeme so anzubinden, dass diese zusätzlichen Kapazitäten ausgenutzt werden können. Grenzenlos mobil Das „klassische“ Datennetz der Uni Wien besteht aus Kabeln und Verteilern; um es verwenden zu können, braucht man einen physischen Netzwerkanschluss innerhalb der Universität. In den letzten Jahren hat sich jedoch die Realität des Arbeitens und Studierens massiv verändert: In vielen Fällen spielt es inzwischen keine Rolle mehr, wo man sich tatsächlich aufhält, solange man Zugang zu den benötigten Informationen hat. Dieser Trend wird dadurch verstärkt, dass ein Computer heute zwar noch nicht in jede Hosentasche, aber zumindest schon komfortabel in jeden Rucksack passt. Damit ist es oft nicht mehr erforderlich, den Studierenden einen PC für ihr Studium zur Verfügung zu stellen – den bringen sie mittlerweile oft selbst mit. Immer wichtiger wird hingegen die Möglichkeit, mit diesem Rechner auch abseits der herkömmlichen Netzwerkdosen Zugang zum Internet zu erhalten. Hier stehen heute vor allem zwei Technologien im Vordergrund: • Zum einen bietet der ZID für alle Rechner mit Internetanschluss die Möglichkeit, von überall her mittels VPN (Virtual Private Network, siehe www.univie.ac.at/ ZID/vpn/) eine verschlüsselte Verbindung zum UniDatennetz aufzubauen. Damit ist der Rechner – egal wo er sich physisch befindet – ein (virtueller) Teil des Universitätsnetzes und kann alle Services genau so nutzen, als wäre er direkt an der Uni angebunden. Das aktuelle Schlagwort dazu heißt Personal Network: Die im Netz benötigten Berechtigungen werden künftig nicht mehr einem bestimmten Rechner (d.h. einer IP-Adresse) zugeordnet werden, sondern einer UserID. Der ständige Ausbau der Netzwerk-Infrastruktur ist unumgänglich, weil das Internet in den letzten Jahren immer stärker Verwendung findet – insbesondere in der Lehre. Die Universität fördert den Einsatz solcher Technologien z.B. durch das eLearning-Strategieprojekt Neue Medien in der Lehre, an dem auch der ZID beteiligt ist. Darüber hinaus hat die Vernetzung der Studierenden untereinander ebenfalls massiv zugenommen: Das Internet entwickelt sich immer mehr zur zentralen Kommunikationsplattform, und der Wunsch, überall entsprechende Zugangsmöglichkeiten vorzufinden, ist daher nur die logische Folge. In diese Richtung geht auch das europaweite Projekt eduroam, das es den BenutzerInnen ermöglicht, mit den Zugangsdaten des Heimat-Netzwerks nicht nur an der eigenen Universität, sondern auch an allen anderen teilnehmenden Organisationen einen Internetzugang zu erhalten (siehe dazu auch Seite 22). In Österreich ist eduroam erst im Aufbau begriffen; dennoch kann man mit einem Unet- oder Mailbox-Account bereits in vielen Ländern Europas die Netzwerke der dortigen Universitäten verwenden. Sogar in Australien besteht mittlerweile an 52 Universitäten die Möglichkeit, auf diese Art zu surfen. Was kommt? Das Internet hat bereits einiges an klassischer Technologie abgelöst: Briefe wurden zu eMails, Telegramme gibt es (zumindest in Österreich) überhaupt nicht mehr, Faxe werden nur noch verschickt, wenn es notwendig ist, Fotoalben legt man nicht mehr ins Bücherregal, sondern auf seine Homepage – und das ist erst der Anfang der Entwicklung. Besonders gut ist diese Veränderung im Moment im Bereich der Telefonie zu beobachten. Das herkömmliche Festnetztelefon ist mittlerweile ziemlich aus der Mode gekommen und oft nur deshalb noch vorhanden, weil es für den ADSL-Anschluss benötigt wird. Telefonie via Internet (z.B. mittels Skype) ist bereits eine ernst zu nehmenden Alternative, auch wenn sie ihre Tücken hat.2) Und dort, wo es mobil sein soll, ist das Handy zu einem Teil unseres Alltags geworden: Vor 10 Jahren war es noch eine Kuriosität, wenn jemand ein Handy hatte; heute ist es schon fast eine Kuriosität, wenn jemand „nur“ ein Handy – ohne allerlei Zusatzfunktionen – hat. Auch hier ist trotz etlicher Startschwierigkeiten der nächste Entwicklungsschritt schon abzusehen: die Verbindung von Handy und Internet. Telefonieren und Surfen aus (oder vielmehr in) einer Hand, mit zahlreichen Features angereichert, soll die Richtung sein, in die es geht. „Fernsehen am Handy“ geistert hier immer wieder durch die Medien, und auch wenn nicht alles so kommen wird, wie es zu lesen ist – ein Teil davon wird wohl eintreffen. In jedem Fall wird es nicht mehr entscheidend sein, ob man Zugang zur vernetzten Welt hat (das wird genauso selbstverständlich sein wie der Strom aus der Steckdose), sondern wie man Zugang erhält – ob mittels Kabel, WLAN oder Mobilfunk. Im Bereich der Uni Wien ist der ZID bemüht, das Netzwerk in diesem Sinn zu betreiben und allen Universitätsangehörigen weiterhin einen schnellen, verlässlichen und sicheren Weg in die digitale Welt zu bieten. Ulrich Kiermayr I Comment 06 /3 • Um innerhalb der Universität auch Notebook-Benutzern eine Netzwerkanbindung zur Verfügung stellen zu können, baut der ZID die Versorgung mit WLAN (Wireless Local Area Network, siehe www.univie.ac.at/ZID/ wlan/ bzw. Artikel auf Seite 22 und 24) laufend aus. Derzeit bieten ca. 250 Accesspoints an fast allen Standorten der Universität einen kostenlosen Internetzugang für Studierende und MitarbeiterInnen. Besonderes Augenmerk beim WLAN-Ausbau liegt auf jenen Bereichen, die von Notebook-BenutzerInnen häufig besucht werden – z.B. Bibliotheken, Seminarräume, Aufenthaltsbereiche, aber auch zum Teil die Mensen oder die Höfe des Universitätscampus AAKH. Aufgrund ihrer Größe wird es zwar kaum realisierbar sein, die gesamte Universität flächendeckend mit Funknetzen zu versorgen (dafür wären tausende Accesspoints erforderlich), aber die Netzabdeckung Schritt für Schritt zu erhöhen, ist ein Projekt, das uns noch einige Jahre begleiten wird. 21 22 Netzwerk- & Infodienste WLAN: FUNKNETZ-AUSBAU AN DER UNI WIEN In den letzten Jahren hat der wireless Internetzugang, die drahtlose Einwahl mit dem Computer in das Netz, zunehmend an Bedeutung gewonnen. Sowohl in Firmen als auch im privaten wie im Bildungsbereich wurden diese Internetzugänge massiv ausgebaut, d.h. auf Funkverbindungen umgerüstet, und immer größere Bereiche wurden mit WLAN (Wireless Local Area Network) abgedeckt bzw. traditionelle (verkabelte) Verbindungen ersetzt. Zu den wichtigsten Gründen hierfür zählen: • Mobilität der BenutzerInnen: Der standortunabhängige Internetzugang wird immer wichtiger. Die Möglichkeit zur Einwahl in das Internet soll überall verfügbar und einfach zu verwenden sein. • Abdeckung unzugänglicher Bereiche: Mit WLAN können nun auch jene Bereiche abgedeckt werden, die mit einer Verkabelung nur schwer erreichbar sind (Freiflächen, spezielle Räume wie z.B. Altbau, denkmalgeschützte Gebäude etc.). • Geringerer Zeit- und Kostenaufwand: Die Planung, Verkabelung und Montage eines Accesspoints1) nimmt deutlich weniger Arbeitszeit und Installationskosten in Anspruch als die vollständige Verkabelung eines Raumes, insbesondere wenn es sich dabei um einen Raum mit stark wechselnder Nutzung wie z.B. ein Besprechungszimmer handelt. Dennoch werden fixe Arbeitsplätze auch weiterhin mit Kabel versorgt werden, da WLAN trotz aller Vorteile nicht die Stabilität und Geschwindigkeit einer verkabelten Verbindung bieten kann. An der Uni Wien wurden in den letzten Jahren sowohl die flächenmäßige Abdeckung des WLAN-Zuganges erweitert als auch viele Verbesserungen im Bereich der Funktionalität geschaffen. So wurden in den letzten drei Jahren Comment 06 /3 1) Accesspoint = Zugangspunkt, der die Verbindung (Brücke) zwischen WLAN (Wireless Local Area Network: Funknetzwerk) und LAN (Local Area Network: verkabeltes Netzwerk) herstellt 2) siehe Artikel Datentankstelle802.1X – Ein verschlüsseltes Funknetz für die Uni Wien in Comment 06/1, Seite 54 bzw. unter www. univie.ac.at/comment/06-1/061_54.html sowie Artikel Education Roaming – Freier WLAN-Zugang für Uni-Angehörige im eduroam-Verbund in Comment 06/1, Seite 53 bzw. unter www. univie.ac.at/comment/06-1/061_53.html 3) siehe Artikel Education Roaming – Freier WLAN-Zugang für UniAngehörige im eduroam-Verbund in Comment 06/1, Seite 53 bzw. unter www.univie.ac.at/comment/06-1/061_53.html 4) 802.1X = auf dem RADIUS-Protokoll basierender IEEE-Standard für Benutzerauthentifizierung und -accounting, der hauptsächlich im WLAN-Bereich eingesetzt wird • die verfügbaren Accesspoints mehr als verzehnfacht (deren Anzahl ist von 20 Stück im Jahr 2003 auf derzeit über 250 Stück gewachsen), • immer mehr Universitätsgebäude mit flächendeckender WLAN-Versorgung ausgestattet statt nur mit einzelnen Hotspots (z.B. in einem Hörsaal) versehen und • verschiedene Netze (Datentankstelle, Datentankstelle802.1X, eduroam und eduroamWeb) 2) nebeneinander aufgebaut, die gemeinsam mehr bzw. unterschiedliche Funktionalitäten und Sicherheit für verschiedene Benutzergruppen bieten. Neuerungen beim WLAN-Service Im Folgenden wird auf die Umbauten beim WLAN-Service (ehemals Wireless PNS, Wireless Public Network Services) in den letzten Monaten an der Universität Wien und die damit entstandenen Veränderungen für BenutzerInnen näher eingegangen. An folgenden Standorten wurden erst kürzlich WLANAccesspoints errichtet: Vollversorgung: • Zentrum für Translationswissenschaften (1190 Wien, Gymnasiumstraße 50) • Zentrum für Sportwissenschaften, USZ II (1150 Wien, Auf der Schmelz 6a / Possingergasse) • In Zusammenarbeit mit der Leitung der Universitätsbibliotheken wurde darüber hinaus auch der Großteil der Bibliotheksstandorte voll mit WLAN-Accesspoints versorgt. Teilversorgung (Hörsäle): • Universitätshauptgebäude (1010 Wien, Dr.-Karl-Lueger-Ring 1) • Zentrum für Sportwissenschaften, USZ I (1150 Wien, Auf der Schmelz 6) • Neues Institutsgebäude / NIG (1010 Wien, Universitätsstraße 7) Ein neues Funknetz Zusätzlich zum 802.1X-Netz (eduroam) 3) ist seit einigen Wochen auch das eduroamWeb-Netz verfügbar. Dieses bietet – wie eduroam – Internetzugang für MitarbeiterInnen und Studierende jener Universitäten, die am internationalen eduroam-Projekt teilnehmen. Allerdings ist eduroamWeb unverschlüsselt und die Authentifizierung erfolgt über eine Webseite anstatt über 802.1X 4). Dieses Netz kann daher auch mit älteren Betriebssystemen (z.B. Windows 95/98) bzw. bei Problemen mit 802.1X verwendet werden. Netzwerk- & Infodienste 23 Benutzerfreundlicher Zugang Aufgrund der großen Anzahl an Accesspoints wird seit etwa drei Monaten ein WLAN Management System eingesetzt, das Neuerrichtungen, Konfigurationsänderungen und Fehleranalysen deutlich vereinfacht und damit eine bessere Verfügbarkeit und Stabilität der Funknetze garantieren soll. Für die BenutzerInnen sind im Zuge dessen folgende positive Änderungen entstanden: • Die neue Login-Webseite (Datentankstelle, eduroamWeb) hat sich nicht nur im Design verbessert, sondern ermöglicht auch eine kontinuierliche WLAN-Nutzung über einen beliebigen Zeitraum hinweg, anstatt der bisherigen fixen Nutzungsintervalle von 1, 2 oder 8 Stunden (nach dieser Zeit wurden die BenutzerInnen automatisch ausgeloggt). • Weiters hat sich die Roaming-Funktionalität 5) verbessert. Standort- und Accesspoint-Wechsel bei laufender Verbindung ist jetzt an der gesamten Universität möglich, solange die Funkwolke nicht vollständig verlassen wird. Stichwort Wireless Security Parallel zu dem Ausbau bzw. zu der stärkeren Verwendung der WLAN-Netze wird auch das Thema Wireless Security immer wichtiger. Wie auch verkabelte Netze sind Funknetze permanent Hacker-Attacken ausgesetzt und müssen gegen unrechtmäßigen Zugriff und Missbrauch geschützt werden. Hier ein kurzer Auszug von WLAN-spezifischen Attacken: • Deauthentication Flooding: Der Angreifer sendet gefälschte Deauthentifizierungs-Pakete 6) entweder an den Accesspoint oder an den Klienten und beendet damit die Verbindung zwischen diesen beiden. Bei regelmäßiger Wiederholung dieses Angriffs hat der Klient keine Möglichkeit, eine funktionierende Verbindung zustande zu bringen. • AP Impersonation / Honeypot AP / MITM 9): Der Angreifer betreibt einen Accesspoint mit derselben MACAdresse10) und identischem WLAN-Netz wie der legitime Accesspoint. Klienten, die zwischen diesen beiden nicht unterscheiden können, verbinden sich eventuell mit dem falschen Accesspoint. Der Angreifer kann somit falsche Login-Seiten vortäuschen und/oder im schlimmsten Fall Benutzeraccounts und -daten mitlesen. und andere WLAN-basierte Geräte, z.B. Bluetooth WLAN-Beamer 11) verwenden dieselben Funkfrequenzen wie WLAN-Accesspoints (802.11b/g-Standard 12) ). Da es laut Standard nur drei nicht überlappende Funkfrequenzen gibt und oft bereits zwei oder drei Accesspoints in einem Bereich funken, kann der zusätzliche Einsatz von WLAN-Beamern zu störenden Interferenzen führen. Sowohl die Funknetze der Universität Wien als auch die Übertragung zum Beamer können dadurch an Geschwindigkeit verlieren bzw. die Verbindung sogar abbrechen. Aus diesem Grund bittet der ZID alle Institute, die über die Anschaffung von WLAN-Beamern nachdenken, um Kontaktaufnahme mit dem ZID unter [email protected], um Probleme dieser Art schon vor der Errichtung zu besprechen und sofern möglich zu vermeiden. Hier sind nicht nur Internet-Banking oder ähnlich sensible Anwendungen gefährdet – auch Mailverkehr, Online-Einkäufe oder einfach das Surfverhalten eines Benutzers könnten für einen Angreifer interessant sein. Wenn auch solche Attacken nicht einfach durchzuführen bzw. nicht mit fertigen Tools oder Programmen ohne spezielles Wissen möglich sind, sollte sich trotzdem jeder Benutzer, der sich in ein Funknetz einwählt, dieses Risikos bewusst sein. Die Universität Wien bietet mit der Datentankstelle802.1X und eduroam zwei verschlüsselte, relativ 5) Roaming = Wechsel des Verbindungsanbieters (Betreiber, Funkstation, Accesspoint, …) bei laufender Verbindung 6) Deauthentification = Beendigung der Authentifizierung 7) Assoziierung = erstmaliges Herstellen der Verbindung mit einem Accesspoint 8) Klienten-Tabelle = lokale Tabelle mit allen momentan verbundenen Geräten 9) MITM (Man In The Middle) = ein Angriff, bei dem versucht wird, Teil einer Verbindung zu werden, um Daten zu lesen, zu löschen oder zu verändern 10) MAC-Adresse (Media Access Control ) = Hardware-Adresse jeder einzelnen Netzwerkkarte bzw. jedes einzelnen WLAN-USB-Adapters, die zur eindeutigen Identifikation des Geräts im Netzwerk dient 11) Ein WLAN-Beamer ermöglicht die drahtlose Datenübertragung und Wiedergabe von Computerinhalten zum Projektor über ein Funknetzwerk. 12) 802.11b/g = IEEE-Standard für Funknetze im 2,4 GHz-Bereich, inkl. z.B. möglicher Frequenzkanäle Comment 06 /3 • Association Flooding: Der Angreifer schickt Assoziierungs-Pakete 7) an den Accesspoint, um dessen KlientenTabellen 8) zu füllen. Wenn die Attacke erfolgreich ist, hat der Accesspoint viele „sinnlose“ Klienten in seiner Tabelle und kann keine weiteren (wenn auch legitimen) Verbindungen akzeptieren. Ausbaurichtlinien für WLAN-Beamer 24 Netzwerk- & Infodienste sichere Netze an. Sofern möglich, sollten diese gegenüber der Datentankstelle oder eduroamWeb bevorzugt verwendet werden. Anleitungen zum Konfigurieren der Datentankstelle802.1X für Windows XP und Mac OS X finden Sie unter www.univie.ac.at/zid/anleitungen-wlan/. Alle BenutzerInnen, die bei der Durchführung einer Attacke identifiziert werden, sowie BenutzerInnen mit virenverseuchten Computern bzw. Notebooks „VERSTRAHLTE “ werden vom ZID für den Zugang zum WLAN gesperrt. Falls Ihr Account im WLAN-Netz der Universität Wien nicht mehr funktionieren sollte, wenden Sie sich bitte an den Helpdesk des ZID, um Funktionsstörungen bzw. Sperren zu beheben: NIG (1010 Wien, Universitätsstraße 7), Stg. II, 1. Stock eMail: [email protected] Telefon: +43-1-4277-14060 Daniel Schirmer I UNIVERSITÄT ? WLAN und Elektrosmog Wenn im Alltag von „Elektrosmog“ gesprochen wird, sind meist technisch – d.h. durch elektrische Geräte, Leitungen und Sender – erzeugte elektrische und magnetische Felder gemeint. International gebräuchlich ist der Ausdruck EMF, elektromagnetische Felder. Grundlagen Comment 06 /3 Jede Anwendung von Elektrizität, wie z.B. das Stromversorgungsnetz oder Mobilfunk, erzeugt Felder und führt so zu Elektrosmog. Man unterscheidet zwischen Gleich- und Wechselfeldern. Felder lassen sich durch ihre Stärke (Amplitude) beschreiben; bei Wechselfeldern ist zusätzlich die Schwingung (Wellenlänge) sowie die Schwingungszahl (Frequenz) charakteristisch. Die Erde ist von natürlichen elektrischen und magnetischen Feldern umgeben. Das tech- Abb. 1: Frequenzbereiche elektromagnetischer Felder nologische Eingreifen durch den Menschen seit dem Ende des 19. Jahrhunderts bewirkt, dass die Erde nun auch von künstlichen elektromagnetischen Feldern umgeben ist. • Gleichfelder (oder statische Felder) werden beispielsweise durch Batterien oder elektrostatische Aufladungen produziert. Sie haben eine im Wesentlichen zeitlich konstante Stärke. • Bei Wechselfeldern dagegen, wie sie z.B. im öffentlichen Stromnetz auftreten, ändern sich Polarität und Stärke periodisch: Sie schwingen mit einer bestimmten Frequenz (siehe Abb. 1). Abhängig von ihrer jeweiligen Frequenz haben die von Wechselfeldern ausgehenden elektromagnetischen Felder entsprechende Wellenlängen: Je höher die Frequenz, desto kürzer die Wellenlänge. Elektromagnetische Felder breiten sich also als Welle frei im Raum Netzwerk- & Infodienste aus. Aus praktischen Gründen werden Wechselfelder in nieder- und hochfrequente eingeteilt. Während niederfrequente Wechselfelder (bis 30 kHz) in sämtliche Stoffe relativ tief eindringen können, können hochfrequente Wechselfelder in Abhängigkeit von ihrer Frequenz nur bis zu einer gewissen Tiefe (wenige Zentimeter bis Millimeter) in diese Stoffe – z.B. in den menschlichen Organismus – eindringen. Niederfrequente Wechselfelder (bis 30 kHz) Bis zu einer Frequenz von 30 kHz (das sind Wellenlängen von 10 km und mehr) spricht man von „niederfrequenten Wechselfeldern“. Vereinfacht ausgedrückt gilt: Wo Spannung ist, ist ein elektrisches Feld – und wo Strom ist, ist ein magnetisches Feld. Sobald z.B. eine (ausgeschaltete) Schreibtischlampe an eine Steckdose angesteckt wird, erzeugt die nun anliegende, mit 50 Hz wechselnde Spannung des öffentlichen Stromversorgungsnetzes ein elektromagnetisches Wechselfeld. Schaltet man die Lampe ein, bringt der im Kabel der Lampe fließende Strom die Glühbirne zum Leuchten, die Stärke des elektromagnetischen Wechselfeldes wird durch den Stromfluß erhöht. Typische Verursacher von niederfrequenten elektromagnetischen Wechselfeldern im täglichen Leben sind z.B. EHerd, Haarfön, Lampen, Strominstallationen in Gebäuden oder Oberleitungen bei Eisenbahn bzw. Straßenbahn. Hochfrequente Wechselfelder (30 kHz bis 300 GHz) Bei Frequenzen zwischen 30 kHz und 300 GHz spricht man von „hochfrequenten Wechselfeldern“ bzw. nicht ionisierender Strahlung. Dies entspricht Wellenlängen von 10 km bis hin zu 1 mm. Hochfrequente elektromagnetische Felder werden zum Beispiel bei Radio und Fernsehen, Mobilfunk, WLAN, Bluetooth, Rettungs-, Betriebs- und Taxifunk oder funkbasierten Diebstahlsicherungen genutzt. Die für Handy, Bluetooth, Mikrowelle und WLAN verwendeten Frequenzen umfassen den Bereich von ca. 1 GHz bis 3 GHz; das bedeutet Wellenlängen im Bereich von 30 cm bis 10 cm. Die erwähnten lokalen Unterschiede in der Feldstärke können daher auch in diesen kleinen Dimensionen beträchtlich sein. Weiterführende Informationen • Informationsstelle zum Thema WLAN & Elektrosmog: Zentraler Informatikdienst der Universität Wien (Kontakt: [email protected]) • Informationsstelle zum Thema Elektrosmog & gesundheitliche Beeinträchtigungen: Abteilung für Arbeitnehmerinnen- und Arbeitnehmerschutz (ANS) des Raum- und Ressourcenmanagements (www.univie.ac.at/ANS/) bzw. Arbeitsmediziner der Uni Wien (über ANS erreichbar) • Broschüre Elektromagnetische Felder der AUVA: erhältlich in der Abteilung für Arbeitnehmerinnen- und Arbeitnehmerschutz, auch als PDFDatei verfügbar • ÖNORM S 1119: Grenzwerte für niederfrequente elektrische und magnetische Wechselfelder (www. ove.at) • ÖVE/ÖNORM 8850: Grenzwerte für hochfrequente elektromagnetische Wechselfelder (www.ove.at) • Elektrosmog auf Wikipedia: http://de. wikipedia.org/wiki/Elektrosmog • Informationsplattform zum Thema EMF der Forschungsstiftung Mobilkommunikation, ETH Zürich: www.emf-info.ch (alltägliche Belastung leicht verständlich aufbereitet – sehr empfehlenswert für Neueinsteiger) • Deutsches Mobilfunk-Forschungsprogramm: www.emf-forschungsprogramm.de • Moser, Rolf: Das Handyhandbuch, Verlag der Grünen Bildungswerkstatt OÖ, ISBN 3-902009-25-X (kostenloser Download unter www.ooe.gbw.at/ verlag/vorschau/das-handyhandbuch-neu/) • Grasberger, Th. und Kotteder, F.: Mobilfunk – Freilandversuch am Menschen, Kunstmann (2003), ISBN 3-88897-328-7 Strahlung (über 300 GHz) Über einer Frequenz von 300 GHz spricht man von Strahlung. Die Wellenlängen betragen hier weniger als einen Millimeter. In diese Kategorie fallen das sichtbare Licht und die so genannte ionisierende Strahlung, z.B. Röntgen- und Gammastrahlung. Ionisierende Strahlung wird heute unter anderem für die Sterilisation von Geräten, Implantaten oder Lebensmitteln eingesetzt, aber auch für die Strahlentherapie in der Krebsbekämpfung. Comment 06 /3 Wechselfelder in diesem Frequenzbereich werden grundsätzlich schwächer, je größer der Abstand zur Quelle ist. Aufgrund ihrer relativ kurzen Wellenlänge nimmt die Intensität der Strahlung – infolge von Reflexionen und Interferenzen bzw. Abschirmungen – jedoch nicht immer gleich mit der Entfernung ab: Einerseits können im Raum Schwingungsknoten mit wesentlich stärkeren Feldstärken beobachtet werden, andererseits können aber auch Punkte im Raum mit wesentlich schwächeren Feldstärken beobachtet werden. Hier lässt sich ohne spezielle Computerprogramme bzw. Messungen vor Ort keine genaue Vorhersage über mögliche Feldstärken treffen. 25 26 Netzwerk- & Infodienste Messverfahren für Elektrosmog Zur Festlegung von offiziellen Grenz- und Richtwerten (siehe Tabelle unten) werden folgende Messverfahren herangezogen: Stromdichtemessung Bei niederfrequenter Strahlung bis 30 kHz wird zur Ermittlung von Grenzwerten die Änderung der Stromdichte im Körper gemessen. Niederfrequente magnetische Wechselfelder induzieren bei geeigneter Stärke einen elektrischen Stromfluss im Körper. Niederfrequente elektrische Wechselfelder bewirken durch Ladungsverteilung einen elektrischen Stromfluss im Körper. Die Grenzwerte werden für das magnetische Wechselfeld in Tesla (T) bzw. für das elektrische Wechselfeld in Volt pro Meter (V/m) angegeben. Spezifische Absorptionsrate (SAR) Das thermische Wirkungsmodell ist die Grundlage der gesetzlichen Grenzwerte für hochfrequente elektromagnetische Wechselfelder (nicht ionisierende Strahlung). Diese beziehen sich daher nur auf die thermischen Effekte, also auf Gewebeerwärmungen durch Strahlungsabsorption. Comment 06 /3 In den Körper eindringende, nicht ionisierende Strahlung kann ab einer bestimmten Stärke das Gewebe erwärmen und es dadurch schädigen. Es wird davon ausgegangen, dass dafür eine bestimmte Zeit notwendig ist. Daher werden zur Einschätzung der biologischen Wirkungen nicht die für Sekundenbruchteile auftretenden Spitzenwerte herangezogen, sondern die über ein bestimmtes Zeitintervall gemittelten Leistungsflussdichten. Man unterscheidet zwischen Ganzkörper-SAR und Teilkörper-SAR (kleinerer Gewebebereich, z.B. Kopf). Die SAR wird in Watt pro Kilogramm (W/kg) angegeben. In Österreich gelten für elektromagnetische Felder ebenfalls die Grenzwerte der Weltgesundheitsorganisation (WHO). So wurde z.B. als SAR im Umfeld von Handymasten 0,08 W/kg für den ganzen Körper und als SAR beim Telefonieren mit dem Handy 2 W/kg für den Kopf als betroffenen Teilbereich des Körpers festgesetzt. Leistungsflussdichte (abgeleiteter Grenzwert) Die Leistungsflussdichte beschreibt die Intensität der Strahlung. Sie gibt an, wie viel Energie mit Hilfe elektromagnetischer Wellen durch den Raum transportiert wird. Als Einheit der Leistungsflussdichte wird Watt pro Quadratmeter (W/m2 ) verwendet; häufig wird auch Milliwatt pro Quadratmeter (mW/m2 ) bzw. Mikrowatt pro Quadratmeter (µW/m2 ) als Einheit angegeben (1 W = 1000 mW; 1 mW = 1000 µW). Da die Ermittlung der SAR-Basisgrenzwerte in der Praxis sehr aufwendig ist, wurden so genannte „abgeleitete Grenzwerte“ zur einfachen Messung der elektromagnetischen Felder entwickelt. Aus den SAR-Basisgrenzwerten und unter Berücksichtigung eines Sicherheitsfaktors von 50 ergeben sich folgende frequenzspezifischen Grenzwerte: • UMTS: 10 W/m2 • GSM 1800 MHz: 9 W/m2 • GSM 900 MHz: 4,5 W/m2 Diese abgeleiteten Grenzwerte stellen sicher, dass die Basisgrenzwerte (SAR) nicht überschritten werden, d.h. Bei hochfrequenter Strahlung zwischen 30 kHz und dass die Erwärmung des Kopfes beim Telefonieren mit 300 GHz wird daher die spezifische Absorptionsrate dem Handy 0,1° C nicht übersteigt. (SAR) des gesamten Organismus bzw. des Kopfes ermittelt. Die SAR gibt an, wie viel elektromagnetische Energie vom Körper in Grenz- und Richtwerte mW/ m2 äußeren Feldern aufgenommen und in ICNIRP/WHO/EU-Ratsempfehlung (1800 MHz, z.B. GSM) 9000 * Wärme umgewandelt wird. Über einer Frequenz von 30 kHz treten die MoleDeutschland (1800 MHz, z.B. GSM) 9000 küle des Organismus mit den Wellen Österreich-ÖNORM S 1120 (900 MHz / 1800 MHz, z.B. GSM) 6000 / 10 000 der äußeren Felder in Resonanz und Russland (Summe Hochfrequenz) 100 beginnen zu schwingen bzw. zu rotieren. Dies erzeugt einen Wärmeeffekt Wien (Gemeindebauten Summe GSM, Innen und Außen) 10 * im Organismus, der heute als Basis für Salzburger Vorsorgewert 1998 (Summe GSM Außen) 1* Grenzwerte der Weltgesundheitsorganisation (WHO), der Internationalen Salzburger Vorsorgewert 2002 (Summe GSM Außen) 0,01 * Kommission zum Schutz vor nicht ioniSalzburger Vorsorgewert 2002 (Summe GSM Innen) 0,001 * sierender Strahlung (ICNIRP) und auch der Europäischen Union herangezogen Grenz-/Richtwerte für hochfrequente elektromagnetische Wechselfelder (Mobilfunk) * = Richtwerte wird. Netzwerk- & Infodienste Wirkungen auf den Körper Elektrosensibilität Prinzipiell muss zwischen thermischen und nichtthermischen Wirkungen bzw. Effekten unterschieden werden: Unter Elektrosensibilität versteht man das Auftreten von mindestens einem psychischen und/oder physischen Symptom (z.B. Kopfschmerzen, Schlafstörungen, Konzentrationsschwächen, Veränderungen von Blutdruck und Herzschlag etc.), verursacht durch diverse elektromagnetische Felder. Ursachen dieser Belastungen können elektromagnetische Felder sein (ausgehend von Mobilfunk, Radio- und Fernsehsendern, Mikrowellengeräten), aber auch niederfrequente elektrische und magnetische Wechselfelder, wie sie im Haushalt oder in der Nähe von Trafo-Stationen und Fernleitungen vorkommen. Die Anzahl von elektrosensiblen Personen wird in manchen Studien mit bis zu 6% angegeben. Für dieses Krankheitsbild gibt es zwei Erklärungsmodelle: • Unter thermische Effekte fallen Gewebeerwärmungen durch Strahlungsabsorption, wie wir sie auch von der Infrarotstrahlung durch die Wärmeempfindung anschaulich kennen. • Beeinflussungen des Organismus wie z.B. Beeinflussung des Herz-/Kreislaufsystems oder der biologischen Ströme (Nervensystem, Gehirn) werden den nichtthermischen Wirkungen zugerechnet. Das thermische Wirkungsmodell bildet die Grundlage der gesetzlichen Grenzwerte für hochfrequente elektromagnetische Wechselfelder. Nichtthermische Wirkungen werden nicht berücksichtigt. Zahlreiche Wissenschaftler sind jedoch der Ansicht, dass Auswirkungen der Strahlung auf den Körper schon weit unterhalb der thermischen Grenzwerte möglich sind. Sie fordern daher die Einführung von „Vorsorgewerten“, die deutlich unter den gesetzlichen Grenzwerten liegen (siehe Kasten Messverfahren für Elektrosmog auf Seite 26). Die wissenschaftliche Diskussion über dieses Thema ist auch nach Jahren noch nicht abgeschlossen. Es gibt zwar unzählige Beobachtungen, Arbeiten und Studien, die über mögliche Gesundheitsrisiken und Befindlichkeitsstörungen berichten, aber keine wissenschaftlich abgesicherten Daten über eine konkrete Gesundheitsgefährdung durch schwache hochfrequente Strahlung. Dennoch warnte die Ärztekammer im Jahr 2005 vor einem unkontrollierten Gebrauch von Handys durch Kinder (basierend auf der REFLEX-Studie – Näheres dazu siehe z.B. http://www. aekwien.at/media/REFLEX_Vortrag.pdf). Folgende nichtthermische Wirkungen werden unter anderem vermutet: • Effekte auf das genetische Material (chromosomale Schäden, Tumorentstehung); • neurologische Symptome und EEG(Hirnstromaktivität)Veränderungen; • Blutdruckveränderungen; • Verhaltensstörungen, Schlafstörungen, Kopfschmerzen, Müdigkeit, Tinnitus, Änderung der kognitiven Funktionen1); • übersteigerte Empfindlichkeit gegenüber elektromagnetischen Feldern („Elektrosensibilität“). 2) Wolf C., Barth A.: Befindlichkeitsstörungen ohne Befund – moderne Symptome, Internist 43: 833 (2002) 3) Krause et al. 2000: Effects of electromagnetic field emitted by cellular phones on the EEG during a memory task, Neuroreport 11(4), 761– 764 • Elektrosensibilität ist tatsächlich vorhanden Ursache der Elektrosensibilität ist demnach ein bis jetzt noch nicht entdeckter „bioelektrischer“ Mechanismus. Vertreter dieses Modells empfehlen daher eine Expositionsreduktion (Isolierung von Elektrokabeln, Installation von Netzfreischaltern, Abschirmungen u.Ä.). • Elektrosensibilität als psychologisches Phänomen Die Beschwerden als solche werden zwar nicht bezweifelt, sehr wohl aber ihre Auslösung durch elektromagnetische Felder. Ausgehend von Symptomen, für die die Betroffenen keine einleuchtende medizinische Erklärung und/oder Therapie erhalten, entwickelt sich stufenweise ein Zustand, in dem bei jedem Auftreten von Beschwerden elektromagnetische Felder gesucht und als Auslöser identifiziert werden.2) Wegen des großen öffentlichen Interesses wurde im Februar 2004 von Infrastrukturminister Hubert Gorbach der Wissenschaftliche Beirat Funk (WBF) eingerichtet. Dieser sollte als erstes die weltweit vorliegenden Studien zum Thema Mobilfunk und Gesundheit kritisch durchleuchten. Das Ergebnis: Es sind sehr wohl Effekte feststellbar, doch in keiner Studie konnte ein schädlicher oder gar krankmachender Effekt nachgewiesen werden (z.B. wurden EEGVeränderungen während des Handy-Telefonierens zwar beobachtet, aber als nicht schädlich eingestuft). 3) E-Smog durch WLAN an der Universität Wien? Der ZID wurde im Zuge des Ausbaus der WLAN-Infrastruktur an der Uni Wien (WLANs = Wireless Local Area Networks, lokale Funknetzwerke) verstärkt mit dem Thema Elektrosmog konfrontiert: Von einigen UniversitätsmitarbeiterInnen wurde eine ernst zu nehmende, von den Accesspoints ausgehende Strahlenbelastung befürchtet. Daher entschloss sich der Zentrale Informatikdienst, sich mit der Thematik genauer auseinanderzusetzen und eine entsprechende Arbeitsgruppe ins Leben zu rufen – gemeinsam mit der Abteilung für Arbeitnehmerinnen- und Arbeitnehmerschutz des Raum- und Ressourcenmanagements unter der Leitung von Comment 06 /3 1) Anmerkung: Diese Symptome, wie auch die oben genannten Blutdruckveränderungen, werden mittlerweile bei den verschiedensten Krankheitsbildern angeführt – z.B. bei Elektrosensibilität oder auch bei diversen Umweltkrankheiten wie Chemikalienunverträglichkeiten. 27 28 Netzwerk- & Infodienste Mag. Martina Kaburek (www.univie.ac.at/ ANS/ ) und den für die Universität Wien zuständigen Arbeitsmedizinern Dr. Clemens Becsi und Dr. Beata Lutomska-Kaufmann von der TeamPrevent GmbH (siehe www. teamprevent.at). Medizinische Beurteilung Quelle Frequenzbereiche Maximal zulässige Sendeleistung Mindestabstand Basisstation Mobilfunk 900 MHz / 1800 MHz bis 50 W / 20 W 2,5 m Handy 900 MHz / 1800 MHz bis 2 W / 1 W keiner Bluetooth 2,4 GHz bis 1 mW / 2,5 mW / 100 mW keiner DECT (Schnurlostelefon) 1880 MHz bis 250 mW keiner WLAN 2,4 GHz / 5 GHz bis 100 mW / 1 W keiner WLAN – Uni Wien / ZID 2,4 GHz / 5 GHz 1 mW * keiner Tabelle 1: Maximal zulässige Sendeleistungen in Österreich (* Bei manchen technisch schwierig zu versorgenden Außenbereichen muss die maximale Sendeleistung von 1 mW überschritten werden.) Es gibt mittlerweile zahlreiche nationale und internationale Studien über die Wirkung von hochfrequenten elektromagnetischen Wechselfeldern. Bei allen diesen Studien steht die Frage im Vordergrund, ob Mobilfunk (z.B. GSM, UMTS) ein Gesundheitsrisiko darstellt. Zum Thema WLAN liegen jedoch noch keine Wirkungsdaten vor. Eine medizinische Beurteilung kann daher nur anhand von Analogieschlüssen mit dem GSM-Netz erfolgen. Comment 06 /3 Bei WLAN-Netzen wird, analog zu den GSM-Basisstationen, über einen Accesspoint ständig gepulste Strahlung ausgesandt. Der Nutzer und seine Umgebung sind über die Sendeantenne des Notebooks einer näheren und damit stärkeren Strahlenexposition ausgesetzt. Die stärkste Belastung liegt also bei Benutzung des Notebooks vor (wie im GSM-Netz beim Telefonieren mit dem Handy) und erfolgt nur während der Nutzdatenübertragung. Dauersendende Mobilfunk-Basisstationen sind beim GSM-Netz in der Regel weiter weg und außerhalb des Gebäudes, wobei allerdings immer mehr Mikrozellen zur lückenlosen Versorgung in Gebäuden (z.B. in Tiefgaragen) zum Einsatz kommen. WLAN arbeitet im Frequenzbereich von 2400–2483,5 MHz. GSM arbeitet in den Frequenzbereichen 1710 –1785 MHz (uplink) und 1805 –1880 MHz (downlink). Die maximal zulässige EIRP (= äquivalente isotrope Strahlungsleistung: Sender-Ausgangsleistung plus Berücksichtigung der Antennenrichtwirkung) für WLAN im Frequenzbereich von 2400 –2483,5 MHz beträgt in Österreich 100 mW. Als Reichweite werden in den Produktbeschreibungen – bei Einhaltung von 100 mW EIRP – je nach Datenübertragungsrate für Innenräume etwa 25–50 m und für das Freie etwa 150 –550 m angegeben. In der Praxis liegen die Expositionen in Innenräumen etwa im Bereich von 0,0001 mW/m2 bis 1 mW/m2; es treten natürlich auch höhere und tiefere Werte auf. Die maximal zulässige Leistung der WLAN-Geräte liegt allerdings mit 100 mW deutlich unter der Maximal- leistung von Handys, die in Österreich bei GSM 1800 MHz bis zu 1 W betragen darf (siehe Tabelle 1). Dafür senden diese wiederum leistungsgeregelt, d.h. nur während des Gebrauchs und nur in der jeweils erforderlichen Intensität. Bewertung des ZID Auf die Auswertung des aktuellen Stands der Wissenschaft bzw. Medizin folgte am ZID die Erkenntnis, dass das Thema „WLAN und E-Smog“ umfassend und mit Bedacht behandelt werden muss: Ob und welche Risiken von einer möglichen Elektrosmog-Belastung durch WLAN ausgehen, kann derzeit nicht endgültig beantwortet werden. Selbst die aktuellen Grenzwertempfehlungen namhafter Wissenschaftler reichen von 0,001 mW/m2 bis 10 W/m2 (siehe Tabelle 2). Daher entschloss sich der ZID, das Vorsorgeprinzip anzuwenden und alles zu tun, um die von den Accesspoints ausgehende Strahlenbelastung möglichst gering zu halten. Dies erreichen wir durch eine Beschränkung der maximalen Sendeleistung der Accesspoints auf 1 mW. Eine mögliche Elektrosmog-Belastung an Dauerarbeitsplätzen kann zusätzlich durch sorgfältige Wahl des Aufstellungsortes (Einhaltung eines möglichst großen Abstands zu Dauerarbeitsplätzen, Ausnutzung der abschirmenden Wirkung von Gebäudeteilen wie Wände oder Glasscheiben) vermindert werden. Durch sorgfältige Festlegung der Strategie, welche Bereiche mit WLAN versorgt werden sollen, ist ebenfalls eine Senkung der E-Smog-Belastung für die UniversitätsmitarbeiterInnen möglich. So könnten z.B. Notebooks an Dauerarbeitsplätzen anstatt über WLAN weiterhin über die Netzwerkverkabelung angebunden werden. In Aufenthaltsbereichen – speziell solchen für Studierende – oder Besprechungsräumen ist eine WLAN-Versorgung hingegen durchaus sinnvoll. Die Initiative zur Errichtung einer solchen Infrastruktur muss allerdings von der jeweiligen Organisa- Experte Institution Grenzwertempfehlung Prof. Dr. Robert Wana Wissenschaftlicher Beirat Funk (WBF) 10 W/m2 (ÖVE/ÖNORM 8850) DI Dr. Hans-Peter Hutter Institut für Umwelthygiene (Medizinische Universität Wien) 1 mW/m2 Dr. Gerd Oberfeld Landessanitätsdirektion Salzburg 0,001 mW/m2 (Salzburger Vorsorgewert) Tabelle 2: Von namhaften Experten im Juni 2006 empfohlene Grenzwerte für Belastungen durch elektromagnetische Wechselfelder Netzwerk- & Infodienste tionseinheit der Uni ver sität Wien ausgehen (wenden Sie sich dazu bitte per eMail an netzwerk.zid@univie. ac.at). Fazit Quelle Exposition Mittelwert Exposition Spitzenwert WLAN – Uni Wien / ZID, 1 m 0,047 mW/m2 0,14 mW/m2 WLAN – Uni Wien / ZID, 3 m 0,038 mW/m2 0,26 mW/m2 WLAN – Uni Wien / ZID, 5 m 0,018 mW/m2 0,169 mW/m2 Notebook, 60 cm Abstand 0,0014 mW/m2 0,082 mW/m2 Handy Nokia 6210, 2 m, Verbindungsaufbau 1,2 mW/m2 > 20 mW/m2 29 Handy Nokia 6210, 2 m, Gespräch 1,8 mW/m2 2,8 mW/m2 Bei der Abwägung möglicher Risiken gegen den Nutzen moTabelle 3: Tatsächliche Belastungen ausgehend von aktiven Komponenten, gemessen im Juni 2006 biler Technologien hat sich am ZID der Universität Wien (verwendetes Messgerät: Gigahertz-Solutions HF59B) die heutige Gesellschaft für den Mobilfunk entschieden. Wissenschaftliche Forschungen liefern derzeit noch zu möglich, weshalb das Vorsorgeprinzip auch an der Univerwenig stichhaltige Ergebnisse, um diesen Trend wesentlich sität Wien zur Anwendung gelangen muss. Die Herausforzu beeinflussen: Es gibt keine direkt messbaren Anzeichen derung für den ZID liegt also darin, dem stetig wachsenden dafür, dass elektromagnetische Strahlung in den derzeit übBedürfnis nach mobiler Kommunikation gerecht zu werden lichen Mengen eine schädliche Wirkung hat, gesundheitund gleichzeitig die Funknetze der Uni Wien – wie oben liche Beeinträchtigungen durch Funknetze konnten bisher beschrieben – mit Bedacht zu errichten und zu betreiben, noch nicht wissenschaftlich eindeutig nachgewiesen werum ein mögliches Risiko für alle Universitätsangehörigen den. Diesem Trend folgend wurde auch an der Uni Wien – und Gäste auf ein Minimum zu reduzieren. Regelmäßige aufgrund der großen Nachfrage durch MitarbeiterInnen und exemplarische Messungen der realen Strahlenbelastung Studierende und auf ausdrücklichen Wunsch der LeiterInnen sind in diesem Zusammenhang selbstverständlich. von Organisationseinheiten – der Ausbau der WLAN-Infrastruktur an den Universitätsstandorten in der LeistungsverAbschließend soll nicht unerwähnt bleiben, dass jeder eineinbarung des Zentralen Informatikdienstes festgelegt. zelne von uns sich selbst und sein Umfeld durch den unbedachten Einsatz mobiler Kommunikationsgeräte temporär Nachdem diese Technologien erst seit wenigen Jahren einwesentlich größeren Strahlenbelastungen aussetzt als z.B. gesetzt werden, liegen allerdings noch keine Untersuchunvon der WLAN-Infrastruktur permanent abgestrahlt werden gen über mögliche Langzeitfolgen von durch WLAN bzw. (siehe Tabelle 3). Mobilfunk verursachtem Elektrosmog vor; auch können Markus Ankner (ZID), Mag. Martina Kaburek (ANS), beobachtete Phänomene zum Teil noch nicht wissenschaftDr. Clemens Becsi, Dr. Beata Lutomska-Kaufmann lich erklärt werden. Somit ist noch kein endgültiges Urteil (TeamPrevent GmbH) I VERZEICHNISDIENSTE: VON X.500 ZU LDAP Einer der wichtigsten Verzeichnisdienste ist LDAP, das Lightweight Directory Access Protocol. Neben diesem Beitrag zum Problemkontext und zur historischen Entwicklung werden sich künftige Comment-Artikel anhand des LDAP-Einsatzes an der Uni Wien auch mit praktischen Fragen beschäftigen. Überall Verzeichnisse Im Alltag pflegen wir einen ganz selbstverständlichen Umgang mit verschiedensten Verzeichnissen: gedruckte und elektronische Telefonbücher, Gebäudepläne (etwa um einen Hörsaal in einem Universitätsgebäude zu finden), Kataloge (z.B. gewisser schwedischer Möbelfabrikanten), TV-Programm-Guides oder das Vorlesungsverzeichnis der Universität Wien. Verzeichnisse helfen uns, Informationen zu verwalten und wieder zu finden. Im Idealfall vereinheitlichen sie versammelte Informationen aus verschiedenen Quellen und werden damit selbst zur maßgeblichen (autoritativen) Quelle für diese Daten. Moderne vernetzte Computer sind ebenso von Verzeichnissen umgeben: Verzeichnisse gültiger User-Accounts, Grup- Comment 06 /3 Vernetzte Computersysteme sind ohne den Einsatz von Verzeichnisdiensten kaum mehr denkbar. Ob es um die Zustellung von eMail, den Status bzw. die Berechtigungen eines Accounts oder um die Information geht, von welchem Fileserver das Home-Verzeichnis geholt werden soll: Verzeichnisse versammeln für den Betrieb relevante Informationen in standardisierter, menschen- wie maschinenlesbarer Form und ermöglichen damit erst die großen und komplexen Netzwerke und Netzwerk-Anwendungen, auf die wir heute oft angewiesen sind. 30 Netzwerk- & Infodienste pen von BenutzerInnen (etwa zur Rechteverwaltung), namentlich bekannte Maschinen im lokalen Netzwerk und weltweiten Internet, Services, die im Netzwerk zur Verfügung gestellt werden, usw. All diese Informationen wollen versammelt und mehr oder weniger ständig aktualisiert werden – auf jedem einzelnen Rechner, bei stetig zunehmender Zahl der vernetzten PCs. Daher entwickelte man spezialisierte Verzeichnisdienste (naming services), die diese Informationen zentral im Netzwerk zugänglich machen, sodass die Wartung auf den einzelnen Maschinen entfallen kann. Ein solcher Netzwerk-Verzeichnisdienst sind z.B. die Yellow Pages (in Analogie zu den Gelben Seiten, also dem Branchenverzeichnis), die später aus markenrechtlichen Gründen Network Information System (NIS) getauft wurden. Auch das Domain Name System (DNS), das im Internet die IPAdressen in Hostnamen umsetzt (und umgekehrt), ist im Prinzip ein spezialisierter Verzeichnisdienst. Der Einsatz von spezialisierten Verzeichnisdiensten führt aber in der Regel zum N+1 directory problem: Für jede zusätzliche Anwendung (z.B. ein zentrales eMail-Service, eine Groupware-Software oder ein webbasiertes Content Management System) muss ein weiteres, spezialisiertes Verzeichnis betrieben und verwaltet werden, was zu redundanten Daten und erschwerter Administration sowie in weiterer Folge zu höheren Betriebskosten und Sicherheitsproblemen führt. Ein möglicher Weg aus diesem Dilemma ist der Einsatz von standardbasierten, erweiterbaren Verzeichnisdiensten, die für den jeweiligen Zweck adaptiert werden können. X.5001) und heute LDAP sind Versuche in diese Richtung. X.500 Mitte der 1980er Jahre trafen Bestrebungen zweier Normierungsorganisationen (ITU, ISO) aufeinander, die später zum ISO OSI Directory Standard (CCITT Recommendation X.500) führen sollten: Das Comité Consultatif International Téléphonique et Télégraphique (CCITT, heute ITU-T) der Internationalen Fernmeldeunion (ITU) gibt technische Standards heraus, die in Kategorien von A bis Z sortiert und durchnummeriert werden. In der Kategorie X (Data networks and open system communications) finden sich die bis heute weiterentwickelten Bündel von Standards wie X.400 (Messaging systems) und eben X.500, das Online-Verzeichnisdienste standardisiert. Anliegen der CCITT war es nun, ein globales elektronisches Telefonverzeichnis zu schaffen, das gleichzeitig auch Faxnummern und eMail-Adressen2) beinhalten sollte: „If only we could computerise the entire set of global telephone directories, and interconnect them, and give people access to them all via a standard interface, then we would have a real directory service. X.500 of course is designed to provide this service, and many more besides.“ (Chadwick, 1996) Comment 06 /3 INSERAT Netzwerk- & Infodienste Ähnliche Bedürfnisse hatten die Internationale Organisation für Normung (ISO) und die private Normungsorganisation ECMA, die auf der Suche nach einem naming service für OSI-Netzwerke und -Anwendungen waren. X.500 und das dazugehörige Directory Access Protocol (DAP) wurden daher auf dem OSI-Stack realisiert, einem siebenschichtigen Netzwerkarchitekturmodell mit entsprechender Protokollimplementierung (dem stack), der von der ISO als Standard für interoperable, heterogene Computernetzwerke entwickelt wurde. Der OSI-Stack konnte sich jedoch letztlich nicht gegen das Internet-Protokoll TCP/IP behaupten: TCP/ IP war einfacher, schneller und günstiger umzusetzen. spät erreicht. Auch waren die Datenquellen, aus denen sich ein Verzeichnisdienst möglichst automatisch speisen soll, oft von schlechter Qualität (das ist bis heute ein zentraler Problembereich), was die Attraktivität des Verzeichnisses natürlich schmälerte und dem weiten Einsatz des global directory nicht gerade zuträglich war. Die zunehmende Bedeutungslosigkeit des OSI-Modells gegenüber dem Internet trug ebenfalls dazu bei, die Entwicklung der X.500Services zu bremsen. Neben der technischen Komponente ist hier auch ein kultureller Bruch erkennbar, wie technische Standards überhaupt zustande kommen sollen: Auf der einen Seite die als bürokratisch, langsam und politisch motiviert empfundenen Entscheidungsprozesse innerhalb der ISO, dem „Standards elephant“. Dem gegenüber die TechnikerInnen und AkademikerInnen der IETF (des „Standards body“ der Internet Community), die sich in konsensdemokratischen bzw. meritokratischen Prozessen schneller, flexibler und realitätsnäher fühlten: „We reject: kings, presidents, and voting. We believe in: rough consensus and running code.“, wie David Clake 1992 auf einer Krisensitzung der IETF das Motto der Internet Community pointiert formulierte. Dieser Bruch3) ist heute weitgehend überwunden, was neben einer gewissen personellen Konvergenz der verschiedenen Standardisierungsgremien nicht zuletzt am durchschlagenden Erfolg des Internet liegt. Da Internet-basierte Klientenprogramme für die Nutzung des Verzeichnisses leichter zu realisieren waren, wurden bald TCP/IP-Gateways entwickelt (DAS, DIXIE), die Anfragen der IP-Klienten übersetzten und via DAP/OSI an X.500Server weiterleiteten. Beide Projekte sind heute obsolet; ihr Erfolg bestand aber darin, erstmals die große Nützlichkeit eines IP-Zugriffs auf Verzeichnisse gezeigt zu haben. The Directory Verzeichnisdienste nach X.500 waren groß und komplex angelegt, wie von den involvierten Gremien nicht anders zu erwarten. Eigentlich gab es in der Vision der EntwicklerInnen nur einen einzigen Verzeichnisdienst: The Directory – ein globales Verzeichnis mit u.a. diesen Eigenschaften: • Ein verteiltes System (was zum Teil Verfügbarkeit, Verlässlichkeit und Geschwindigkeit durch Lokalität mit sich bringt) mit verteilter Administration (denn die beste Information ist immer vor Ort verfügbar und sollte daher dort gepflegt werden); 31 LDAP Um die Verwendung von X.500-Verzeichnissen zu fördern (nicht etwa, um diese abzulösen), wurde schließlich von der IETF das IP-basierte Lightweight Directory Access Protocol (LDAP) spezifiziert und – aufbauend auf den Erfahrungen der vorangegangenen Projekte – ein Gateway von LDAP zu DAP an der University of Michigan entwickelt. Der längere Einsatz dieses so genannten ldapd (LDAP daemon) zeigte jedoch, dass Mitte der 1990er Jahre über 99 % der Zugriffe auf den Verzeichnisdienst via LDAP (also über das Gateway) statt direkt über DAP erfolgten. Etwa zur gleichen Zeit stellte sich auch die Erkenntnis ein, dass es mit dem global interconnected X.500 directory wohl nichts mehr wird, womit die X.500-Services als Ganzes in Frage gestellt wurden. In der Folge ersetzte der slapd (standalone LDAP daemon) den ldapd, es gab also kein dahinterliegendes X.500-Verzeichnis mehr, an das lediglich Anfragen weitergeleitet wurden. LDAP war damit von X.500 losgelöst und wurde mit kleinen Erweiterungen und einigem Straffen (etwa der Reduktion auf nur neun Funktionen bei gleichzeitigem Erhalt zukünftiger Erweiterbarkeit ohne Änderungen am Protokoll) als Grundlage eines kompletten Verzeichnisdienstes neu definiert. • general-purpose, d.h. für verschiedene Anwendungen geeignet und bereits erweiterbar konzipiert; • basierend auf offenen, internationalen Standards, damit Interoperabilität (zwischen Systemen, Herstellern, Ländern etc.) gewährleistet ist. Durch die Komplexität der Standards und Protokolle waren die ersten X.500-Implementierungen sehr fehlerbehaftet und wenig performant; echte Interoperabilität wurde erst 1) Hintergrundinformationen zu X.500: In der englischen Wikipedia (http://en.wikipedia.org/) finden Sie u.a. Erläuterungen zu folgenden Begriffen und Abkürzungen: CCITT, ITU, ITU-T, ISO, X.400, X.500, ECMA, OSI, Whois, TCP/IP, IETF, RFC, DAS (RFC 1202) und DIXIE (RFC 1249). 2) Die rasche Verbreitung von eMail erschien diesbezüglich besonders problematisch, da es für Mailadressen im Gegensatz zu Telefonnummern keine etablierten (z.B. gedruckten) Verzeichnisse gab: Um mit jemandem per eMail in Kontakt zu treten, musste die Mailadresse oft erst telefonisch erfragt werden. 3) Näheres dazu siehe z.B. www.alvestrand.no/x400/debate/ itu-vs-ietf.html Comment 06 /3 • mächtige Suchfunktionen für verschiedene Arten von Abfragen; 32 Netzwerk- & Infodienste Die aktuelle Version des Standards heißt LDAPv3 (siehe LDAP Technical Specification, http://ftp.univie. ac.at/netinfo/rfc/rfc4510.txt) und zeichnet sich u.a. durch folgende Eigenschaften aus: • Durch volle Unicode-Unterstützung in UTF-8-Kodierung4) können theoretisch sämtliche Zeichen sämtlicher Sprachen verarbeitet werden, es lassen sich aber auch ASCII- oder Binärdaten speichern. Neugierig? Über die Struktur von LDAP-Verzeichnissen, über Klientenprogramme und Abfragemethoden soll in der nächsten Ausgabe des Comment berichtet werden. Wer nicht so lange warten bzw. es ganz genau wissen will, sei auf die folgende Literatur verwiesen: • Mittels Verkettung (chaining), Verweisen (referrals), Zusammenkleben (glueing) oder Replikation können auch mit dem slapd aus mehreren LDAP-Servern vernetzte Systeme aufgebaut werden. Teile der Komplexität von X.500 kommen also in kleinen Dosen wieder, allerdings optional. LDAP • Die Nutzung von TLS (Transport Layer Security, bekannter als SSL) und SASL (dem geradezu irrwitzig unpassend benannten Simple [!] Authentication and Security Layer) ermöglicht sichere Authentifizierung und Datenübertragung, ist modular und vom LDAP-Protokoll unabhängig. Sowohl TLS als auch SASL werden von vielen anderen Technologien, Protokollen und Projekten verwendet, was z.B. die einfache und sichere Authentifizierung mit SMTP AUTH oder IMAP/POP über einen LDAPv3-Verzeichnisdienst ermöglicht. • LDAP for Rocket Scientists, • http://de.wikipedia.org/wiki/ Lightweight_Directory_Access_Protocol • http://en.wikipedia.org/wiki/ Directory_service www.zytrax.com/books/ldap/ • T. Howes, M. Smith, G. Good (2003): Understanding and Deploying LDAP Directory Services, 2.ed., Addison-Wesley, ISBN 0672323168 X.500 • David W. Chadwick (1996): Understanding X.500 (The Directory), online: http://sec.cs.kent. ac.uk/x500book/ • So genannte extended operations und controls können zusätzliche Funktionalität bieten oder bestehende Funktionen modifizieren, ohne das Protokoll selbst verändern zu müssen (z.B. zum Ändern des eigenen Passworts). Comment 06 /3 • Diese Erweiterungen – wie auch andere Funktionen oder unterstützte Standard-Datentypen des Servers – kann dieser ankündigen und Klienten können diese selbständig „entdecken“, ähnlich der capabilities-Funktion von IMAP, wo Mailklienten (z.B. Mozilla Thunderbird) im „Gespräch“ mit dem IMAP-Server dessen unterstützte Funktionen und Erweiterungen abfragen, um sich entsprechend darauf einzustellen (z.B. Kann StartTLS benutzt werden, um die Verbindung zu verschlüsseln? Welche SASL-Mechanismen werden zur Authentifizierung angeboten? ). Neben proprietären Angeboten von Novell, Sun, Oracle, IBM, Microsoft u.a. gibt es heute mittlerweile auch drei größere Open Source-Implementierungen des LDAP-Service: OpenLDAP, Fedora Directory Server (früher Netscape DS) und neuerdings Sun OpenDS 5). Weiters existieren kommer- 4) siehe Artikel Unicode: Kiss Your ASCII Goodbye? in Comment 04/3, Seite 12 bzw. unter www.univie.ac.at/comment/04-3/043_ 12.html 5) Sun OpenDS ist komplett in der Programmiersprache Java geschrieben und nicht zu verwechseln mit dem immer noch proprietären Sun Java System Directory Server, der verwirrenderweise nicht in Java geschrieben ist. • Steve Kille (1996): LDAP and X.500, ISODE Whitepaper (www.isode.com/ whitepapers/ic-6033.html) ISO vs. Internet • Andrew L. Russell (2006): ‚Rough Consensus and Running Code’ and the Internet-OSI Standards War, IEEE Annals of the History of Computing, July–September 2006, online: www.computer. org/portal/cms_docs_annals/annals/ content/promo2.pdf zielle Varianten dieser Open Source-Implementierungen, z.B. die OpenLDAP-Distribution Connexitor von Symas oder Apples Open Directory, das auf OpenLDAP und MITKerberos aufbaut. Diese Unterstützung durch alle relevanten Hersteller, Systeme, Plattformen und Programmiersprachen sowie die freie Verfügbarkeit von hochqualitativer, standardkonformer Software (von Apache bis Zope) sind wichtige Gründe für den immer noch zunehmenden Einsatz von LDAP-Verzeichnissen in Unternehmen und im Internet. Auch an der Universität Wien wird LDAP als wichtige Infrastruktur-Komponente auf- und ausgebaut; zwei Anwendungsmöglichkeiten sind im nachfolgenden Artikel Wie sag ich’s meinem LDAP-Server? beschrieben. Peter Schober I Netzwerk- & Infodienste 33 WIE SAG ICH‘S MEINEM LDAP-SERVER ? Das WorldWideWeb hat viele der Funktionen übernommen, für die Verzeichnisdienste wie X.500 und LDAP ursprünglich erfunden wurden: Die im Artikel Verzeichnisdienste: Von X.500 zu LDAP auf Seite 29 eingangs erwähnten Verzeichnisse (Telefonbücher, Gebäudepläne, Vorlesungsverzeichnisse, schwedische Möbelkataloge usw.) werden alle in Form von Webapplikationen angeboten, aber nur in den seltensten Fällen als LDAP-Verzeichnisse. Für manche Anwendungen – vor allem für Adressverzeichnisse, die maschinenlesbare, strukturierte Daten benötigen – ist das Lightweight Directory Access Protocol dennoch das Mittel der Wahl. Damit steht man allerdings vor dem nächsten Problem: Wie man mit Webservern kommuniziert, ist bekannt – mittels Browser. Wie aber greift man auf LDAP-Verzeichnisse zu? Zwar gibt es eigene LDAP-Klientenprogramme, diese werden jedoch nicht oft verwendet. Viel häufiger sind LDAPFunktionen und -Erweiterungen in allen möglichen Programmen, z.B. in Webserver- und Mailing-Software. LDAP und Mailing Wie bereits in der letzten Ausgabe des Comment berichtet, ist LDAP ein zentraler Bestandteil des neuen Mailsystems der Universität Wien (siehe Comment 06/2, Seite 11 bzw. www.univie.ac.at/comment/06-2/062_11.html ). Welche Mailadressen an der Uni gültig sind und welche nicht, wohin eMail zugestellt oder weitergeleitet werden muss, erfahren die Mailserver durch LDAP-Anfragen. Dementsprechend groß ist die Zahl der Zugriffe, die auf die LDAP-Server der Uni Wien einprasseln, nämlich rund zwei Millionen pro Tag. Es ist eine der großen Stärken dieses Protokolls, dass die LDAP-Server einen solchen Ansturm vollkommen problemlos bewältigen können (in diesem Sinne ist das Protokoll wirklich „leichtgewichtig“). Um das Adressbuch einzurichten, wählen Sie im Mailprogramm Thunderbird den Menüpunkt Adressbuch – Datei – Neu – LDAP-Verzeichnis und füllen Sie die Felder so aus, wie in Abb. 1 dargestellt ist: • Name: Uni Wien • Hostname: ldap.univie.ac.at • Basis-DN: dc=univie,dc=ac,dc=at • Port-Nummer: 389 LDAP und Authentifizierung LDAP teilt das Schicksal vieler anderer Erfindungen: Es wird für ganz andere Zwecke eingesetzt als ursprünglich gedacht. Obwohl LDAP keineswegs als AuthentifizierungsProtokoll entwickelt wurde, ist Authentifizierung – also die Überprüfung der Zugangsberechtigung eines bestimmten Nutzers zu einem bestimmten Netzwerkservice – heute eines seiner wichtigsten Anwendungsgebiete. LDAP wird mittlerweile weitaus häufiger zur Authentifizierung verwendet als dedizierte Protokolle wie z.B. RADIUS (Remote Authentication Dial-In User Service). Die vom ZID verwalteten Benutzungsberechtigungen (v.a. Unet- und Mailbox-UserIDs) erlauben den Zugriff auf viele verschiedene Netzwerkdienste – von eMail, Fileservices und ADSL bis zur Lernplattform WebCT Vista. Intern werden zur Authentifizierung verschiedene Mechanismen und Protokolle eingesetzt: LDAP, RADIUS (z.B. für Wählleitungsverbindungen, ADSL, WLAN, VPN) und andere. Obwohl es bereits eine große Erleichterung darstellt, auf verschiedene Dienste mit derselben Username-/Passwort-Kombination zugreifen zu können anstatt sich viele einzelne Passwörter merken zu müssen, sind wir von einer echten Single SignOn-Lösung, bei der nach einmaligem Login der Zugriff auf Comment 06 /3 Auch mit Mailprogrammen kann man auf LDAP-Verzeichnisse zugreifen und diese als Adressbuch verwenden. Im Gegensatz zu einem webbasierten Verzeichnis wie dem Personalverzeichnis der Universität (http://online. univie.ac.at/pers ) lässt sich das öffentliche LDAPVerzeichnis der Uni Wien ( LDAP.UNIVIE.AC.AT ) in die meisten Mailklienten direkt integrieren, wie hier am Beispiel des Mozilla Thunderbird illustriert wird: Anschließend müssen Sie noch unter Extras – Einstellungen – Verfassen auf der Registerkarte Adressieren im Bereich Adress-Autovervollständigung die Option LDAPVerzeichnisserver aktivieren (der LDAP-Server Uni Wien sollte bereits in der Liste rechts daneben aufscheinen). Damit können Sie nun – vorausgesetzt, Sie sind online – das gesamte Verzeichnis der Uni Wien genau so nutzen wie Ihr persönliches Adressbuch: Beim Verfassen einer Nachricht an eine beliebige Universitäts-Adresse brauchen Sie als Empfänger nur dessen Namen oder einen Teil davon einzugeben, woraufhin die eMail-Adresse automatisch ergänzt bzw. ein Auswahlmenü mit Vorschlägen angezeigt wird. Abb. 1: Einrichten des LDAP-Verzeichnisses der Uni Wien als Mail-Adressbuch (Thunderbird) 34 Netzwerk- & Infodienste alle verfügbaren Services gewährt wird, noch weit entfernt. Es wird jedoch daran gearbeitet, diesem Ziel zumindest näher zu kommen und die Authentifizierung der verschiedenen Services zu vereinfachen und besser zu integrieren. In diesem Zusammenhang soll auch ein AuthentifizierungsService für Dritte angeboten werden: Von etlichen Instituten und Dienststellen der Universität Wien werden für Studierende bzw. Uni-MitarbeiterInnen verschiedene Anwendungen (meistens Webapplikationen) mit Zugangskontrolle zur Verfügung gestellt, die üblicherweise über eine eigene Benutzerverwaltung mit speziellen Usernamen und Passwörtern verfügen. Die Administration solcher Anwendungen könnte durch eine zentrale Authentifizierung wesentlich vereinfacht werden. Bei einer solchen zentralen Authentifizierung für Dritte muss selbstverständlich besondere Sorgfalt an den Tag gelegt werden, was Sicherheit und Datenschutz betrifft. Aus diesem Grund wird das zu schaffende System zwar LDAP verwenden (möglicherweise sogar auf LDAP basieren), aber kein reines „LDAP-Service“ sein, sondern auch andere Authentifizierungs-Methoden mit einbeziehen. Wenn Sie an einem solchen Authentifizierungs-Service interessiert sind, teilen Sie uns dies bitte per eMail an [email protected] mit – wir werden dann versuchen, Ihre speziellen Anforderungen in das künftige Authentifizierungs-System zu integrieren. Peter Marksteiner I CONTENT MANAGEMENT SYSTEME: Software für operative Eingriffe in lebende Websites Auf die Frage „Kennen Sie ein CMS?“ hört man so gut wie immer: „Nein, nie gehört!“ oder „Noch nie gesehen!“ – und genau das ist die Stärke eines CMS: verborgen im Hintergrund zu agieren. Ein CMS (Content Management System) ist eine Software, welche die gemeinschaftliche und einfache Eingabe von Webseiten-Inhalten (Content) auch für BenutzerInnen ohne technisches Verständnis bzw. ohne Kenntnisse in HTML/ XML1)/CSS etc. ermöglicht. Eines haben alle CMS-Produkte gemeinsam: Beim Besuch einer Webseite bemerkt man nichts davon. Interessierte finden eventuell im Quelltext versteckt den Hinweis, ob ein (bzw. welches) CMS verwendet wurde; oft wird diese Information aber auch verborgen. Comment 06 /3 Breite Auswahl – kostenlos Bei der Flut an verschiedenen Systemen ist es schwer, die Übersicht zu bewahren und seinen Favoriten zu küren. Neben kommerziellen CMS-Produkten, die von Firmen auf die jeweiligen Umgebungen und deren Bedürfnisse zurechtgestrickt werden und die üblicherweise späteren Support beinhalten, haben die Open Source-Systeme einen gewichtigen Platz am CMS-Markt eingenommen. Eine feine Übersicht der wichtigsten Produkte mit der Möglichkeit, diese auch gleich live auszuprobieren, findet man unter www.opensourcecms.com. In diesem Artikel wird bewusst auf kein spezielles CMS eingegangen, auch wird weder Werbung gemacht noch eine Empfehlung für ein bestimmtes Produkt ausgesprochen. Aufgrund der Vielzahl an Systemen, die es derzeit am Markt gibt, wäre dies auch nicht ratsam, da jeder Anwender seine eigenen Anforderungen und Bedürfnisse hat, welche von seinem bevorzugten CMS abgedeckt werden sollen. Daher beschränken wir uns im Folgenden auf die Nennung von vier bekannteren und leistungsfähigeren Content Management Systemen: Joomla, Typo3, Wordpress und Postnuke. • Joomla (www.joomla.de) hat im Laufe seiner eher kurzen Existenz schon einiges mitgemacht – hat es sich doch vor kurzem vom ursprünglichen Mutterprodukt Mambo (www.mambo-foundation.org) abgespalten und lebt nun weiter durch engagierte Programmierer und eine beispielhafte Community. Dieses CMS zeichnet sich durch seine schnelle Erlernbarkeit und relativ einfache Bedienung, gepaart mit Optionsvielfalt, aus. • Typo3 (www.typo3.org) wurde von einem dänischen Programmierer ins Leben gerufen und seither stetig weiterentwickelt. Die Stärken von Typo3 liegen in der fast unübertroffenen Leistungsfähigkeit und Flexibilität – gute Gründe dafür, dass Typo3 auch an der Uni Wien eingesetzt wird (siehe hierzu Artikel Webauftritte leicht gemacht: Typo3 an der Universität Wien auf Seite 37). • Wordpress (http://wordpress.de/) hat sich ganz dem Blog2) verschrieben und bietet Add-Ons, also optionale Module bzw. Erweiterungen, sowie Features speziell für diesen Bereich an. • Postnuke (www.postnuke.com) hingegen besticht vorrangig durch seine Stabilität und Performance. Eine der schönsten Eigenschaften haben viele CMS-Systeme gemeinsam: Sie sind kostenlos. Geschützt nur durch die GNU GPL (General Public License) 3) dürfen sie also frei verwendet, verändert und weitergegeben werden – solange man sie nicht als sein eigenes Produkt ausgibt. Weiters existiert für diese Systeme eine riesige Anzahl an Erweiterungen (Add-Ons), um Webseiten mit neuen Features zu ver- Netzwerk- & Infodienste sehen – z.B. mit Gästebüchern, Newsletters, erweiterten Suchfeldern oder Ähnlichem. 35 Beherbergung der CMS-Software Hier unterscheidet man clientseitige, serverbasierende und kombinierte Systeme. Wie läuft‘s? Als Basis für den überwiegenden Teil der Content Management Systeme dient die Programmsammlung LAMP. Diese stellt alles Nötige zur Verfügung, um einen Webserver zu betreiben. Das Akronym LAMP steht für • Linux (das Betriebssystem, unter dem die Sammlung läuft), • Apache (der eigentliche Webserver), • MySQL (die Datenbank) und • PHP (die Skriptsprache). Als weitere Formen existieren noch WAMP für Windows und MAMP für Mac OS X. Einzelne CMS setzen auf Perl anstatt auf PHP; andere bieten wiederum den erforderlichen Support, um eine OracleDatenbank, PostgreSQL oder MS-SQL anstatt MySQL zu verwenden. Auch den jeweils verfügbaren Webspace sollte man bedenken: Bei einer Typo3-Instanz nimmt beispielsweise die reine Erst-Installation bereits etwa 8 MB in Anspruch. Hierzu kommen noch Erweiterungen von Typo3 (Extensions) sowie die eigentliche Homepage samt Bildern und sonstigen Dateien. Klassifizierung Content Management Systeme lassen sich durch zwei wichtige Merkmale charakterisieren: Dynamik der Content-Bereitstellung Man unterscheidet hierbei zwischen statischen, volldynamischen und gemischten Systemen. • Statische Systeme legen jedes HTML-Dokument als statische Webseite auf dem Server ab. Der Vorteil dieser Variante ist der geringe Ressourcenverbrauch des Servers bzw. dessen Prozessors, da die Seite nicht bei jedem Aufruf mittels einer Programmiersprache (z.B. Perl, PHP) dynamisch generiert werden muss. • Gemischte Systeme stellen den Content teilweise statisch zur Verfügung, wobei jedoch Bereiche, die häufigen Aktualisierungen unterliegen, dynamisch generiert und eingebunden werden. Diese Art trifft man am häufigsten an, da sie die Vorteile eines statischen mit den Vorzügen eines dynamischen CMS verbindet. • Am weitesten verbreitet ist die serverbasierende CMSVariante, die eine Bearbeitung des Content direkt am Server erlaubt. Ihr großer Vorteil ist, dass das Arbeiten mit dem CMS von jedem Computer (mit Internetzugang) von jedem Standort der Welt aus und mit jedem Betriebssystem nur mit einem Browser möglich ist. Die Anforderungen an das technische Verständnis der Redakteure sind extrem niedrig, wodurch praktisch allen AnwenderInnen die Verwendung des Systems ermöglicht wird. • Die dritte, seltener anzutreffende Kategorie sind kombinierte Systeme, die sowohl client- als auch serverseitig arbeiten. Händisch oder CMS-basiert? Der Arbeitsaufwand im Vergleich Wenn man den Aufwand für Erstellung und Wartung einer herkömmlichen (= händisch erstellten und großteils statischen) Webseite mit dem bei einer CMS-verwalteten4) Seite anfallenden Aufwand vergleicht, kristallisieren sich folgende Vor- und Nachteile heraus: Erstellung Hier hat eindeutig die herkömmliche Variante die Nase vorn. Während es mit Hilfe eines HTML-Editors (üblicher- 1) siehe hierzu Artikel Web-Publishing mit XML auf Seite 40 2) siehe Artikel (B)logbuch des Captains, Sternzeit zweitausendundsechs ... in Comment 06/1, Seite 41 bzw. unter www.univie. ac.at/comment/06-1/061_41.html 3) Die GNU GPL ist eine von der Free Software Foundation (einer gemeinnützigen Organisation mit dem Zweck, freie Software zu fördern; siehe www.fsf.org) herausgegebene Lizenz mit Copyleft (einem Schutzverfahren, welches Weiterverbreitung und Modifikationen von Software erlaubt, sofern dies unter derselben Lizenz und damit denselben Bedingungen geschieht) für die Lizenzierung freier Software. Nähere Informationen dazu sind unter www.gnu. org/licenses/licenses.html#GPL zu finden. 4) Dies bezieht sich auf die oben genannten, leistungsfähigeren Content Management Systeme. Comment 06 /3 • Volldynamische CMS zeigen bei jedem Seitenaufruf den jeweils aktuellsten Content an. Am meisten von dieser Methode profitieren z.B. Nachrichten-Seiten, auf denen es mitunter zu minütlichen Änderungen kommt. • Clientseitige CMS – das sind jene Produkte, die auf dem Rechner des Anwenders installiert sind und mit denen die Seiten auch direkt dort erstellt und bearbeitet werden –, sind eher in der Minderzahl. Sie finden zumeist bei Dateien Anwendung, deren Bearbeitung auf einem Server zu viele Ressourcen verbrauchen würde (z.B. Videos). 36 Netzwerk- & Infodienste weise eines WYSIWYG-Editors) relativ leicht und schnell möglich ist, eine ansprechende Webseite zu gestalten, muss man für ein CMS schon mal einiges an Zeit und Geduld investieren, ehe man vernünftig damit arbeiten kann: Anleitungen wollen gelesen, Workshops durchgemacht, Foren durchforstet und Nerven bewahrt werden, vor allem bei hartnäckigen Problemen. Der Aufwand variiert selbstverständlich je nach Umfang des verwendeten CMS. Layout Auch im Hinblick auf die Gestaltung ist es mit der statischen Methode relativ einfach, ein Layout zu kreieren. Ein wenig aufwendiger gestaltet sich diese Aufgabe mittels CMS. Hier werden so genannte Templates (Designvorlagen) verwendet, die komplett unabhängig vom eigentlichen Content behandelt werden. Dadurch wird das Layout jedoch flexibler und lässt sich für einzelne Seiten oder den gesamten Webauftritt mit nur wenigen Mausklicks komplett verändern. Pflege Vor allem bei der späteren Pflege der Seiten spielt ein CMS seine Stärken voll aus. Während es bei einer händisch gepflegten Website aufwendig und mühsam ist, eine Änderung auf allen bestehenden Seiten durchzuziehen, wird dies mittels CMS zum Kinderspiel. Ist man erst einmal mit der Benutzeroberfläche vertraut, lassen sich sämtliche Arbeitsschritte im Handumdrehen und nur mit Hilfe des Browsers erledigen. Zudem behält man gerade bei umfangreichen Webauftritten dank CMS leichter den Überblick: Programmiersprachen wie JavaScript vereinfachen z.B. mittels Drag & Drop die Bearbeitung oder auch das Verschieben ganzer Seiten im Menübaum. Multi-User-Betrieb Comment 06 /3 Die gleichzeitige Bearbeitung einer Webseite durch mehrere Redakteure kann bei einem herkömmlichen System mitunter gravierende Auswirkungen haben. Mühsam eingegebener Content kann leicht überschrieben werden, Sicherungen sind für den kurzen Zeitraum einer Änderung meist keine vorhanden – die Arbeit war umsonst. Da es keine Logfiles gibt, kann auch nicht schnell herausgefunden werden, wer gerade an einer Webseite arbeitet. Dieser Fall kann mit einem CMS nicht eintreten: Sobald ein Benutzer eine Seite bearbeitet, wird diese für alle anderen gesperrt. Änderungen können jederzeit wieder rückgängig gemacht werden, detaillierte Logfiles sind vorhanden. Umfangreichere Systeme beinhalten ausgeklügelte User- und Gruppen-Berechtigungssysteme, welche z.B. den Zugriff, Änderungen, Erstellungen oder Löschvorgänge auf bestimmte AnwenderInnen beschränken können. Dateiverwaltung Dateisammlungen, die in Webseiten eingebunden oder zum Download angeboten werden (Bilder, PowerPoint-Präsen- tationen, PDF-Dateien etc.), können im Laufe der Zeit einen beachtlichen Umfang annehmen. Einzeln hochgeladen, meist nur durch Ordner und Unterordner sortiert, verliert man schnell die Übersicht. Ganz anders gestaltet sich das mit einem CMS, welches eine Dateiverwaltung aufweist, mit der sich Dateien einfach mittels Browser hochladen, einordnen, beschriften und natürlich auch gleich ansehen lassen. Große Dateisammlungen wie z.B. Fotogalerien lassen sich auf diese Art und Weise unkompliziert publizieren und verwalten. Neue Features Beim Einbau neuer Features – wie etwa eines Gästebuchs, einer Fotogalerie oder eines eigenen Forums – entstehen bei herkömmlich gewarteten Webseiten Arbeiten in Form von: gewünschte Software aussuchen, downloaden, installieren, an die eigene Seite in Funktion und Design anpassen, im Betrieb warten und gegebenenfalls updaten. CMSAnwenderInnen können sich hingegen über vorgefertigte Add-Ons freuen, die man einfach mittels Mausklick einspielen, konfigurieren und auch gleich im System warten und aktuell halten kann. Technische Wartung und Sicherheit Im Hinblick auf die Sicherheit des Systems ist es auch beim Einsatz eines CMS unerlässlich, die einzelnen SoftwareKomponenten auf dem Stand der Technik zu halten. Händisch alle eingepflegten, dynamischen Programmcodes zu suchen, zu überprüfen, gegebenenfalls manuell Programmteile auszubessern oder gleich den kompletten Code zu ersetzen, gestaltet sich langwierig und zeitaufwendig. Mit einem CMS wird gerade dieser Vorgang erheblich vereinfacht. Der Administrator kann bequem im CMS seine Extensions anzeigen lassen und diese mit wenigen Mausklicks auf den aktuellen Stand bringen. CMS – ja oder nein? Ob sich der Einsatz eines Content Management Systems lohnt, lässt sich nicht pauschal beantworten. Es gibt die verschiedensten Beweggründe, ein solches Produkt zu verwenden – sei es die Benutzerverwaltung, das übersichtliche und professionelle Administrations-Interface, die kinderleichte Einpflege von Content oder die einfache Wartung des Systems. Oft ist es auch einfach die Neugier, die einen dazu treibt, sich in die Materie zu vertiefen. Was man unbedingt berücksichtigen sollte, bevor man sich für die Verwendung eines CMS entscheidet: Je umfangreicher und komplexer das System ist, desto länger dauert es, sich einzuarbeiten, um danach effizient und zufrieden stellend damit umgehen zu können. Wer jedoch die dafür nötige Zeit investiert und nicht zu früh aufgibt, wird sicherlich nicht enttäuscht werden. Alexander Berndl I Netzwerk- & Infodienste 37 WEBAUFTRITTE LEICHT GEMACHT: Typo3 an der Universität Wien In der Dienstleistungseinrichtung (DLE) Öffentlichkeitsarbeit und Veranstaltungsmanagement der Universität Wien wird seit mehr als zwei Jahren ein Content Management System (CMS; Näheres siehe Seite 34) für die Publikation von Onlineinhalten verwendet: das Open Source-Produkt 1) Typo3 (http://typo3.org/). Typo3 ist ein webbasiertes CMS, welches unter der GNU GPL (General Public License) 2) lizenziert ist. Es wird seit 1997 von dem Dänen Kasper Skårhøj mit der Hilfe und nach Anregungen von Usern entwickelt. Typo3 ist in der Skriptsprache PHP geschrieben und arbeitet vorzüglich mit MySQL-Datenbanksystemen. Über einen integrierten Database Abstraction Layer ist es aber auch möglich, andere Datenbanksysteme (z.B. Oracle) zu verwenden. Aufgrund der Trennung von Content und Design eignen sich Content Management Systeme sehr gut für die Erstellung von Internetseiten mit einheitlichem Layout und individuellem Inhalt. Im Zusammenhang mit dem neu entwickelten Corporate Design der Universität Wien wurde daher begonnen, den Webauftritt der Universität basierend auf Typo3 anzulegen sowie im weiteren Verlauf dieses CMS auch für andere Organisationseinheiten der Uni Wien – Fakultäten, Institute und DLEs – zur Verfügung zu stellen. Mit dem Angebot der DLE Öffentlichkeitsarbeit und Veranstaltungsmanagement, die Designvorlage für universitäre Webseiten zu liefern, entschieden sich viele Organisationseinheiten dafür, ihre Webseiten in das Typo3-System zu integrieren. AutorInnen, SachbearbeiterInnen und RedakteurInnen können sich damit ganz auf die Pflege und Aktualisierung von Inhalten konzentrieren, ohne sich um das Layout, die Einbindung von Seiten oder andere technische Aspekte kümmern zu müssen. Ein erfolgreiches Open Source-Projekt wie Typo3 funktioniert hingegen etwas anders: Typo3-Community Die aktive Typo3-Community ist groß, international und immer noch im Wachstum begriffen. Wie bei vielen anderen Projekten fungieren verschiedene Mailinglisten mit zumeist öffentlich einsehbaren Archiven (siehe http:// lists.netfielders.de/) als Kommunikationsplattform für die Typo3-Gemeinde. Zudem zählen jährlich veranstaltete Events wie die Typo3-Konferenz, aber auch die Typo3Snowboard-Tour zu wichtigen Treffpunkten des fachlichen Austausches. Typo3-Referenzen Die Auflistung der Websites, die auf Typo3 basieren, ist recht imposant: Neben namhaften Firmen (3M, DHL, EADS, Ford, Lufthansa, Philips, REWE, Volkswagen etc.) finden sich hier auch Non-Profit-Organisationen oder große Medienunternehmen (z.B. New York Times). Eine Referenzliste ist unter http://typo3.com/References.1249.0. html verfügbar. Als Referenzbeispiel mit lokalem Bezug ist die Universität für Bodenkultur Wien (www.boku.ac.at) zu nennen, die eine komplette Umstellung ihres Webauftritts auf Typo3 vollzogen hat. Auch die neue ACOnet-Website (www.aco.net) wurde mit Typo3 realisiert. Aufbau eines Typo3-CMS Content Management Systeme, so auch Typo3, trennen Inhalt, Struktur und Layout von Webdokumenten. Ein CMS wird zudem von einem Punkt aus betreut, was bedeutet, dass die Designvorlagen zentral eingebaut, gepflegt und ver- Open Source vs. proprietäre Software 1) Open Source bedeutet, dass es jedem ermöglicht wird, Einblick in den Quellcode einer Software zu erhalten sowie diesen Quellcode auch beliebig weiterzugeben oder zu verändern. 2) Die GNU GPL ist eine von der Free Software Foundation (einer gemeinnützigen Organisation mit dem Zweck, freie Software zu fördern; siehe www.fsf.org) herausgegebene Lizenz mit Copyleft (einem Schutzverfahren, welches Weiterverbreitung und Modifikationen von Software erlaubt, sofern dies unter derselben Lizenz und damit denselben Bedingungen geschieht) für die Lizenzierung freier Software. Nähere Informationen dazu sind unter www.gnu. org/licenses/licenses.html#GPL zu finden. 3) Es ging dabei um die fehlende Funktion, den Cache zu löschen, was dazu führte, dass die Performance des Systems von Tag zu Tag schlechter wurde. Die Migration der Daten in ein anderes CMS war aufgrund des nicht transparenten Datenbankaufbaus ebenfalls nicht leicht zu bewerkstelligen. Comment 06 /3 Warum gerade Typo3? Einer der wichtigsten Punkte ist, dass die Verwendung von Open Source-Software unabhängig macht. Beim diesjährigen Treffen der ARGE-Info (einer Arbeitsgemeinschaft von MitarbeiterInnen österreichischer Universitäten, die im Webbereich tätig sind) war zu erfahren, wie der worst case beim Einsatz von proprietärer Software aussehen kann: Eine kleinere österreichische Universität verwendete ein kommerzielles, in Java geschriebenes Content Management System. Als sich die Herstellerfirma umstrukturierte, wurde der Support für dieses CMS eingestellt. Aufgrund der Geschlossenheit des Systems war es den MitarbeiterInnen der Universität nicht möglich, auftretende Fehler selbst zu beheben; auch der Umstieg auf ein anderes CMS gestaltete sich schwierig.3) 38 Netzwerk- & Infodienste waltet werden. Dies erspart den einzelnen AnwenderInnen Wartungsarbeiten sowie Layoutanpassungen. Für alle integrierten Seiten existiert ein so genanntes Template, also eine einheitliche Vorlage, nach der alle Seiten aufgebaut sind. Für die Seiten der Uni Wien wurde ein Design gewählt, das aus einer Kopfzeile, einer vertikalen Menüleiste (Navigation) auf der linken Seite sowie aus den zugehörigen CSS-Dateien4) besteht (siehe Abb. 1). Den Rest der Seite bildet der frei editierbare Content-Bereich. Innerhalb dieses Bereiches können die Inhalte der Webseite (Texte, Bilder, Dateien zum Downloaden, Tabellen, Statistiken etc.) von den zuständigen Personen der jeweiligen Einrichtung über einen Webbrowser selbständig erstellt und gepflegt werden – und zwar ohne besonderes technisches Knowhow: Typo3 ist einfach zu erlernen, zudem braucht man keine Kenntnisse in HTML, JavaScript, XML, PHP etc. Das Hauptargument für den Einsatz eines CMS ist die Ressourcenersparnis. Aufgrund des zentralen Zugriffs auf die Struktur und das Layout kann man ganze Webauftritte binnen weniger Stunden fertig stellen, ohne sich mit der Programmierung des Designs befassen zu müssen. Weitere Vorteile sind die Zuverlässigkeit, die universale Fehlerbehebung sowie die effektive Weiterentwicklung des Systems. Frontend und Backend Webbrowser erfolgen, auch mit älteren Versionen. Spezielle Funktionen wie Cookies oder JavaScript sind nur notwendig, wenn die jeweilige Webseite diese verlangt. • Das Backend von Typo3 („hintere Seite“, siehe Abb. 2) ist das webbasierte Bearbeitungstool des CMS, mit dem die Webseiten erstellt und editiert werden. Der Zugriff kann mit allen gängigen, neueren Webbrowsern erfolgen. Cookies und JavaScript müssen eingeschaltet und Popup-Fenster für diesen Vorgang erlaubt werden. Der Zugriff auf das Backend ist nur für berechtigte Personen, die so genannten Webautoren oder Redakteure, möglich. Diese brauchen dafür einen Benutzernamen und ein Passwort mit einer entsprechenden Typo3-Berechtigung. Die Benutzungsberechtigungen beinhalten nicht nur die Definition, welche Seiten wie und von wem bearbeitet werden dürfen, sondern definieren auch die Auswahl an Werkzeugen, die man im Backend zur Verfügung hat. Außerdem lassen sich Rollen für einen Workflow festlegen (z.B. Erstellung des Content durch Benutzer A – Freigabe der Inhalte durch Benutzer B – Publikation auf der Webseite). Typo3-Extensions Typo3 ist genau betrachtet nur ein Framework, also eine Rahmenanwendung, die durch Extensions erweitert wird Bei Typo3 unterscheidet man zwei Seiten: 4) Mittels CSS (Cascading Style Sheets) können Stil-Definitionen für HTML- und XML-Elemente zentral festgelegt werden (Näheres siehe z.B. Comment 03/1, Seite 30 bzw. unter www.univie. ac.at/comment/03-1/031_30.html). Comment 06 /3 • Das Frontend von Typo3 („vordere Seite“, siehe Abb. 1) ist der Webserver, der den BesucherInnen die fertigen Seiten anzeigt. Der Zugriff kann mit jedem beliebigen Abb. 1: Ansicht einer Webseite der Universität Wien im Typo3-Frontend (Ausschnitt) Netzwerk- & Infodienste (im Grunde ist das gesamte Backend eine große Extension). Solche Extensions können unterschiedlicher Natur sein: • Backend-Tools – z.B. Dateimanager, Werkzeuge für erweiterte Gruppenverwaltung oder Template-Verwaltung – werden direkt ins Backend eingebunden. • Frontend-Plugins sind Webapplikationen, die als Content-Element in eine Webseite integriert werden können, wie z.B. Gästebücher, Foren oder Fotogalerien. Extensions bestehen aus mehreren Dateien innerhalb eines Verzeichnisses – meist PHP- und Bilddateien, SQL-Queries, aber auch HTML-Dateien. Es existiert ein zentrales Onlineverzeichnis mit der Möglichkeit zum Up- und Download von Extensions. In diesem Extension Repository (http:// typo3.org/extensions/) findet man zahlreiche Typo3Erweiterungen aller Art, von Wikis über Foren bis hin zu einer phpMyAdmin-Integration ins Backend. Wenn man eine neue Funktionalität benötigt, kann man sich also aus dem Pool der schon existierenden Extensions bedienen, eine vorhandene Extension weiterentwickeln bzw. modifizieren oder eine neue Extension selbst erstellen. TypoScript Typo3 verwendet für die Konfiguration eine eigene Sprache: TypoScript ist weder – wie der Name fälschlich vermuten lässt – eine Skriptsprache noch eine Programmiersprache, sondern eine Beschreibungssprache. Es besitzt eine eigene Syntax und dient als direkte Verbindung zu den Kernfunktionen sowie zur Ausgabe-Engine von Typo3. 39 Infos & Ansprechpartner Der Betrieb, die Pflege sowie der technische und didaktische Support des Typo3-Systems an der Universität Wien beruht auf der Zusammenarbeit mehrerer Abteilungen: • Derzeit ist die DLE Öffentlichkeitsarbeit und Veranstaltungsmanagement für die Entwicklung, für den Aufbau sowie für die Administration des Systems verantwortlich, wodurch die Ausweitung des Systems begrenzt ist. Über die weitere Entwicklung wird Anfang 2007 informiert werden. • Die technische Infrastruktur besteht aus einem für Content Management Systeme optimierten Server, der vom Zentralen Informatikdienst zur Verfügung gestellt wird. In Zusammenarbeit mit dem Helpdesk des ZID (siehe www.univie.ac.at/ZID/helpdesk/) entsteht derzeit ein organisierter technischer Support. • Weiters wird vom Referat für Personalentwicklung in Zusammenarbeit mit dem Projektzentrum Lehrentwicklung allen MitarbeiterInnen der Universität Wien ein kostenloser Typo3-Einschulungskurs angeboten. Informationen hierzu finden Sie unter www.univie.ac. at/personalentwicklung/. Bei Fragen und Anregungen wenden Sie sich bitte per eMail an die zentrale Informationsstelle für Typo3-Fragen, die unter [email protected] erreichbar ist. André Seirafi (DLE Öffentlichkeitsarbeit und Veranstaltungsmanagement) I Comment 06 /3 Abb. 2: Bearbeitung derselben Webseite im Typo3-Backend (Ausschnitt) 40 Netzwerk- & Infodienste WEB-PUBLISHING MIT XML Die eXtensible Markup Language verwirklicht den Cross-Media-Gedanken XML ist in aller Munde. Dank XML (Extensible Markup Language, übersetzt: erweiterbare Auszeichnungssprache), so versprechen die Hersteller und Dienstleister, werden Datenformate kompatibler, Daten maschinenlesbarer und Anwender entlastet. Besonders für das Publizieren im Web verspricht die Wandlungsfähigkeit von XML-Daten ein wahrer Segen zu sein: Mit XML als Standard zur Erstellung maschinen- und menschenlesbarer Dokumente könnte endlich der Cross-Media-Gedanke – das Verbreiten der gleichen Information über mehrere Kanäle – technisch so umgesetzt werden, dass beispielsweise Artikel wirklich nur einmal editiert werden müssen, bevor sie sowohl in elektronischen wie in sonstigen Medien im jeweils adäquaten – sprich mediengerechten Format – verfügbar sind. XML definiert die Regeln für den Aufbau von Dokumenten in Form einer Baumstruktur. Im Gegensatz zu bekannten Auszeichnungssprachen wie beispielsweise HTML (Hypertext Markup Language) oder TeX (bzw. LaTeX)1) ist XML ein Standard zur Definition von beliebigen, in ihrer Grundstruktur jedoch stark verwandten Auszeichnungssprachen und wird daher auch als Metasprache bezeichnet. Zwei Hauptargumente, die für das Publizieren mit XML zumeist genannt werden, sind, dass 1. Inhalte nur einmal eingegeben werden müssen, um über mehrere Kanäle abrufbar zu sein und 2. die Kompatibilität zu anderer Software erhöht wird, so dass Importvorgänge erleichtert werden. Comment 06 /3 Wo macht der Einsatz von XML wirklich Sinn? Wo ist er im Vergleich zu herkömmlichen Technologien besser oder gar schlechter geeignet? Größenordnungen bezeichnen. Sehr populär ist zum Beispiel der kombinierte Einsatz der Skriptsprache PHP zusammen mit dem MySQL-Datenbank-Managementsystem. Beide sind wichtige Vertreter der Open Source-Gemeinde und stehen somit nicht nur jedem Entwickler frei zur Verfügung, sondern laden auch zu eigenen Verbesserungsansätzen ein. Statisches Publizieren Das statische Publizieren ist vom Prinzip her denkbar einfach und schnell erklärt: Die zu publizierenden Dokumente werden in einem Editor (oft ein WYSIWYG2)- oder ein einfacher Texteditor) erstellt bzw. bearbeitet und mit allen gewünschten Funktionen versehen. Das Resultat sind einzelne HTML-Dokumente, von denen jedes einzelne alle notwendigen Daten enthält, das heißt, dass keinerlei Daten gemeinsam verwendet werden. Dann wird eine Kopie dieser Dateien auf dem System gespeichert (meist mit Hilfe von SSH, FTP 3) oder WebDAV 4) ), auf dem auch der Webserverdienst läuft. Der Webserver liefert dann bei jeder Anfrage eines Clients das gewünschte Dokument aus, und zwar ohne es weiter zu verarbeiten oder sonstige Aktionen zu verrichten. Auch die URLs, die vom Client abgerufen werden, geben exakt die Struktur des Dateisystems wieder: So befindet sich zum Beispiel eine Datei, deren URL auf .../kontakt/index. html endet, auf dem Webserver im Verzeichnis kontakt und hat den Dateinamen index.html. 1) siehe hierzu Artikel LamportTauepsilonXi – Textverarbeitung und mehr in Comment 06/1, Seite 25 bzw. unter www.univie.ac. at/comment/06-1/061_25.html Bevor diese Fragen beantwortet werden, soll ein kurzer Überblick gegeben werden, wie Web-Publishing mit nicht XML-basierten Technologien aussieht. 2) WYSIWYG ist die Abkürzung für das Prinzip What You See Is What You Get („was du siehst, ist, was du bekommst“ ). Bei echtem WYSIWYG wird ein Dokument während der Bearbeitung – z.B. in einem Editor – genauso angezeigt, wie es bei der Ausgabe des fertigen Dokuments aussieht. Web-Publishing ohne XML 3) FTP (File Transfer Protocol ) ist ein spezifiziertes Netzwerkprotokoll zur Dateiübertragung und wird benutzt, um Dateien vom Server zum Client (Download), vom Client zum Server (Upload) oder clientgesteuert zwischen zwei Servern zu übertragen. Außerdem können mit FTP Verzeichnisse angelegt und ausgelesen sowie Verzeichnisse und Dateien umbenannt oder gelöscht werden. Zum „herkömmlichen“ Web-Publishing zählen das Publizieren von rein statischen Webdokumenten sowie die serverseitig programmierten Ausgabesysteme (dynamische Systeme). Gerade der Einsatz von serverseitigen Skriptsprachen hat in den letzten Jahren erheblich an Bedeutung gewonnen und lässt sich durchaus als Standardlösung für Webprojekte aller 4) WebDAV (Web-based Distributed Authoring and Versioning) ist ein offener Standard zur Bereitstellung von Dateien im Internet. 5) Der Begriff Netzwerklaufzeit bezeichnet die Zeitspanne, die eine Information benötigt, um von A nach B zu kommen. Netzwerk- & Infodienste Vorteile Der größte Vorteil dieser Art des Publizierens ist die offensichtliche Einfachheit. Dass von Seiten des Webserverdienstes keine weiteren Aktionen notwendig sind, bringt einen zusätzlichen Geschwindigkeitsvorteil, der in der Praxis jedoch nicht spürbar ist. Die Performance von Skriptsprache-Interpretern und vor allem der Server-Hardware ist in den letzten Jahren so gut geworden, dass auf einem gewöhnlichen Mietserversystem bei vernünftiger Programmierung keine Verzögerung wahrnehmbar ist, zumal die Netzwerklaufzeiten5) meist erheblich höher sind. Ein weiterer Vorteil ist die Möglichkeit, den gesamten Inhalt des Webprojektes auch ohne Webserverdienst erschließen zu können. Wenn ein lokaler Zugang zu den HTML-Dateien besteht, sind diese von jedem beliebigen Browser les- und darstellbar. Dynamische Systeme Schon von den ersten Jahren des WWW an gab es immer Systeme, die HTML-Code dynamisch generierten. Der Entwickler programmiert dabei ein System, dessen Aufgabe es ist, bei der Anfrage eines bestimmten URL ein HTML-Dokument ganz oder teilweise neu zu erstellen. Für die hierzu notwendigen Informationen kommt jede denkbare Datenquelle in Frage: Daten aus dem Dateisystem, aus Datenbanken, von entfernten Rechnern oder auch Daten, die der Besucher innerhalb einer Sitzung dem Server übermittelt, wie etwa durch das Ausfüllen eines Kontaktformulars. Der Server erstellt dann anhand der angefragten Daten ein fertiges HTML-Dokument, das an den Client zurückgesandt wird. Vorteil Der Vorteil eines dynamischen Systems liegt auf der Hand: Es können nicht nur, wie beim statischen Publizieren, vorgefertigte Dokumente ausgeliefert werden, sondern auch Antworten, die zur Laufzeit erstellt werden. Zudem können alle redundanten Bestandteile eines Dokuments wie etwa Navigation oder Fußzeile zentral abgelegt und vor allem separat gepflegt werden. Auch wird so eine Integration des Webauftrittes in weitere Geschäftsprozesse überhaupt erst möglich, wenn z.B. das online Abrufen von Lagerbeständen einen Zugriff auf die Lagerdatenbank erfordert. Statisch oder dynamisch: XML bleibt draußen Bei dynamischen Ansätzen sind durchaus Lösungen denkbar, die XML-Datenquellen zur Publikation nutzen. Dennoch ist diese Kombination nicht sonderlich oft anzutreffen, weil in der Regel relationale Datenbankmanagementsysteme als Datenquellen genutzt werden. Ein möglicher Grund hierfür ist bei den Programmiergewohnheiten der jeweiligen Programmierer zu suchen. Da Entwickler von skriptbasierten Systemen sich häufig der schlichteren prozeduralen Programmierung bedienen, ist der Schritt zu den eher objektorientierten Denkmodellen der XML-Verarbeitung oft nicht der nahe liegendste. Zudem erschließt sich das volle Spektrum der Vorteile von XML erst durch einen übergreifenden und konsistenten Workflow (Näheres im Abschnitt Noch mehr Vorteile). So wird XML beispielsweise in großen kommerziellen Applikationen eingesetzt, die üblicherweise in Java geschrieben sind und einen Application Server verwenden (z.B. den Oracle Application Server). Bei solchen Anwendungen ist die Webschnittstelle oft nur ein kleiner Teil des Gesamtsystems, das noch über zahlreiche weitere Schnittstellen verfügt. Für einen komfortablen Datenaustausch über verschiedene Schnittstellen ist XML hervorragend geeignet. Die eXtensible Markup Language XML ist im Laufe der letzten Jahre zu einem echten Schlagwort geworden. Bei einer etwas nüchterneren Betrachtung ist XML selbst zunächst allerdings nicht mehr und nicht weniger als eine standardisierte Weise, Daten abzuspeichern oder zu übertragen. Dabei spielt die Gliederung innerhalb der Dateien eine entscheidende Rolle. Viel konkreter ist XML zunächst nicht erklärbar, denn zu dessen größter Stärke gehört die Flexibilität, was es allerdings auch am Anfang etwas schwer fassbar macht. XML ist aus der bereits 1986 definierten Auszeichnungssprache Standard Generalized Markup Language (SGML) entstanden. XML sollte so einfach zu handhaben sein wie HTML, dabei aber so flexibel wie SGML bleiben. Ein mit XML beschriebener Datenbestand ist mit so genannten Tags (übersetzbar mit „Markierung“) versehen, die das Dokument logisch bzw. semantisch gliedern. Würde man die Gliederung verwerfen, wäre der gesamte Text einfach ein einziges, zusammenhängendes Gebilde, etwa so, als würde man aus einem Theaterstück alle Rollenzuweisungen, Regieanweisungen und Szenenbeschreibungen entfernen oder die Tageszeitung in einem Stück diktieren, ohne eine Unterscheidung zwischen Titel und Text zu machen. Welche Tags verwendet werden und wie sie angeordnet werden, hängt vom Zweck des Dokumentes ab. Für alle Dokumente, die den gleichen Zweck erfüllen, wird eine so genannte XML-Applikation definiert, also ein konkreter Umfang von Tags mit Regeln, die festlegen, wo, wie oft und unter welchen Bedingungen ein Tag gesetzt werden muss. Ein sehr einfaches Beispiel für XML ist etwa eine Einkaufsliste, wie sie in Abb. 1 auf der Folgeseite notiert ist. Comment 06 /3 Sowohl beim Publizieren von statischen Inhalten als auch bei den dynamischen Systemen kommen bisher in aller Regel keine XML-Technologien zum Einsatz, weder als Datenquelle noch zur Verarbeitung. Gleichwohl ist diese Möglichkeit denkbar, und streng genommen kann auch eine einzelne valide XHTML-Seite als Verwendung von XML verstanden werden. Dieser Fall soll jedoch ausgeschlossen werden, da die Vorteile von XML hier bei weitem nicht ausgenutzt werden, insbesondere weil keine Transformationen von Inhalten erfolgen. 41 42 Netzwerk- & Infodienste 1 <einkaufsliste> 2 <posten> 3 <ware>Milch</ware> 4 <menge>1</menge> 5 <einheit>Liter</einheit> 6 </posten> 7 <posten> 8 <ware>Semmeln</ware> 9 <menge>2</menge> 10 <einheit>Stück</einheit> 11 </posten> 12 <posten> 13 <ware>Orangen</ware> 14 <menge>1</menge> 15 <einheit>Kilo</einheit> 16 </posten> 17 </einkaufsliste> Abb. 1: Beispiel eines XML-Dokuments, hier eine Einkaufsliste Wie im Beispiel der Einkaufsliste zu sehen ist, wird für jeden einzelnen Posten ein Bereich <posten> eröffnet, in dem wiederum andere Tags geschachtelt enthalten sind. Jedes Tag mit seinem Inhalt stellt ein Element dar. Trotz seiner etwas wiederholenden Natur bleibt das Dokument selbst für ein ungeübtes Auge leicht les- und erfassbar. XML-Dokumente sind immer Textdateien – selbst wenn innerhalb der Tags später auch Binärinformationen erlaubt sind –, was die Handhabung sehr erleichtert. Die strenge Struktur dieses Dokumentes ermöglicht die einfache und flexible Verarbeitung, für die XML steht. Typische Eigenschaften eines XML-Dokumentes Comment 06 /3 Ein XML-Dokument hat verschiedene Merkmale. Einige davon sind zwingend notwendig, andere Eigenschaften sind optional, und wieder andere sind logische oder stilistische Richtlinien. Im Folgenden sind die wichtigsten Eigenschaften von XML zusammengefasst: • Syntax: Jedes Element wird mit Hilfe eines Tags begonnen und beendet, bei dem der Tagname in spitzen Klammern steht. Dazwischen kann ein Text stehen: <tagname>foobar</tagname>, oder es handelt sich um ein leeres Element: <tagname/>. Innerhalb des Tags können noch weitere Daten gespeichert werden, in Form so genannter Attribute: <tagname attribut=“wert“>. Das öffnende Tag enthält dabei den Tagnamen und optionale Attribut-Wert-Zuweisungen. Das schließende Tag beginnt mit einem Schrägstrich nach der öffnenden Klammer und darf keine Attribute enthalten. Leere Tags enden mit einem Schrägstrich vor der schließenden Klammer. Bei Tagnamen wird Großund Kleinschreibung berücksichtigt. • Wohlgeformtheit: Ein Dokument ist wohlgeformt, wenn alle Elemente, die geöffnet werden, auch wieder geschlossen werden (<tag>...</tag>) oder die Elemente leer sind (<tag/>). Außerdem dürfen Elemente zwar geschachtelt werden (<a><b></b></a>), aber nicht über Kreuz geöffnet und geschlossen werden (<a><b></a></b>). Die Einhaltung dieser Regeln ist absolut notwendig, da die meisten Programme die Verarbeitung eines nicht wohlgeformten Dokumentes abbrechen werden. • Validierung mittels DTD und anderer Technologien: Wie bereits erwähnt, definiert man für mehrere Dokumente, die dem gleichen Zweck dienen, eine so genannte XML-Applikation. Beispiele hierfür sind etwa MathML zur Notation von mathematischen Formeln oder XHTML für Hypertext-Dokumente im Web. Das Mittel hierzu ist die Beschreibung einer so genannten Document Type Definition (DTD). Hierin wird standardisiert, welche Tags benutzt werden dürfen, welche ineinander geschachtelt werden können, und welche Attribute zugelassen oder zwingend notwendig sind. Die Standardisierung solcher Applikationen ist unerlässlich, damit ein Programm, das Daten aus einem XMLDokument erhält, sichergeht, dass alle Daten aus dem Dokument im Programm zuordnungsfähig sind und umgekehrt alle für das Programm notwendigen Daten im Dokument vorhanden sind. Braucht z.B. ein Programm zwingend die Information, ob eine Person männlich oder weiblich ist, so wird dies in der DTD festgelegt. Ein entsprechend valides Element könnte etwa so aussehen: <person gender=“female“>...</person>. Würde hier das gender-Attribut weggelassen werden, wäre das Dokument nicht mehr gegen diese DTD valide. Das DTD-Format ist nicht die einzige Sprache, in der die Syntax von XML-Dokumenten festgelegt werden kann. Profiliert haben sich vor allem auch die Sprachen XML Schema6), welche den Vorteil hat, selbst eine XMLApplikation zu sein, und Relax NG7), die für sich beansprucht, besonders leicht erlernbar zu sein. • Trennung von Inhalt und Darstellung: XML ist eine Auszeichnungssprache, mit deren Hilfe logische bzw. semantische Strukturen der Daten auf das Dokument übertragen werden sollen. Der Zweck eines Dokuments kann dabei je nach XML-Applikation völlig verschieden sein. Jede Applikation erfüllt genau ihren Zweck und keinen anderen. So sollen zum Beispiel auch XHTMLElemente nicht zur visuellen Gestaltung verwendet werden, sondern die dafür vorgesehene Sprache CSS (Cascading Style Sheets) 8). Andere Applikationen hingegen, wie SVG 9) und XSL-FO10), sind genau hierfür gedacht. • Portierbarkeit ist einer der meist gepriesenen Vorteile von XML und beschreibt die Fähigkeit, Daten auf anderen Rechnern, auf anderen Betriebssystemen oder mit anderer Anwendungs- oder Server-Software weiter benutzen zu können. Dies verdankt XML einerseits der Netzwerk- & Infodienste leichten Verarbeitbarkeit des Datenformats, andererseits sicherlich aber auch einer gewissen Mode, durch die (dankenswerterweise) viele Anwendungen eine Schnittstelle zum XML-Import oder -Export implementiert haben oder sogar gleich konsequenterweise ihre Daten in XML-Formaten speichern. Für fast alle Programmiersprachen gibt es Pakete, mit denen Softwareentwickler relativ leicht XML-Funktionen nachrüsten können, allen voran Java und Perl. Unterstützt wird die Portierbarkeit über verschiedene Sprachen und Alphabete hinweg vor allem durch die Verwendung von adäquaten Encodings, nach aller Möglichkeit Unicode (UTF-8). • Transformierbarkeit ist ebenfalls eine der Schlüsseltechnologien von XML. Bei Transformationen handelt es sich um Prozesse, die nach einer bestimmten Vorschrift Daten aus einem XML-Dokument extrahieren und sie in ein zweites niederschreiben, wobei sich allerdings das Schema, also die Struktur der Daten, verändert. Auf diese Weise könnte zum Beispiel die Einkaufsliste aus Abbildung 1, die einem generischen11) XML-Schema folgt, in ein XHTML-konformes Dokument transformiert werden: ... <ol class=“einkaufsliste“> <li>1 Liter Milch</li> <li>2 Stück Semmeln</li> <li>1 Kilo Orangen</li> 43 grammen und Plattformen. XML unterliegt als offener Standard nicht der Kontrolle einer einzelnen Firma, und seine Verwendung ist nicht geschützt oder begrenzt. Auch für Entwickler sind die Gründe nahe liegend: Statt mit viel Aufwand einen Parser 13) für ein eigenes Textformat zu programmieren, greift man auf XML zurück – und erntet damit noch alle weiteren Vorteile. Noch mehr Vorteile … Von diesen ausführlich beschriebenen Merkmalen von XML abgesehen ist für den Zweck des Web-Publishing vor allem der folgende Aspekt interessant: Die Datenspeicherung soll möglichst zentral und mit möglichst wenig Redundanz auskommen, besonders sollen aber redundante Arbeitsschritte bei der Verarbeitung der Inhalte vermieden werden. Dieser Aspekt betrifft mehrheitlich Redakteure von Webseiten. Wenn erreicht werden kann, dass Artikel, Bild- und Grafikmaterial, Adressdaten, Daten zu Geschäftsprozessen (wie z.B. Nutzerstatistiken oder Lagerhaltungsdaten) wirklich nicht mehr isoliert auf den Arbeitsplatzrechnern der einzelnen Mitarbeiter, sondern zentral und direkt auf gemeinsamen Servern gespeichert werden, ist ein sehr großer Schritt nach vorne gelungen. Wenn hierzu noch die Software der Endanwender, also die Redaktionssysteme, Adressprogramme, Textverarbeitungen und andere Programme, auch über eine einheitliche Schnittstelle auf diese Datenbestände zugreifen kann und die Server-Software keine proprietären Datenformate mehr verarbeiten muss, so werden die positiven Auswirkungen für jeden Mitarbeiter spürbar und offensichtlich sein: </ol> Datenbestände sind dann immer auf dem neuesten Stand, lästiges und fehleranfälliges Abgleichen von Listen entfällt Die so transformierte Einkaufsliste kann nun problemlos in jede Website eingebunden werden. Die wichtigste Technologie für Transformationen ist die Extensible Stylesheet Language Transformation (XSLT) 12). Diese Punkte machen deutlich, warum XML so viele Vorteile in sich vereint, die für sich genommen nicht unbedingt revolutionäre Neuerungen sind, aber hier konsequent und zusammen umgesetzt wurden. Was die Verwendung dieser Technologie allerdings erst so richtig interessant und mächtig macht, ist die umfangreiche Sammlung von Werkzeugen und Schnittstellen zu allen erdenklichen Systemen, Pro- 7) siehe hierzu http://relaxng.org/ (nur englisch) 8) siehe Artikel Cascading Style Sheets in Comment 03/1, Seite 30 bzw. unter www.univie.ac.at/comment/03-1/031_30.html 9) Scalable Vector Graphics (übersetzt: „skalierbare Vektorgrafiken“) ist ein Standard zur Beschreibung zweidimensionaler Vektorgrafiken in der XML-Syntax. 10) Extensible Stylesheet Language – Formatting Objects ist eine XMLAnwendung, die beschreibt, wie Text, Bilder, Linien und andere grafische Elemente auf einer Seite angeordnet werden. 11) „Generisch“ meint in diesem Fall: nur für dieses eine Dokument zutreffend; es handelt sich hierbei nicht um ein Standardformat. 12) Ein Tutorial zu XSLT ist unter www.data2type.de/xml/XML. html verfügbar. 13) Parser bezeichnet ein Computerprogramm zur Verarbeitung von Textdokumenten. Comment 06 /3 • Document Object Model (DOM): Die geschachtelte Struktur eines XML-Dokumentes lässt sich als Baumstruktur darstellen, in der das oberste Element das Root Element darstellt. Alle weiteren Elemente sind hierarchisch unter diesem Element sortiert, als so genannte Child Elements. Sie sind in dem Root Element enthalten. Bei der Verarbeitung spielt dieser Umstand eine entscheidende Rolle, da viele Schnittstellen zur Programmierung nach diesem Modell arbeiten. 6) Eine Einführung in XML Schema ist unter www.edition-w3c. de/TR/2001/REC-xmlschema-0-20010502/ verfügbar. 44 Netzwerk- & Infodienste völlig, und Funktionen für komplexere Zugriffe können vom Systemadministrator jederzeit nachgerüstet werden. Vor allem aber kann eine Datei (etwa ein Artikel) nicht nur mit dem Programm verarbeitet werden, in dem die Datei erstellt wurde, sondern jedem anderen Zweck übergeben werden, für den eine Transformationsregel geschrieben wurde. Ein einmal gespeichertes OpenOffice.org-Dokument 14) könnte so beispielsweise direkt ohne weitere Arbeitsschritte im Web veröffentlicht werden. Bei der Veröffentlichung der Daten ist aber nicht nur ein Weg möglich, sondern im Sinne des anfangs bereits erwähnten Cross-Publishing eine Publikation über mehrere Ausgangsformate hinweg denkbar. Üblich wäre es zum Beispiel, einen Artikel im Web über einen Link als Druckversion in Form einer PDF-Datei anzubieten. Ein RSS-Stream15), wie ihn in letzter Zeit immer mehr Websites anbieten, wäre ebenfalls über eine recht einfache Transformation direkt aus den Datenbeständen zu gewinnen. WML-Versionen16) für mobile Endgeräte, Web-Services und proprietäre XMLFormate sind nur Beispiele für eine beinahe beliebig erweiterbare Liste weiterer Ausgabeformate. Auf Seiten der Programmierer der Website ergibt sich einer der Hauptvorteile allein durch die konsequente Nutzung von XML: Für die verschiedenen Arten von Daten muss nicht für jede Anwendung eine andere Technologie beherrscht werden. Unterschiede der Verarbeitung und der Datenmodelle, wie sie zwischen relationalen Datenbanken, objektorientierten Datenbanken, Spezial-Datenschnittstellen wie LDAP (Lightweight Directory Access Protocol, siehe Artikel auf Seite 29 und 33) für die Ablage von Adressdaten etc. existieren, können so auf einen einheitlichen Nenner gebracht werden. Zwar erfordern die XML-Technologien auch aufgrund ihrer Anzahl eine gewisse Einarbeitungszeit, aber schnell wird deutlich, dass sie sich meist eines gemeinsamen Denkmodells bedienen. … und die Kehrseite Damit diese Ziele realisiert werden können, ist insbesondere die richtige Planung von entscheidender Wichtigkeit. Nur wenn alle Arbeitsschritte von der Erstellung bis zur Veröffentlichung der Inhalte wirklich konsequent auf den Austausch von XML-Daten ausgelegt werden, ergibt sich aus der Umstellung der Datenspeicherung auch tatsächlich ein arbeitstechnischer und mithin wirtschaftlicher Vorsprung. Der Grund dafür ist, dass XML als isolierte Lösung in einem Bereich nicht erheblich besser ist als konventionelle Formate, und sich somit der Arbeitsaufwand zur Vereinheitlichung beziehungsweise Umstellung kaum rentieren würde. Die Anforderungen sind nämlich nicht gering: Es müssen die Datenbanken sowie die Programme für Endanwender (insbesondere Redakteure) überarbeitet oder neu angeschafft werden, und die Server-Software muss in aller Regel erneuert werden. Der wichtigste Teil der Arbeit entfällt aber mit Sicherheit auf die Planung einer solchen Konsolidierung auf XML, damit sie über Jahre (und Programmversionen) hin nutzbar und skalierbar bleibt. Der Selbstversuch Wer selbst Hand an ein XML-basiertes Publishing-System legen will, ist gut beraten, sich zu Beginn mit den einschlägigen Frameworks zu beschäftigen. Frameworks sind Rahmenanwendungen, deren Module ähnlich einem Baukastensystem zu einem neuen System zusammengesetzt werden können. In X4U 17) beispielsweise kann mit wenig Aufwand eine komplette typische Website mit Navigation, Inhalten, Statistiken und Ähnlichem generiert werden. Cocoon18) hingegen ist Teil des bekannten Apache-Projekts und wahrscheinlich das umfangreichste und mächtigste XML-Publishing-Framework. Außer den beiden genannten existieren noch unzählige weitere Frameworks und Module, oft auch welche, die für Nischenanwendungen programmiert und dann als OpenSource-Software veröffentlicht wurden. Wie erwähnt, sollte die Einrichtung eines kompletten Systems von langer Hand konzipiert und vor allem auf den Workflow des jeweiligen Einsatzes abgestimmt werden. Mit ein wenig Probierfreudigkeit und den richtigen Beispielen kann man jedoch bereits in wenigen Tagen ein gutes Gefühl für die Stärken und Tücken der Datenverarbeitung mit XML gewinnen. Katharina Lüthke (ZID) & Michael Probst Stuckmann (netconstructions) I Comment 06 /3 XML-Literaturtipps • Erik T. Ray: Einführung in XML, O‘Reilly 2004 • Helmut Vonhoegen: Einstieg in XML, Galileo Computing 2005 XML-Webtipp • XML in der Praxis: Extensible Markup Language für Profis: www.linkwerk.com/pub/xmlidp/2000/ 14) OpenOffice.org speichert seine Daten im so genannten OpenDocument-Format, einem XML-Format für Office-Dokumente. 15) siehe hierzu Artikel RSS Enterprise in Comment 06/1, Seite 46 bzw. unter www.univie.ac.at/comment/06-1/061_46.html 16) WML (Wireless Markup Language) als Teil des Wireless Application Protocol (WAP) dient zur Darstellung von Inhalten im Internet auf Mobiltelefonen. 17) auf Anfrage (per eMail an [email protected]) beim Autor erhältlich 18) http://cocoon.apache.org/