2010 - LRZ
Transcription
2010 - LRZ
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Jahresbericht 2010 Juni 2011 Direktorium: Prof. Dr. A. Bode (Vorsitzender) Prof. Dr. H.-J. Bungartz Prof. Dr. H.-G. Hegering Prof. Dr. D. Kranzlmüller LRZ-Bericht 2011-01 Leibniz-Rechenzentrum Boltzmannstraße 1 85748 Garching UST-ID-Nr. DE811335517 Telefon: Telefax: E-Mail: Internet: (089) 35831-8000 (089) 35831-9700 [email protected] http://www.lrz.de Öffentliche Verkehrsmittel: U6: Garching-Forschungszentrum Jahresbericht 2010 des Leibniz-Rechenzentrums Vorwort 1 ........................................................................................................................................1 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) ........3 1.1 Kurse und Veranstaltungen ....................................................................................................3 1.1.1 Kursübersicht, Statistik 2010.....................................................................................3 1.1.2 Vorträge „Schattenseiten des Internet“......................................................................5 1.2 Software-Versorgung für Rechnersysteme außerhalb des LRZ .............................................6 1.2.1 Landesweiter ESRI Vertrag .......................................................................................6 1.2.2 Landesweiter Secunia Vertrag ...................................................................................7 1.2.3 Weitere neue oder geänderte Verträge ......................................................................7 1.2.4 Routinemäßige Verlängerung bestehender Verträge .................................................7 1.2.5 Status Microsoft Select-Plus Lizenzen ......................................................................7 1.2.6 Betrieb von Lizenzservern für externe Systeme am LRZ .........................................7 1.2.7 Verträge mit Instituten im MWN ..............................................................................7 1.2.8 Laufende Verhandlungen und Planungen..................................................................7 1.2.9 Zusammenfassung .....................................................................................................8 1.3 Benutzerverwaltung und Verzeichnisdienste .........................................................................8 1.3.1 Für LRZ-Systeme vergebene Kennungen .................................................................8 1.3.2 LRZ Secure Identity Management (LRZ-SIM) .......................................................10 1.3.3 TUM-Verzeichnisdienste ........................................................................................14 1.3.4 AAI-Föderationen: Shibboleth Identity Provider ....................................................16 1.4 E-Mail, Web-Dienste und Datenbanken...............................................................................18 1.4.1 E-Mail-Services .......................................................................................................18 1.4.2 Webdienste ..............................................................................................................22 1.4.3 Datenbanken ............................................................................................................26 1.5 Grafik, Visualisierung, Multimedia......................................................................................27 1.5.1 Virtual Reality (VR) ................................................................................................27 1.5.2 Streamingserver .......................................................................................................27 1.6 Serveradministration und Applikationsunterstützung ..........................................................27 1.6.1 Serveradministration in BDS ...................................................................................28 1.6.2 Service für das Münchner Wissenschaftsnetz .........................................................28 1.7 Desktop-Applikationsservices ..............................................................................................29 1.7.1 Sicherheitsdienste für Desktops im MWN ..............................................................29 1.7.2 Active Directory im Münchner Wissenschaftsnetz .................................................30 1.7.3 Desktop Management ..............................................................................................32 1.7.4 Server Management .................................................................................................34 1.7.5 Microsoft Office Sharepoint Services (MOSS) .......................................................35 1.7.6 Tätigkeiten im Rahmen der Berufsausbildung ........................................................36 1.8 Server- und Benutzerzertifizierung nach X.509 ...................................................................36 1.9 Bearbeitung von Missbrauchsfällen .....................................................................................37 1.9.1 Statistik der Missbrauchsfälle..................................................................................37 1.10 IT Bibliotheksverbund Bayern .............................................................................................42 1.10.1 Umsetzung Großgeräte-Antrag................................................................................43 1.10.2 Rosetta .....................................................................................................................44 2 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) ......................45 2.1 Entwicklung in der Datenhaltung .........................................................................................45 2.1.1 Überblick .................................................................................................................45 i Inhaltsverzeichnis ii 2.1.2 2.1.3 2.1.4 2.1.5 3 Archiv- und Backupsystem..................................................................................... 45 Langzeitarchivierung .............................................................................................. 52 Online-Speicher ...................................................................................................... 56 Daten- und Archivraum .......................................................................................... 62 2.2 Entwicklungen bei den Rechensystemen ............................................................................ 62 2.2.1 Höchstleistungsrechner in Bayern (HLRB II: SGI Altix 4700).............................. 62 2.2.2 Linux-Cluster .......................................................................................................... 70 2.2.3 Tests und Prototypen .............................................................................................. 70 2.2.4 Linux MPP Erweiterung ......................................................................................... 70 2.2.5 Remote Visualisierungsserver ................................................................................ 71 2.3 Aktivitäten zur Beschaffung des neuen Petascale-Rechners SuperMUC........................... 72 2.4 Software und User Support im Bereich Hochleistungsrechnen .......................................... 74 2.4.1 Software für Linux-Cluster und Höchstleistungsrechner ....................................... 74 2.4.2 Supportanfragen...................................................................................................... 75 2.4.3 Einführung des neuen Incidenttools ....................................................................... 75 2.4.4 Benutzerverwaltung ................................................................................................ 75 2.4.5 Kurse und Ausbildung ............................................................................................ 75 2.5 Öffentlichkeitsarbeit ............................................................................................................ 76 2.5.1 Supercomputing Konferenzen in Hamburg und New Orleans .............................. 76 2.5.2 Wissenschaft im Dialog/Tag der offenen Tür......................................................... 77 2.5.3 Berichtsband ........................................................................................................... 77 2.5.4 InSiDe und Quartl ................................................................................................... 77 2.5.5 Sonstige Aktivitäten im Umfeld des Hochleistungsrechnens ................................. 78 2.6 Projekte und Kooperationen ................................................................................................ 79 2.6.1 PRACE ................................................................................................................... 79 2.6.2 DEISA2 .................................................................................................................. 80 2.6.3 PROSPECT e.V. ..................................................................................................... 82 2.6.4 KONWIHR ............................................................................................................. 82 2.6.5 ISAR ....................................................................................................................... 83 2.6.6 EU Projekt Scalalife ............................................................................................... 83 2.6.7 Beteiligung an Workshops...................................................................................... 83 2.7 Tätigkeiten im Server-Betrieb ............................................................................................. 83 2.7.1 Linux-Serversysteme .............................................................................................. 83 2.8 Aktivitäten im Bereich „Verteilte Ressourcen“................................................................... 87 2.8.1 Initiative for Globus in Europe (IGE) ..................................................................... 88 2.8.2 D-Grid: Förderung „e-Science und vernetztes Wissensmanagement“ des BMBF ..................................................................................................................... 88 2.8.3 EGI-InSPIRE .......................................................................................................... 90 2.8.4 MAPPER ................................................................................................................ 90 2.8.5 e-Infrastructure Reflection Group Support Programme 3 (e-IRGSP3) .................. 90 2.8.6 Tier-2-Zentrum des Large Hadron Collider Computing Grids (LCG) ................... 90 2.8.7 LRZ-Projekt „Eclipse4Grid“ .................................................................................. 91 2.8.8 Cloud-Computing ................................................................................................... 91 2.8.9 Projektanträge 7. EU-Forschungsrahmenprogramm „e-Infrastrukturen“ ............... 92 2.8.10 Betrieb der Grid-Infrastruktur................................................................................. 92 2.8.11 Sonstige Grid-Aktivitäten ....................................................................................... 92 2.9 Managed Hosting für Hochschulstart.de ............................................................................. 93 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes .............................. 95 3.1 Betrieb des Kommunikationsnetzes .................................................................................... 95 Jahresbericht 2010 des Leibniz-Rechenzentrums 3.1.1 3.1.2 3.1.3 3.1.4 3.1.5 3.1.6 3.1.7 3.1.8 4 Backbone-Netz ........................................................................................................98 Gebäude-Netze ........................................................................................................99 Rechenzentrumsnetz ..............................................................................................100 Wellenlängenmultiplexer ......................................................................................101 WLAN (Wireless LAN) ........................................................................................102 Wesentliche Netzänderungen im Jahr 2010 ..........................................................109 Netzausbau (Verkabelung) ....................................................................................110 Anbindung Studentenwohnheime..........................................................................110 3.2 Dienste................................................................................................................................113 3.2.1 Wählzugänge (Modem/ISDN)...............................................................................113 3.2.2 VPN .......................................................................................................................115 3.2.3 DFN-Roaming .......................................................................................................117 3.2.4 Unterstützung von Veranstaltungen ......................................................................118 3.2.5 Internet-Zugang .....................................................................................................122 3.2.6 Service Load Balancer (SLB) ................................................................................124 3.2.7 Proxies und Zeitschriftenzugang ...........................................................................124 3.2.8 Domain Name System ...........................................................................................125 3.2.9 DHCP-Server .........................................................................................................126 3.2.10 Voice over IP (VoIP) im Jahr 2010 .......................................................................127 3.2.11 Zugang über UMTS: Vodafone Sponsoring der Exzellenz Universitäten TU München und Ludwig-Maximilians-Universität München .............................127 3.2.12 IPv6 im MWN .......................................................................................................127 3.3 Management .......................................................................................................................129 3.3.1 Weiterentwicklung und Betrieb der Netzdokumentation ......................................129 3.3.2 Netz- und Dienstmanagement ...............................................................................130 3.3.3 Überwachung der Dienstqualität des MWN mit InfoVista ...................................133 3.3.4 Action Request System (ARS) ..............................................................................135 3.4 Sicherheit............................................................................................................................139 3.4.1 NAT-o-MAT/Secomat ..........................................................................................139 3.4.2 Security Information & Event Management..........................................................140 3.4.3 Zentrale Sperrliste .................................................................................................141 3.4.4 Monitoring am X-WiN-Übergang .........................................................................141 3.4.5 Sicherheitswerkzeuge "Nyx" und "Nessi" .............................................................142 3.4.6 Virtuelle Firewalls .................................................................................................143 3.5 Projektarbeiten im Netzbereich 2010 .................................................................................143 3.5.1 D-GRID Projekt GIDS ..........................................................................................144 3.5.2 Customer Network Management ...........................................................................148 3.5.3 Géant E2E Link Monitoring ..................................................................................151 3.5.4 Géant I-SHARe .....................................................................................................152 3.5.5 Géant-Visualisierungswerkzeuge und Performance Monitoring...........................153 3.5.6 100GET-E3............................................................................................................156 Tätigkeiten in LRZ-weiten strategischen Arbeitskreisen .......................................................159 4.1 Arbeitskreis Security ..........................................................................................................159 4.2 Arbeitskreis IT-Service-Management ................................................................................159 4.2.1 Aktivitäten im Bereich IT-Service-Management am LRZ ....................................160 4.2.2 Weitere Aktivitäten im Bereich IT-Service-Management .....................................161 4.3 Arbeitskreis Continuity ......................................................................................................161 4.4 Arbeitskreis Informationsmanagement ..............................................................................162 iii Inhaltsverzeichnis iv 5 Organisatorische Maßnahmen im LRZ ................................................................................... 163 5.1 Personalveränderungen 2010............................................................................................. 163 5.1.1 Zugänge ................................................................................................................ 163 5.1.2 Abgänge ................................................................................................................ 164 5.2 Gebäudemanagement und Gebäudebetrieb ....................................................................... 164 5.2.1 Erweiterung des LRZ (Rechner- und Institutsgebäude) ....................................... 165 5.2.2 Energieeffizienz .................................................................................................... 165 5.2.3 Personalausstattung der Hauswerkstätte ............................................................... 166 5.3 Dienstleistungskatalog....................................................................................................... 166 5.4 Mitarbeit in Gremien ......................................................................................................... 167 5.4.1 Abteilung „Benutzernahe Dienste und Systeme“ ................................................. 167 5.4.2 Abteilung „Hochleistungssysteme“ ...................................................................... 167 5.4.3 Abteilung „Kommunikationsnetze“...................................................................... 168 5.4.4 Abteilung „Zentrale Dienste“ ............................................................................... 168 5.5 Veranstaltungen am LRZ .................................................................................................. 168 5.6 Mitarbeit bei und Besuch von Tagungen und Fortbildungsveranstaltungen ..................... 169 5.6.1 Abteilung „Benutzernahe Dienste und Systeme“ ................................................. 169 5.6.2 Abteilung „Hochleistungssysteme” ...................................................................... 170 5.6.3 Abteilung „Kommunikationsnetze“...................................................................... 174 5.6.4 Abteilung „Zentrale Dienste“ ............................................................................... 175 5.7 Öffentlichkeitsarbeit .......................................................................................................... 176 5.8 LRZ als Ausbildungsbetrieb .............................................................................................. 177 5.9 Betreuung von Diplom-, Bachelor-, Master- und Studienarbeiten .................................... 177 5.10 Veröffentlichungen der Mitarbeiter 2010 .......................................................................... 178 6 Regelwerk des LRZ ................................................................................................................... 181 6.1 Satzung der Kommission für Informatik ........................................................................... 181 6.2 Mitglieder der Kommission für Informatik ....................................................................... 181 6.3 Benutzungsrichtlinien für Informationsverarbeitungssysteme .......................................... 181 6.4 Betriebsregeln des Leibniz-Rechenzentrums .................................................................... 181 6.5 Richtlinien zum Betrieb des Münchner Wissenschaftsnetzes (MWN) ............................. 181 6.6 Richtlinien zur Nutzung des Archiv- und Backupsystems ................................................ 181 6.7 Gebühren des Leibniz-Rechenzentrums ............................................................................ 181 6.8 Zuordnung von Einrichtungen zu LRZ-Betreuern ............................................................ 181 6.9 Betriebs- und Organisationskonzept für den Höchstleistungsrechner in Bayern (HLRB) 181 6.10 Nutzungs- und Betriebsordnung für den Höchstleistungsrechner in Bayern (HLRB) ...... 181 6.11 Mitglieder des Lenkungsausschusses des Höchstleistungsrechners in Bayern (HLRB) ... 181 7 Technische Ausstattung............................................................................................................. 183 7.1 Speicher ............................................................................................................................. 183 7.2 Rechner und Server ........................................................................................................... 184 7.2.1 Höchstleistungsrechner SGI Altix 4700 ............................................................... 184 7.2.2 Hochleistungs-Linux-Systeme .............................................................................. 185 7.2.3 Grid-Rechner ........................................................................................................ 188 Jahresbericht 2010 des Leibniz-Rechenzentrums 7.2.4 7.2.5 7.3 Hochleistungs-Graphik-System .............................................................................188 Server-, Benutzer- und Mitarbeiter-Arbeitsplatzrechner .......................................189 Netzkomponenten...............................................................................................................193 7.3.1 Router ....................................................................................................................193 7.3.2 Switches.................................................................................................................193 7.3.3 WLAN-Komponenten ...........................................................................................194 7.3.4 Netz-Server ............................................................................................................195 v Jahresbericht 2010 des Leibniz-Rechenzentrums, Vorwort 1 Vorwort Der Jahresbericht 2010 des Leibniz-Rechenzentrums (LRZ) der Bayerischen Akademie der Wissenschaften ist ein Beleg für das weitere quantitative und qualitative Wachstum dieser Einrichtung. ITDienstleistungen für Forschung, Lehre und Verwaltung werden für Kunden im Großraum München, in Bayern, Deutschland und zunehmend auch international, vor allem in Europa, erbracht. Besondere Schwerpunkte und neue Aufgabenstellungen des LRZ im Jahr 2010 waren insbesondere: • Mit der Erweiterung der Rechner- und Institutsgebäude wurde Platz für den nächsten Höchstleistungsrechner SuperMUC, für ein neues Visualisierungs- und Virtual-Reality-Zentrum sowie für neue Projektmitarbeiter – vor allem im Rahmen europäischer Projekte – geschaffen. Dabei wurde besonderer Wert auf eine neuartige Infrastruktur für energieeffizientes (Super-)Computing gelegt, das im Kontext der Beschaffung verschiedener Rechnersysteme zu einem neuen Themenschwerpunkt des LRZ wird. In Anwesenheit von Innenminister Joachim Herrmann konnte für die Gebäudeerweiterung am 18. Oktober mit zahlreichen prominenten Teilnehmern das Richtfest gefeiert werden. • Mit der feierlichen Vertragsunterzeichnung zwischen LRZ und der Firma IBM GmbH wurde am 13.12.2010 eine 9-monatige intensive Auswahlphase für den neuen Höchstleistungsrechner SuperMUC im Rahmen eines Wettbewerblichen Dialogs erfolgreich abgeschlossen. In Anwesenheit des Staatsministers Dr. Wolfgang Heubisch wurde ein Superrechner für das Gauss Centre for Supercomputing GCS e.V. als bayerischer bzw. deutscher Beitrag zur europäischen Infrastruktur PRACE (Partnership for Advanced Computing in Europe) beschafft, der in der ersten Ausbauphase mit 3 PetaFlop/s (drei Billiarden Rechenoptionen pro Sekunde) zu den leistungsfähigsten Rechnern der Welt zählen wird. Mit IBM wurde darüber hinaus eine wissenschaftliche Kooperation zum Thema Energieeffizienz vereinbart, die neben der Erprobung neuester Kühlungstechnik auf Basis von Warmwasser auch spezielle Maßnahmen in Hardware und Software des Superrechners, sowie neue Betriebsstrategien umfasst. Das LRZ erprobt hier neue Techniken, die zukünftig vor allem in Hinblick auf hohe Energiekosten für weitere Bereiche des Rechnerbetriebs von besonderer Bedeutung sind. Mehrere erfolgreich eingeworbene Drittmittelprojekte unterstützen diese Arbeiten des LRZ in den nächsten Jahren, die in enger Kooperation mit internationalen Partnern, vor allem aber mit Lehrstühlen der Ludwig-Maximilians-Universität München und der Technischen Universität München, durchgeführt werden. • Durch die Stiftung für Hochschulzulassung, Dortmund, wurde das LRZ beauftragt, den Infrastrukturbetrieb und das Managed Hosting des „Dialogorientierten Serviceverfahrens“ für die bundesweite Vergabe von Studienplätzen zu übernehmen. Nach der Konzeption und Beschaffung der entsprechenden Hard- und Software-Konfigurationen konnte im Herbst bereits der Testbetrieb der Anwendung begonnen werden, die von der Fa. T-Systems MMS erstellt wurde. Die Beauftragung dieser weiteren überregionalen Aufgabe erfolgte zunächst bis 31. März 2012. Den Mitarbeiterinnen und Mitarbeitern des LRZ möchte ich für ihre engagierte Arbeit danken. Mein besonderer Dank gilt aber auch der Leitung der Bayerischen Akademie der Wissenschaften, den zuständigen Ansprechpartnern im Bayerischen Staatsministerium für Wissenschaft, Forschung und Kunst sowie den Mitgliedern des HLRB-Lenkungsausschusses und der Kommission für Informatik, die die Arbeit des LRZ mit konstruktiver Kritik stets fachkundig unterstützt haben. Persönlich danke ich insbesondere den Mitgliedern des Direktoriums des LRZ, den Kollegen H. J. Bungartz, D. Kranzlmüller und H.-G. Hegering, die ihre große Fachkompetenz in die Leitung des LRZ mit eingebracht haben. Der vorgelegte Jahresbericht geht wieder bewusst über das Zahlenwerk üblicher Jahresberichte hinaus. Wir versuchen wie in den letzten Jahren, viele unserer Dienste und Geschäftsprozesse zu erklären und unsere Konventionen und Handlungsweisen zu begründen. Dies soll die Komplexität unserer Aufgabenstellung und das LRZ als Institution transparenter machen. Das LRZ nimmt aufgrund seiner Größe und Organisationsform, des Umfangs seines Versorgungsbereiches, der Anzahl seiner Nutzer, Anzahl, Vielfalt und Heterogenität der Systeme, Beteiligung an Entwicklungsprojekten usw. eine deutliche Sonderstellung ein, die auch im Bericht sichtbar wird. Eine moderne IT-Infrastruktur ist essentiell für die Wettbewerbsfähigkeit der Hochschulen und des Landes, und so muss auch das IT-Kompetenzzentrum eng im Hochschulumfeld verankert sein. Das LeibnizRechenzentrum als das technisch-wissenschaftliche Rechenzentrum für die Münchner Hochschulen wird 2 Vorwort sich auch in Zukunft den Anforderungen eines modernen IT-Kompetenzzentrums stellen, und das nicht nur durch den zuverlässigen Betrieb von IT-Infrastruktur, sondern auch durch aktive Beteiligung an Forschung und Entwicklung in den Bereichen Kommunikationssysteme, IT-Managementprozesse, Computational Science und Grid-Computing. Hierzu zählen auch die Initiativen im Rahmen von ISO/IEC 20000. Ich bin überzeugt davon, dass es dem LRZ auch im Jahr 2010 erneut gelungen ist, die Erwartungshaltung seiner Nutzer einerseits, aber auch seiner Finanzgeber andererseits zu erfüllen und seine Dienstqualität und IT-Kompetenz erneut zu steigern. Ich freue mich auf die Zusammenarbeit mit Ihnen und die weitere Entwicklung im Jahr 2011. Univ.-Prof. Dr. Arndt Bode Vorsitzender des Direktoriums des Leibniz-Rechenzentrums Jahresbericht 2010 des Leibniz-Rechenzentrums 3 1 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) 1.1 Kurse und Veranstaltungen Das LRZ bietet seinen Kunden regelmäßig mehr als 20 Kurse an, die sich in die Bereiche PCs und PCSoftware, UNIX/Linux, Internet, Hochleistungsrechnen und weitere Veranstaltungen einteilen lassen. Die in den Tabellen 1 bis 5 aufgeführten Veranstaltungen wurden von ca. 900 Teilnehmern besucht. Zusätzlich boten externe Anbieter weitere Kurse an, so dass die Gesamtteilnehmerzahl weit über 1.000 liegt. 1.1.1 Kursübersicht, Statistik 2010 Wie schon in den vergangenen Jahren wurden die Kurse gut angenommen, die vom LRZ zum Thema Hochleistungsrechnen angeboten wurden. Bei der Planung konnte stets davon ausgegangen werden, dass alle Teilnahmewilligen, die einen Platz im Kurs erhalten, diesen auch wahrnehmen würden. Dies darf beim übrigen Kursangebot leider nicht als selbstverständlich vorausgesetzt werden. Gerade bei den Kursen zu PCs und PC-Software ist der Unterschied zwischen der Zahl der Anmeldungen und der Zahl der Teilnehmer nach wie vor groß. Dies hat hohen Verwaltungsaufwand für diese Kurse zur Folge, müssen doch bei jeder Absage auf einen erteilten Kursplatz wieder alle organisatorischen Schritte für die Nachrücker durchlaufen werden. Es zeigte sich, dass das Interesse an Kursen zu den aktuellen Microsoft Office-Produkten nach wie vor groß war. Dabei wird vom Kursprogramm des LRZ einerseits Aktualität erwartet, die Akzeptanz der Anwender in Bezug auf neue Programmversionen andererseits hinkt dieser Erwartungshaltung häufig hinterher. Oft werden aus den unterschiedlichsten Gründen Programmversionen auch einfach „übersprungen“. Gerade bei den Microsoft Produkten neigen Anwender und Systemverantwortliche dazu, nur immer jede übernächste Version zu akzeptieren und zu installieren; und dies meist mit guten Gründen und einem zeitlichen Versatz - während auf die ersten Service Packs gewartet wird. Auf eine gedruckte Version des Kursprogramms wird seit 2010 verzichtet. Dies ermöglicht eine schnelle Aktualisierung, falls Kurse kurzfristig abgesagt werden müssen bzw. zusätzliche stattfinden. Auf den WWW-Seiten des LRZ ist immer die aktuellste Version zu finden. Viele PC-Kurse verwenden als Kursunterlage Handbücher vom RRZN in Hannover. Diese Schriften sind oftmals verbilligte Nachdrucke der Schulungsunterlagen vom Herdt-Verlag. Die Ersparnis ist besonders für Studenten von Bedeutung. Eine regelmäßig aktualisierte Liste der verfügbaren Schriften ist ebenfalls im Internet vorhanden. Kurse zu PCs und PC-Software 2010 Dauer Kurstitel Anzahl Stunden Teilnehmer Teilnehmer (Stunden) Kurse insgesamt angemeldet teilgenommen Textverarbeitung mit Word 2007 (Kompaktkurs) 10 5 50 170 140 Word 2007 lange Dokumente, wiss. Arbeiten 12 2 24 40 22 MS-Excel 2007 (Kompakt- u. Fortsetzungskurs) 10 9 90 290 220 9 2 18 60 35 Photoshop CS (Einsteigerkurs) 16 2 32 105 31 Access 2007 12 5 60 60 46 8 2 16 50 35 77 27 290 775 529 PowerPoint 2007 (Kompaktkurs) SPSS (Spezialkurs) Insgesamt: Tabelle 1: Kurse zu PCs und PC-Software Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) 4 Unix-Kurse und Praktika 2010 Dauer Kurstitel Anzahl Stunden Teilnehmer Teilnehmer (Stunden) Kurse insgesamt angemeldet teilgenommen Einführung in die Systemverwaltung unter Unix 65 1 65 21 21 Insgesamt: 65 1 65 21 21 Tabelle 2: Kurse zum Themenbereich Unix Auch im Jahr 2010 wurde - zusätzlich zum regulären Kursprogramm - die vorhandene, moderne Infrastruktur im Hörsaal, den Seminar- und Kursräumen für andere Veranstaltungen genutzt. Softwarefirmen hatten die Gelegenheit, neue Produkte bzw. neue Versionen bekannter Produkte zu präsentieren. Dabei standen wieder Beispiele für die Nutzung in Forschung und Lehre im Vordergrund. Internet 2010 Kurstitel Dauer Anzahl (Stunden) Kurse 3 1 3 14 11 3 1 3 14 11 Barrierefreies Webdesign Insgesamt: Stunden Teilnehmer Teilnehmer insgesamt angemeldet teilgenommen Tabelle 3: Kurse zum Thema Internet Hochleistungsrechnen 2010 Dauer Kurstitel Anzahl Stunden Teilnehmer Teilnehmer (Stunden) Kurse insgesamt angemeldet teilgenommen Debugging serial and parallel applications with Allinea DDT 5 1 5 12 11 Data Mining of XML Data Sets using R 7 1 7 6 6 Eclipse: C/C++ programming (with a slight Fortran touch) 9 1 9 13 11 Advanced Fortran Topics 45 1 45 15 13 GPGPU Programming 21 1 21 32 27 Introduction to Molecular Modeling on Supercomputers 14 1 14 16 11 Einführung in C++ für Programmierer 45 1 45 33 26 3 2 6 22 16 High-Performance Computing with GPGPUs 21 1 21 21 17 Parallel Programming with Cilk 18 1 18 15 13 Parallel Programming with R 7 1 7 6 5 Scientific High-Quality-Visualisation with R 7 1 7 10 8 Visualisation of Large Data Sets on Supercomputers 7 1 7 8 8 Insgesamt: 209 14 212 209 172 Introd. to the Usage of High Perf. Systems, Remote Visual. and Grid Facilities at LRZ Tabelle 4: Hochleistungsrechnen Jahresbericht 2010 des Leibniz-Rechenzentrums 5 Weitere Veranstaltungen 2010 Dauer Kurstitel Anzahl Stunden Teilnehmer Teilnehmer (Stunden) Kurse insgesamt angemeldet teilgenommen Train the Trainer 7 2 14 21 11 Einführung in das Archiv- u. Backupsystem am LRZ 7 1 7 100 100 Professioneller IT-Betrieb in mittleren und großen Umgebungen 3,5 1 3,5 40 25 Insgesamt: 17,5 4 24,5 161 136 Tabelle 5: Weitere Kurse 1.1.2 Vorträge „Schattenseiten des Internet“ Die große Zahl der gemeldeten und selbst entdeckten Missbrauchsfälle (siehe Kapitel 1.9) zeigt, dass das Sicherheitsbewußtsein im Bereich der virtuellen Welt des Internet noch deutlich besser werden muss. Deshalb veranstaltet das LRZ regelmäßig den Vortrag „Schattenseiten des Internet – Praktische Tipps zur Vermeidung von Gefahren“ vor Teilnehmern des Münchner Wissenschaftsnetzes (weitere Details und die Handouts der Vortragsfolien siehe www.lrz.de/services/security/gefahren/). Abbildung 1: Themenbild des Vortrags Außerdem bietet das LRZ diesen Vortrag im Rahmen seiner Öffentlichkeitsarbeit Schulen und anderen interessierten Einrichtungen an. Dies ist möglich, da sich der Vortrag an Einsteiger auf dem Gebiet der Internet-Sicherheit richtet. Für Eltern und Lehrer einerseits und Jugendliche ab 12 Jahren andererseits Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) 6 stehen angepasste Varianten zur Verfügung. Die beiden Schwerpunkte des Vortrags behandeln Problembereiche, die Kinder, Jugendliche und Erwachsene gleichermaßen betreffen: • In den letzten beiden Jahren wird das Thema „Abzocker im Internet“ relativ häufig in Presse und Fernsehen behandelt. Dennoch fallen allein in Deutschland jährlich mehrere Hunderttausend Internet-Nutzer auf die vielen unseriösen Angebote herein. Etwa 40% der Opfer kennen ihre Rechte zu wenig und zahlen deshalb die geforderten Beträge zwischen 60 und 200 Euro, obwohl dies überhaupt nicht erforderlich wäre. • Alle Nutzer des Internet unterliegen mehr oder weniger umfangreichen rechtlichen Pflichten. Ein Verstoß dagegen (z.B. gegen das Urheberrecht) kann mehrere Tausend Euro kosten! Leider kennen praktisch keine Jugendlichen und nur wenige Erwachsene diese Art von Gefahren. Im Jahr 2010 wurden durch diesen Dienst des LRZ mehr als 1300 interessierte Zuhörer erreicht (Schulklassen und Eltern an mehreren Gymnasien). 1.2 Software-Versorgung für Rechnersysteme außerhalb des LRZ Das LRZ liefert seinen Kunden Software-Lizenzen zu günstigen Konditionen. Mit der Bündelung der Nachfrage über Instituts- und Hochschulgrenzen hinweg wird auch Verhandlungsmacht gebündelt. So können oft wesentlich günstigere Konditionen für den Bezug von Lizenzen für Forschung und Lehre erreicht werden. Die Endkunden in den Instituten sparen dadurch nicht nur Zeit, sondern vor allem viel Geld. Das LRZ verhandelt deswegen, wo möglich, in Absprache oder in Kooperation mit Instituten und Hochschulen, teilweise auf das Münchner Wissenschaftsnetz (MWN) beschränkt, teilweise überregional, geeignete Abkommen mit Händlern und Herstellern. Welche Software von welchen Nutzern zu welchen Konditionen über das LRZ bezogen werden kann, ist auf der Webseite www.lrz.de/services/swbezug dargestellt. Tabelle 6 listet die wertmäßig umsatzstärksten Softwarepakete (nur Kauflizenzen) auf. Miet- und Subskriptionsmodelle (SPSS, Matlab, Novell, SAS) sowie Pauschal-Verträge (ESRI, Sophos) werden nicht in dieser Tabelle erfasst. Die Zahlen zu Microsoft und Adobe sind geschätzt (die exakten Zahlen gehen über die Kalenderjahresgrenzen hinweg). Hersteller / Name Beschreibung Lizenzzahlen 2010 Bruttowert der 2010 beschafften Lizenzen Microsoft Applikationen, System- und ServerSoftware 28.000 Ca. 899.000 € Adobe Acrobat, Photoshop, GoLive, Illustrator, Premiere etc. 3.000 Ca. 474.000 € Corel Grafiksoftware 325 15.303,- € Endnote Literaturverarbeitung 393 42.061,74 € Systat Datenanalyse und Datenpräsentation 42 14.025,- € Tabelle 6: Die umsatzstärksten Softwarepakete 1.2.1 Landesweiter ESRI Vertrag In Kooperation mit der FH Würzburg-Schweinfurt und der Universität Würzburg konnte ein landesweiter Vertrag mit der Firma ESRI (ArcGis Geoinformationssysteme) abgeschlossen werden, in den die bestehenden Verträge der bayerischen Hochschulen und Unikliniken integriert werden konnten (auch der Campusvertrag für das MWN wird zu gleichbleibenden Konditionen in den neuen Vertrag überführt). Jahresbericht 2010 des Leibniz-Rechenzentrums 7 Wichtigster Vorteil ist, dass nun auch kleine Hochschulen Lizenzen zu sehr günstigen Konditionen beziehen können. Außerdem werden dadurch Administration und Abrechnung vereinfacht, und somit Hochschulmitarbeiter entlastet. Neben dem LRZ versorgen sich nun elf weitere Hochschulen über diesen Vertrag. Für alle anderen Hochschulen und Unikliniken in Bayern besteht die Option zur späteren Teilnahme zu definierten Konditionen. 1.2.2 Landesweiter Secunia Vertrag In Kooperation mit u. a. der Universität Augsburg konnte ein landesweiter Vertrag mit der Firma Secunia abgeschlossen werden, der elf Hochschulen die Nutzung der gleichnamigen Produktpalette zu einem pauschalen, sehr günstigen Preis ermöglicht. Secunia ist ein Schwachstellen- und Patchscanner, der installierte Programme identifiziert und fehlende Sicherheitspatches für Windows-Betriebssysteme und -Anwendungen aufzeigt. 1.2.3 Weitere neue oder geänderte Verträge Im Berichtsjahr stand die Neuverhandlung von Verträgen für die Produkte Mathematica (MWN, Vertragspartner Additive), Amira (MWN, Vertragspartner VisageImaging), CoCreate (MWN, Vertragspartner Parametric Technology PTC) an. Die neu verhandelten Verträge bieten den Kunden des LRZ insgesamt sehr günstige Konditionen. 1.2.4 Routinemäßige Verlängerung bestehender Verträge Routinemäßig verlängert wurden u. a. der Adobe CLP Rahmenvertrag (bundesweit gültig), Mietverträge zu SPSS (Großteil der bayerischen Hochschulen), Ansys, LabView, Matlab, und SAS (alle MWN-weit). Für Adobe-Produkte musste das LRZ im Frühjahr den Handelspartner für die Versorgung des MWN wechseln, da der bisherige Händler erheblich höhere Preise durchsetzen wollte. So konnten den versorgten Instituten empfindliche Preiserhöhungen erspart werden. 1.2.5 Status Microsoft Select-Plus Lizenzen Die im Sommer 2009 abgeschlossenen Select-Plus Rahmenverträge brachten für die bayerischen Hochschulen, Universitäten und Unikliniken einige Änderungen in der Verwaltung u. a. der Lizenzschlüssel mit sich. Hier war das LRZ beratend tätig, und hat zwischen den Einrichtungen und Microsoft vermittelt, um die neuen Abläufe zu definieren und zu verstetigen. Das LRZ hat darüber hinaus 2010 einen so genannten KMS Server für die akademischen Einrichtungen des MWN eingerichtet, um die lokalen Administratoren bei der Aktivierung von Microsoft Installationen zu entlasten. 1.2.6 Betrieb von Lizenzservern für externe Systeme am LRZ Das LRZ betreibt derzeit ca. 30 Lizenzserver, die für die Benutzer im MWN Netzwerklizenzen zur Verfügung stellen. Das angebotene Spektrum der Netzwerklizenzen beinhaltet vor allem technisch wissenschaftliche Software (Matlab, Mathematica, Maple, Ansys, Patran, ...). Der Betrieb von Lizenzservern am LRZ erspart den Mitarbeitern in den Instituten den dezentralen und redundanten Aufbau eigener Server und damit viel Arbeit. 1.2.7 Verträge mit Instituten im MWN Im Sommer wurde ein Vertrag mit der Fakultät für Geowissenschaften der LMU geschlossen, der die Versorgung der Institute dieser Fakultät mit ArcGis Produkten der Fa. ESRI vereinfacht und verbessert (Flatrate für die gesamte Fakultät statt Einzelabrechnung nach Produkten und Lehrstühlen). 1.2.8 Laufende Verhandlungen und Planungen Mit der Universität Würzburg wird die Verlängerung des bayernweiten Rahmenvertrags für Microsoft Mietlizenzen (bekannt als "Microsoft Campus", heißt künftig „Enrollment for Education Solutions“) für 8 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) 2011 vorbreitet, dafür und für die im Vorjahr geschlossenen Microsoft Select-Plus Rahmenverträge (Kauflizenzen) werden Händlerausschreibungen (mit Würzburg als Vergabestelle) vorbereitet. Gemeinsam mit dem Regionalen Rechenzentrums Erlangen (RRZE) arbeitet das LRZ an einem SPSS Landesvertrag. Das ist erforderlich, da IBM, der neue Eigentümer der Firma SPSS, die bisherigen Mietverträge nicht verlängern wird, die SPSS separat jeweils mit dem RRZE und dem LRZ geschlossen hatte. 1.2.9 Zusammenfassung Die umsatzstärksten Softwarepakete im letzten Jahr waren: • Microsoft-Lizenzen im Rahmen der Select-Plus-Verträge • Adobe- und Corel-Bestellungen im Rahmen des CLP-Vertrags Bei Microsoft und Adobe/Corel-Bestellungen kümmert sich das LRZ im Tagesgeschäft lediglich um Authentifizierung/Autorisierung der Besteller, Verteilung der Software, Beratung und Unterstützung bei der Bestellung, Lizenzierung und Aktivierung. Die kaufmännische Abwicklung erfolgt über Handelspartner. Dabei kommen jährliche Umsätze im sechsstelligen Bereich zustande. Bei den meisten anderen Produkten tritt das LRZ in Vorleistung und beteiligt die Institute an den Kosten: • SPSS: im MWN im oberen fünfstelligen Bereich, bayernweit deutlich über 100.000 Euro • Matlab: hier sind derzeit die höchsten Wachstumsraten zu verzeichnen. Da das LRZ hier einen zentralen Lizenzserver für das MWN betreibt (und Lehrstühle bzw. Institute individuell abrechnet), ist allerdings auch der administrative Aufwand im Berichtszeitraum empfindlich gestiegen. Der Umsatz im MWN erreichte 2010 ca 100.000 Euro. • Bei etlichen weiteren Produkten lagen die Umsätze im fünfstelligen Bereich. Für Einrichtungen mit zentralem Einkauf besteht die Möglichkeit, die am meisten nachgefragten Softwarelizenzen online zu bestellen. Hierzu zählen die Münchner Universitätskliniken mit ihrem jeweiligen Zentraleinkauf, die Universität Augsburg, einige Fachhochschulen aus dem südbayerischen Raum sowie einige kleinere Einrichtungen. Darüber hinaus werden einige hundert Lehrstühle, Arbeitsgruppen und Institute im MWN durch das LRZ individuell mit diversen Lizenzen versorgt, betreut und beraten. Novell- und Sophos-Produkte (künftig auch ESRI- und Secunia-Produkte) werden den bayerischen Universitäten und Hochschulen nach einem festen Kostenschlüssel bereitgestellt, daher gibt es an dieser Stelle keine Umsatzzahlen (die ESRI-Produkte werden auf Campusebene mit den Instituten abgerechnet). 1.3 Benutzerverwaltung und Verzeichnisdienste Bei der Vergabe von Kennungen an Hochschuleinrichtungen und Studenten arbeitet das LRZ sehr eng mit den beiden Münchner Universitäten zusammen. Abschnitt 1.3.1 gibt einen Überblick über die derzeit vergebenen Kennungen und ihre Verteilung auf die LRZ-Plattformen. In Abschnitt 1.3.2 wird die Weiterentwicklung des LRZ-Identity-Management-Systems (LRZ-SIM) beschrieben, dessen Datenbasis und Konfiguration komplett auf LDAP-Verzeichnisdiensten basiert. Die an LRZ-SIM angebundenen Dienste und deren Nutzer profitieren dabei von der direkten Kopplung mit den LMU- und TUM-seitigen Hochschulverzeichnisdiensten. Die für die TUM am LRZ entwickelte Verzeichnisdienst-Infrastruktur, ihren Regelbetrieb und ihre Fortentwicklung beschreibt Abschnitt 1.3.3. Ein weiteres sehr dynamisches Arbeits- und Forschungsgebiet ist die Authentifizierungs- und Autorisierungsföderation des DFN (DFNAAI), in der das LRZ als Dienstleister und sogenannter Identity-Provider für die LMU und TUM fungiert und hochschulintern wie auch föderationsweit an der Gestaltung aktiv mitwirkt (Abschnitt 1.3.4). 1.3.1 Für LRZ-Systeme vergebene Kennungen 1.3.1.1 An Hochschuleinrichtungen vergebene Kennungen Die folgende Tabelle gibt einen Überblick über die vom LRZ an Hochschuleinrichtungen (via Master User) vergebenen Kennungen, und zwar pro Dienst bzw. Plattform und mit Stand von Ende 2010. Jahresbericht 2010 des Leibniz-Rechenzentrums 9 Mail Exchange Sun- LinuxCluster Cluster Einrichtung VPN Leibniz-Rechenzentrum Bayerische Akademie der Wiss. (ohne LRZ) Ludwig-Maximilians-Universität München Technische Universität München Hochschule München andere bayerische Hochschulen Öffentlich-rechtliche Einrichtungen sonstige Einrichtungen Kooperationsprojekte aus dem Grid-Bereich Nutzer des Bundeshöchstleistungsrechners 647 1.020 367 370 10.880 10.220 8.487 8.677 424 392 388 280 2.879 2.866 28 1 – – 14 3 130 43 278 4.561 – – – – – – 314 44 755 827 97 32 155 2 – – 312 41 720 810 94 27 153 2 – – 176 – 792 688 40 140 20 12 879 233 1.065 337 1.313 438 8 169 402 1 – – Gesamt 24.114 23.829 5.012 2.226 2.159 2.980 3.733 AFS PC Tabelle 7: Vergabe von Kennungen für LRZ-Plattformen Für die TU München werden Exchange-Berechtigungen direkt über TUMonline vergeben, nicht über die Master-User-Schiene. Nicht in der Tabelle enthalten sind die Kennungen für den Bundeshöchstleistungsrechner, die SGI Altix 4700, da es hier häufig Kooperationen gibt und daher keine klare Zuordnung zu einer Einrichtung möglich ist. Ende 2010 waren für diesen Rechner insgesamt 2.536 Kennungen vergeben, davon 1.167 für Projekte aus dem Grid-Bereich. 1.3.1.2 An Studenten vergebene Kennungen Die Vergabe von Kennungen an Studenten erfolgt bei der Ludwig-Maximilians-Universität und bei der Technischen Universität gekoppelt mit der Vergabe von Kennungen für das Web-Portal CampusLMU bzw. das Campus-Management-System TUMonline. Für Studenten anderer Münchner Hochschulen erfolgt die Vergabe individuell und direkt durch das LRZ. Ende 2010 hatten knapp 85.000 Studenten (Vorjahr: ca. 82.000) eine Kennung, die u.a. für Mailzwecke und für den VPN-Zugang ins MWN genutzt werden konnte. Hier die Aufteilung auf die Hochschulen mit den meisten Kennungen: Hochschule Anzahl Kennungen Ludwig-Maximilians-Universität München Technische Universität München Hochschule für Musik und Theater München Hochschule für Fernsehen und Film München Akademie der Bildenden Künste München Hochschule für Philosophie München Verwaltungs- und Wirtschaftsakademie München FernUniversität Hagen Hochschule für Politik München sonstige Hochschulen 51.903 31.248 1.042 205 105 42 20 20 16 78 Gesamt 84.679 Tabelle 8: Vergabe von Kennungen an Studenten 10 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) 1.3.2 LRZ Secure Identity Management (LRZ-SIM) Das neue zentrale LRZ Identity&Access-Management-System (IDM) mit dem Projektnamen LRZ-SIM („LRZ Secure Identity Management“) lief in seinem mittlerweile dritten Einsatzjahr stabil und zuverlässig. Die Flexibilität seiner Architektur zeigte sich bei der Programmierung vieler weiterer Automatismen und Optimierungen für die Benutzerverwaltungsprozesse, die für erhöhten Benutzerkomfort, weniger manuelle Erfassungsarbeit sowie auch für eine weitere Verbesserung der Datenqualität, Datenaktualität und Datensicherheit sorgen. Die internen Strukturen und Betriebsabläufe wurden laufend weiterentwickelt und optimiert und eine Reihe weiterer LRZ-Systeme über LDAP-Authentifizierung oder Provisionierung von Benutzerdaten angebunden. Um die zentrale Benutzerverwaltung weiter zu automatisieren, den manuellen Aufwand durch Mehrfachregistrierung und -pflege von Benutzern zu vermeiden und um Redundanzen und Inkonsistenzen weitest möglich zu reduzieren, ist der Import von Benutzerdaten der beiden großen Münchener Universitäten und ihren Berechtigungen weiter vorangebracht worden. Die Übernahme der Daten aus dem zentralen Verzeichnis der Ludwig-Maximilians-Universität (LMU) ist schon seit Längerem im Einsatz. Bei den Mitarbeiterdaten sind fakultätsweise nach individuellen Vereinbarungen weitergehende Datenimporte einzurichten. Die Anbindung an die TUM-Directorys ist nach intensiver Testphase gut vorbereitet, und wird Anfang 2011 in Produktionsbetrieb gehen. Dabei werden dann alle TUM-Benutzer mit allen LRZrelevanten Berechtigungen in einem Zug nach LRZ-SIM übernommen werden können. 1.3.2.1 Überblick und aktueller Stand der Identity-Management-Architektur Während die IDM-Kernarchitektur, wie sie im März 2008 in Produktionsbetrieb ging, beibehalten wurde, gab es 2010 im Detail etliche Weiter- und Neuentwicklungen, sowohl beim Datenmodell als auch besonders beim LRZ-Identity-Management-Portal (Id-Portal), bei den angeschlossenen Datenquellen, bei den Konnektoren und bei den angebundenen Systemen. Abbildung 2 zeigt die aktuelle logische Struktur des IDM-Systems mit seinen Erweiterungen und Änderungen bis Ende 2010. Die einzelnen Verzeichnisdienste erfüllen mit einem für den jeweiligen Zweck optimierten Datenschema unterschiedliche Aufgaben: • Der Authentifizierungs-Satellit dient der Anbindung der vielfältigen LRZ-Dienste über LDAPAuthentifizierung und -Autorisierung. • Der Applikations-Satellit ist Datenbasis für das Id-Portal mit Management-Funktionalität sowie für LRZ-Plattformen mit Bedarf an Attributen, der über den Umfang des AuthentifizierungsSatelliten hinausgeht. • Der Import-Export-Satellit regelt den Datenaustausch mit den beiden Münchner Universitäten sowie auch mit der LRZ-Personaldatenbank. • Das Metadirectory im Zentrum koordiniert den Abgleich der Datenbestände über Konnektoren (dicke Pfeile). • Ein durch die Diversifizierung der LRZ-Maildienste und -systeme notwendig gewordenes Mailforwarder-Verzeichnis ist Grundlage für die Annahme und Bearbeitung von E-Mails (Zustellungen, Weiterleitungen und Abwesenheitsnotizen). • Neu hinzugekommen ist die Provisionierung eines zweiten Active Directorys für den EduroamDienst des DFN sowie Server für Webservices, über die momentan die Vergabe von LRZKennungen und Mailadressen kanalisiert wird. Alle Verzeichnisse sind redundant und hochverfügbar implementiert. Angeschlossene Systeme können über LDAP-Verbindungen direkt die Datenbestände in den Verzeichnissen nutzen (dünne Pfeile) oder auf höherer Ebene die Webservices über SOAP-Requests ansprechen. Jahresbericht 2010 des Leibniz-Rechenzentrums 11 Abbildung 2: Architekturmodell und Integration des LRZ-Identity-Managements 1.3.2.2 Entwicklungen im Server- und Dienstbetrieb Die umfangreiche produktive Server-Infrastruktur innerhalb von LRZ-SIM erforderte eine kontinuierliche Aktualisierung der eingesetzten Software, um bei Releases und Patches auf dem aktuellen Stand zu bleiben, und zwar sowohl auf Betriebssystem-Ebene (SuSE Linux), auf Verzeichnisdienst-Ebene (Novell eDirectory und OpenLDAP) als auch auf IDM-Ebene (Novell Identity Manager, iManager und Designer). Um den unterbrechungsfreien Betrieb dauerhaft gewährleisten zu können, wurde der SoftwareLoadbalancer-Rechner dupliziert und mit einer aktuelleren Version samt Webfrontend ausgestattet. Alle Konnektoren sind in Standby-Konfiguration auf jeweils einem weiteren Rechner installiert und können bei Ausfall des Hauptservers, dessen Directory-Services oder dessen Konnektoren rasch für die Fortführung des Datenaustauschs aktiviert werden. Parallel zu den Produktionsservern wurde auch die Testumgebung kontinuierlich auf dem aktuellen Stand gehalten. Alle Testserver wurden virtualisiert und schrittweise mit neuen Versionen von Betriebssystem, Verzeichnisdienst- und IDM-Software ausgestattet. Sehr bewährt hat sich das Vorgehen, alle Erweiterungen im Id-Portal und Neuimplementierungen von Konnektoren durchwegs zuerst in der Testumgebung zu entwickeln und dort ausführlich mit Real-Life-Datensätzen zu erproben. Ein Schwerpunkt der Arbeit lag im Bereich IT-Sicherheit. Auf den LDAP- und Webservern von LRZSIM kommen nun durchwegs DFN-signierte Serverzertifikate zum Einsatz. Kontinuierliche Betriebssystem- und Serversoftware-Updates sorgen für die Basissicherheit. Neben selbst programmierten dedizierten Überwachungstools wurde das zentrale Monitoring mit Cacti und Nagios auf alle zentralen Server, Konnektoren und Dienste ausgedehnt. Schließlich erfolgte eine unabhängige Sicherheitsüberprüfung des Id-Portals durch das Bayern-CERT. 12 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) Schließlich konnte die Domain-Umstellung von lrz-muenchen.de auf lrz.de (für internetweit erreichbare Server) bzw. sim.lrz.de (für Server, die nur aus dem LRZ- oder Münchner Wissenschaftsnetz erreichbar sind) für alle Testrechner, Webserver und Shibboleth-Server durchgeführt und für die produktiven LDAPServer vorbereitet werden. Für den nahtlosen Übergang wurden sowohl in den neu beantragten Zertifikaten als auch im DNS die Namen mit den alten Domains als Aliase mitgeführt. 1.3.2.3 Identity Management und zentrale Benutzerverwaltung Das Id-Portal ist die nach außen am deutlichsten sichtbare Komponente der LRZ-Benutzerverwaltung und ermöglicht nicht nur Master Usern, alle Aufgaben rund um die Verwaltung der ihnen zugeteilten Kennungen effizient zu erledigen, sondern dient auch als Self-Service-Oberfläche für alle Benutzer. Viele Funktionen des Id-Portals konnten im Detail verbessert und benutzerfreundlicher gestaltet werden, nicht zuletzt auch durch das Feedback aus der täglichen Benutzungspraxis durch die LRZ-Hotline, die LRZAdministratoren, die LRZ-Betreuer und die Master User. Zusätzlich zum Id-Portal, dem Webserver für interaktiven Zugang, wurde ein Server für sogenannte Webservices aufgesetzt, die im Rahmen des automatischen Datenaustauschs insb. mit TUM und LMU erforderlich waren. Über reine LDAP-Anfragen hinaus sind hier Dienste mit mehr serverseitiger Programmlogik möglich, wie sie für die Generierung von Kennungen oder die Abfrage möglicher freier EMail-Adressen notwendig ist. Auch bei der Datenqualität der in LRZ-SIM verwalteten Einträge konnten durch vielfältige Maßnahmen Verbesserungen erzielt werden: Die Sammlung von Skripten zur Überprüfung des Datenbestands innerhalb eines Directorys sowie zwischen verschiedenen Directorys bzw. zwischen Directorys und angeschlossenen Plattformen wurde ständig erweitert. Die Überprüfungen zur Datenkonsistenz erwiesen sich insbesondere auch bezüglich der automatisch importierten Benutzerdaten als hilfreich, da neben TUMund LMU-Konnektoren auch Daten der Grid-User-Administration (GUA) direkt per LDAP in LRZ-SIMVerzeichnisse geschrieben werden. Damit erfolgt die Eintragung dieser Grid-Benutzerdaten ohne erweiterte Prüfung, wie sie sonst über das Id-Portal, die IDM-Konnektoren oder die Webservices möglich sind. Zu nennen sind hier die internen LRZ-IDs, die die Softreferenzen wechselseitig zwischen Kennungs-, Personen-, Projekt- und Organisationsobjekten bilden und deren Konsistenz nicht vom LDAP-Server erzwungen werden kann. 1.3.2.4 Integration von LRZ-Diensten und Plattformen Im Laufe des Jahres konnten einige weitere LRZ-Dienste und -Plattformen erfolgreich an die LRZ-SIMVerzeichnisse angebunden und ins zentrale Identity&Access-Management integriert werden. Darunter befanden sich Systeme mit sehr großer Benutzerzahl wie die Mail- und Groupware-Plattform Exchange 2010. Neu hinzu kam die Anbindung folgender Dienste: • Die neue, zentrale LRZ-IT-Service-Management-Plattform (iET) verwendet LDAPAuthentifizierung und importiert Benutzerdaten per LDAP. Gespräche für spezielle Workflows wie die Bestellung von virtuellen Servermaschinen und die dafür notwendigen Attribute haben stattgefunden. • Für das bereits an LRZ-SIM angebundene Netzverantwortlichenportal NeSSI wurden diejenigen Netzverantwortlichen ermittelt, die noch keine LRZ-Kennung hatten. Die Berechtigungsvergabe selbst und der Workflow in der Netzabteilung werden SIM-seitig mit einem eigens entwickelten Webfrontend unterstützt. • Ein Kernsystem des LRZ-Betriebs, das Netzkomponenten-Management für Switches, Router und Gateways, wurden auf LDAP-Authentifizierung umgestellt. Dedizierte Gruppen zur Autorisierung auf einzelnen Komponenten sind ebenfalls über SIM-Attribute realisiert. • Das Monitoring-System Cacti war bereits als Plattform in LRZ-SIM aufgenommen. Umgekehrt wurde die Kopplung soweit ausgedehnt, dass für die LRZ-SIM-Verzeichnisdienste die LDAPAntwortzeit – eine wichtige und kritische Größe für nahezu alle angebundenen Systeme – in den Cacti-Graphen online darstellbar ist. • Jedes Projekt kann für die Nutzung des Backup- und Archivsystems TSM freigeschaltet werden, Master User können selbst Kennungen zur TSM-Nutzung berechtigen. Details des Vergabeprozesses wurden verbessert, so dass z.B. auch bei der Deprovisionierung die Löschung von Kennungen mit aktiven TSM-Knoten verhindert wird. • Mailattribute wurden nach Mandanten und Mailsystemen (TUM, LMU-Studenten, LMU- Jahresbericht 2010 des Leibniz-Rechenzentrums • • • • • 13 Weiterleitungen, externe Studenten und über Master User verwaltete Benutzer) getrennt und können an Kennungen, die mehrfache Rollen erfüllen, auch entsprechend mehrfach vergeben werden. Die Provisionierung des zentralen Microsoft Active Directorys (MWN-ADS) wurde auf einen neuen Konnektor umgestellt (Novell Scripting Driver), mit dem auch Exchange-spezifische Vorgänge angestoßen werden können. Damit wurde die Voraussetzung für die Produktivführung von Microsoft Exchange für LRZ-Kunden (insb. die LMU) geschaffen. Weiterleitungsadressen und Abwesenheitseinstellungen wurden nach LRZ-SIM geholt, werden nun dort verwaltet und in ein eigenes Forwarder-Directory provisioniert. Für Eduroam, das System für komfortable europaweite VPN-Verbindungen, wurde ein weiteres, lizenztechnisch günstig zu betreibendes Active Directory aufgebaut, das ebenfalls direkt aus LRZ-SIM per Scripting Treiber befüllt wird. In Zusammenarbeit mit der Gruppe HLR wurde der Workflow und das Webformular zur Beantragung von Linux-Cluster-Berechtigungen grundlegend neu gestaltet, um die Beantragung bei den Master Usern zu bündeln und die manuelle Verwaltungsarbeit auf einen Genehmigungsklick zu reduzieren. Für die High-Performance-Computing-Plattformen wurde die Provisionierung der HPCDatenbank (MySQL) auf die relevanten Benutzerkennungen reduziert und damit eine deutliche Erhöhung der Aktualisierungsfrequenz möglich. Darüber hinaus regelt ein neuer Prozess das Löschen von HPC-Projekten, unterstützt durch neue Attribute im Verzeichnis und neue Spalten in der HPC-Datenbank, um dauerhaft die Zuordnung von Kennungen auch zu ehemaligen Projekten verfolgen zu können. Die Integration von Grid-Kennungen wurde vorbereitet und prototypisch für einen Teil der DEISA-Kennungen durchgeführt. Die Teilnahme an den Grid-Verbünden setzt voraus, dass deren jeweilige Benutzerverwaltungsinfrastrukturen verwendet werden. Um den doppelten Datenpflegeaufwand sowohl in den LRZ- als auch den jeweiligen Grid-Systemen einzusparen und die damit verbundenen Fehlerquellen zu vermeiden, soll die LRZ-SIM-Kopplung mit Grid-Systemen weiter ausgebaut werden. 1.3.2.4.1 CampusLMU-Anbindung Die im vergangenen Jahr vollständig überarbeitete Ankopplung von LRZ-SIM an den CampusLMUVerzeichnisdienst wurde weiter ausgebaut: Die Menge der übermittelbaren Dateninhalte, insb. Mailattribute, wurde erweitert, um den von den Zielsystemen gebotenen neuen Möglichkeiten (mehrere Mailboxen, Exchange-Nutzung) Rechnung zu tragen. Die von CampusLMU gesteuerte Berechtigungsvergabe für LRZ-Dienste umfasst neben fakultätsweit vereinbarten Regeln (Autorisierung für VPN/Eduroam, Desktop-Management/PC, Mail und LinuxCluster) nun auch pro Kennung individuell von CampusLMU festlegbare Autorisierungen (Entitlements). Dadurch werden die Workflows transparenter und im Support-Fall für den CampusLMU-Helpdesk besser nachvollziehbar, da die Berechtigungen explizit im CampusLMU-Verzeichnis hinterlegt sind. Eine neue erweiterbare Webservice-Schnittstelle auf LRZ-Seite bietet für CampusLMU zudem einen direkten, schnellen und sicheren Weg zur Abfrage relevanter Benutzerinformation (z.B. freie Mailadressen, neue LRZ-Kennung). Das Anlegen eines LMU-Accounts im Rahmen der CampusLMU-Erstregistrierung kann damit komplett abgeschlossen werden, ohne später dem Benutzer zusätzliche Aktionen am LRZ IdPortal abverlangen zu müssen. 1.3.2.4.2 TUMonline-Anbindung Die Konzeption zur Provisionierung der relevanten Teile des TUMonline-Datenbestands in die LRZBenutzerverwaltung wurde auf technischer Ebene konkretisiert. Nach Klärung der datenschutzrechtlichen Aspekte wurde aus den Erfahrungen der TUMonline-Migration ein Weg gefunden, wie zwar die Identitäten (reale Personen) möglichst umfassend aus beiden Quellen konsolidiert werden können, dabei aber für bestehende Kennungen und die daran gebundenen Ressourcen (z.B. Mailadressen, Homedirectorys) ein für die Benutzer sanfter Übergang ohne Zeitdruck hin zu einheitlichen Kennungen möglich ist. Damit wird für alle TUM-Angehörigen die Pflege der Stammdaten einheitlich über TUMonline erfolgen und von dort übernommen werden können. Weitergehende Berechtigungen zu LRZDiensten werden dann nur noch den von TUMonline importierten und nicht den alten LRZ-Kennungen zugeordnet werden. 14 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) Die Ankopplung von LRZ-SIM an den TUM-Administrationssatelliten befindet sich mittlerweile in intensiver Testphase und kann voraussichtlich bis Anfang 2011 produktiv genommen werden. Dadurch werden TUM-Angehörige auch weitere LRZ-Dienste – über VPN, Mail und Online-Speicher hinaus – ohne eine zweite LRZ-Kennung nutzen können. Für die lokalen Ansprechpartner an den Fakultäten, die Master User, bedeutet dies Entlastung von viel Routine- und unnötiger Doppelerfassungsarbeit. Für das LRZ wird es ein großer Fortschritt hinsichtlich der Aktualität und Gültigkeit der TUM-Benutzerdaten sein. 1.3.2.5 Betriebszustand Zusammenfassend kann festgestellt werden, dass auch das dritte Betriebsjahr des neuen IdentityManagement-Systems LRZ-SIM wie erwartet eine Menge Entwicklungsarbeit sowohl für interne Verbesserungen als auch für die Anbindung weiterer Plattformen und Dienste mit sich brachte. Darin zeigten sich aber auch die flexible Erweiterbarkeit der Architektur und das Potential für die Nutzung der neuen technischen Möglichkeiten. LRZ-SIM hat sich als moderne Identity&Access-Management-Lösung etabliert und wird in zunehmendem Maß auf Kundenseite wahrgenommen und geschätzt. 1.3.2.6 Kooperationen Durch die aktive Teilnahme am ZKI-Arbeitskreis „Verzeichnisdienste“ und am bayerischen Arbeitskreis „Meta-Directory und AAI“, sowohl in Tagungen als auch über Videokonferenzen, konnte hochschulübergreifend Kompetenz, Wissen und Erfahrung für die Optimierung von Implementierungsdetails genutzt werden. Der Austausch von Konzepten und Erkenntnissen ist ein wichtiger Baustein dafür, dass das LRZ sowohl hinsichtlich der Anzahl der zu verwaltenden Benutzer als auch der zur Verfügung gestellten Dienste und Rechnerplattformen eine der im deutschen Hochschulumfeld aufwändigsten Identity&Access-Management-Lösungen mit sehr hohen Anforderungen erfolgreich betreibt. 1.3.2.7 Ausblick Der wichtigste erste Schritt für weitere Arbeiten wird die Produktivführung der TUMonline-Anbindung sein. Nach der langen und intensiven Vorbereitungsphase und den erfolgreichen Tests ist hier mit keinen größeren Hindernissen zu rechnen. Eine weitere Planung betrifft die Implementierung und den Einsatz von Gruppen als Autorisierungsgrundlage für Benutzer etlicher LRZ-Dienste. Neben einer Schema-Erweiterung wird die Hauptarbeit auf Design und Implementierung des Frontends im Id-Portal liegen. Schließlich ist für nachgelagerte Systeme und Verzeichnisse, die nicht einfach über LDAP authentifizieren, die Aufbereitung und Übergabe dieser zusätzlichen Daten zu planen und zu programmieren. Parallel dazu ist die Unterstützung von Funktionsobjekten zu planen, insbesondere für die stark nachgefragten Shared Mailboxen und Mailverteilerlisten für Exchange. Wie bei den Gruppen wird sich die Struktur an den schon in den TUM-Verzeichnissen implementierten Objekten orientieren. Die positiven Erfahrungen mit virtuellen Servern sollen für einen wichtigen LRZ-internen Dienst, den ID-Server, genutzt werden. Dessen Virtualisierung, zusammen mit einer Migration der Datenbasis auf eine SQL-Datenbank, sollte noch vor der Rechenzentrumserweiterung abgeschlossen werden. Die schon vorbereiteten OpenLDAP-Authentifizierungs-Server werden nach eingehender Testphase die Umstellung der restlichen Mailsysteme mit großem Benutzerbestand von Kerberos- auf LDAPAuthentifizierung erlauben, samt all den damit möglichen, wesentlich differenzierteren Autorisierungsoptionen. 1.3.3 TUM-Verzeichnisdienste Nach dem planmäßigen Auslaufen der DFG-Förderung des Projekts IntegraTUM Ende 2009 (vgl. Bode, A., Borgest, R.: Informationsinfrastrukturen für Hochschulen, Springer Verlag 2010) wurden die am LRZ für die TUM entwickelten und betriebenen Hochschulverzeichnisdienste in der optimierten dritten Version in den Regelbetrieb überführt. Trotz des reduzierten Personals war der nahtlose Übergang bei der Versorgung und Umstellung auf die neu konzipierte und vollständig vom neuen Campus-ManagementSystem TUMonline gespeiste Directorystruktur für die Vielzahl angebundener Systeme zu bewerkstelligen. Jahresbericht 2010 des Leibniz-Rechenzentrums 1.3.3.1 15 Weiterentwicklung von Datenmodell und Konnektoren Entgegen der ursprünglichen Planung musste das System der TUM-Directorys kontinuierlich weiterentwickelt werden, um die große Anforderungspalette auf Seiten der Datenabnehmer nach und nach abzudecken. Das Datenmodell für die Speicherung von Identitäten und Autorisierungsgruppen, aber auch von Lookup-Tabellen für Studiengänge, Studienabschlüsse und Einrichtungen, musste in einigen Details erneut angepasst werden. Dies lag in neuen Erkenntnissen über die tatsächlichen von TUMonline provisionierten Werte begründet. Allerdings konnte eine abschließende Klärung der wichtigsten autorisierungsrelevanten Dateninhalte leider noch nicht erreicht werden, so dass hier auch zukünftig noch Änderungen notwendig werden. Im Einzelnen wurden folgende Anpassungen und Weiterentwicklungen an der Verzeichnisstruktur vorgenommen: • Nach eingehender Abstimmung mit der TUM konnte eine Schnittstelle und Schemastruktur zur Erweiterung der Verzeichnisdienste um Gruppen und Funktionsobjekte (speziell Shared Mailboxen für Exchange) festgelegt werden. • Mit den neuen Objektklassen im Schema wurde auch eine Anpassung der Konnektoren zu den Satellitenverzeichnissen und zu den abnehmenden Systemen erforderlich. • Die automatische Dateneinspeisung in das MWN-weite Microsoft Active Directory (MWN-ADS) musste für diese neuen Objekte, die u.a. auch in der dort angeschlossenen Zielplattform Exchange nötig sind, erweitert werden. Seit 2009 erfolgt diese Provisionierung mit dem Novell Scripting Driver und nachgelagerter Power-Shell-Skripte, deren Programmierung durch die LRZ-PCGruppe und in enger Abstimmung mit dem LRZ-Mail-Team erfolgt. • Bei dem ebenfalls aus TUMonline provisionierten Orgbaum konnte das Problem gelöst werden, wie ein dauerhaft eindeutiger Name mit dem Wunsch nach Umbenennung von Einrichtungen vereinbar ist: Für das Naming-Attribut einer Einrichtung wird deshalb die von TUMonline erzeugte OrgUniqueId verwendet, so dass der Langname und auch das Kürzel ohne technische Seiteneffekte fast beliebig geändert werden dürfen. Im Sommer 2010 wurde ein Audit der TUM-Directorys durch eine externe Beraterfirma durchgeführt. Es bescheinigte insgesamt eine hohe Kompetenz und Praxistauglichkeit bei Design, Implementierung und Betrieb der TUM-Directorys. Vorschläge für Verbesserungen betrafen einerseits die LDAPAnbindungsmöglichkeiten für Linux/Unix-Systeme, andererseits Details wie eine Passwort-Policy, die sich nach Abstimmung mit dem Directory-Team jetzt überwiegend an den vom Bundesamt für Sicherheit in der Informationstechnik (BSI) empfohlenen Vorgaben orientiert. Für Vorbereitungen und Tests zum Aufbau eines zukünftigen zentralen Syslog-Servers am LRZ wurden die TUM-Verzeichnisse entsprechend konfiguriert, um die nötigen Log-Daten der LDAP-Server wie auch der IDM-Konnektoren verfügbar zu machen. Das Directory-Team war am LRZ-internen Workshop zur Evaluation des Syslog-Frontends Splunk ebenfalls beteiligt. Schließlich sei noch auf den Betrieb des Shibboleth Identity Providers für die TUM (TUM-IdP) hingewiesen, für den aufwändigere Anpassungen wegen Moodle- und Typo3-Hosting und besonders für Wiki-Spaces in enger Abstimmung mit dem TUM IT-Service-Zentrum (ITSZ) erfolgte, siehe dazu auch Abschnitt 1.3.4.3. 1.3.3.2 Angebundene Systeme Viele Einrichtungen können zur Authentifizierung ihrer Benutzer an lokalen Rechnern und Diensten direkt den zentralen Authentifizierungsserver nutzen. So konnten im Laufe des Jahres 2010 wieder viele neue Kunden für diesen Authentifizierungsdienst gewonnen werden. Zu den neuen Kunden zählen Lehrstühle und Einrichtungen aus allen TUM-Fakultäten, insbesondere auch Informatik, Mathematik, Medizin, Sport, Wirtschaftswissenschaften sowie Bau- und Vermessungswesen. Zunehmend mehr Betreiber von IT-Diensten an der TUM, von Webservern über CIP-Pools bis hin zu komplexen Content-Management-Systemen, haben die Vorteile von TUM-weit einheitlichen Kennungen erkannt und ihre Systeme an die zentralen Authentifizierungsserver angeschlossen. Trotz der umfangreichen Entwicklungs- und Beratungstätigkeit und entsprechend wenig Zeit für Systemadministration konnte dank der redundant ausgelegten Architektur und des Kundenzugangs über Service Load Balancer ein äußerst stabiler Betrieb der Verzeichnisdienste gewährleistet werden. 16 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) Schließlich wurde auch rechtzeitig die Verfahrensbeschreibung für die Speicherung der Daten in den einzelnen Verzeichnisdiensten und die Weitergabe an nachgelagerte Systeme für die ermittelten Datenflüsse und das aktuelle Architekturkonzept angepasst und vom Datenschutzbeauftragten der TUM für den Endausbau der Verzeichnisdienste genehmigt. 1.3.3.3 Ausblick Auf Wunsch der TUM ist die Zuständigkeit und Verantwortung für den Dienstbetrieb der TUMVerzeichnisdienste seit 1.1.2011 an das TUM IT-Service-Zentrum übergegangen. Die Servermaschinen mit Betriebssystem und Load-Balancer-Anbindung stellt nach wie vor das LRZ. Die tatsächliche Übergabe wird jedoch 2011 schrittweise erfolgen müssen; ein Betriebs- und Entwicklerteam auf TUM-Seite, das die Aufgaben der bisherigen, am LRZ tätigen Mitarbeiter übernimmt, konnte nicht rechtzeitig aufgebaut werden. Die neuen TUM-Mitarbeiter müssen die einzelnen Bereiche der Directory- und Systemadministration nun ohne längere Einarbeitungsphase primär in Grundzügen verstehen, um die Kontinuität des Betriebs gewährleisten zu können. Zu ihren Aufgaben wird mittelfristig auch die Fortführung der neuesten Entwicklungen bei Gruppen und Funktionsobjekten, später ggf. auch bei weiteren Dienstberechtigungen gehören, also durchaus Major Changes zusätzlich zum gewöhnlichen Tagesgeschäft des Dienstbetriebs. 1.3.4 AAI-Föderationen: Shibboleth Identity Provider Über die Rechenzentrums- und Hochschulgrenzen hinaus kommt dem föderierten Identity Management (FIM) auf Basis der Software Shibboleth steigende Bedeutung zu. Das LRZ betreibt seit 2008 im Rahmen der Authentifizierungs- und Autorisierungsinfrastruktur des DFNVereins (DFN-AAI) auf Basis der Software Shibboleth (https://www.aai.dfn.de/der-dienst/foederation) die Identity-Provider-Dienste (IdP) für die TUM, die LMU und das LRZ selbst. Die ShibbolethInfrastruktur erlaubt die universelle Nutzung einer Vielzahl von Webdiensten und Webanwendungen lokaler und externer Anbieter mit der lokalen TUM-, CampusLMU- bzw. LRZ-Kennung und bietet darüber hinaus die Möglichkeit des Single Sign-On. 1.3.4.1 Betrieb und Administration der Identity Provider Mit dem Update auf die Shibboleth-IdP-Version 2.1.5 auf allen Servern kurz nach Freigabe wurde die aktuellste und sicherste Version installiert. Die Verfügbarkeit der Identity-Provider wird durch entsprechende Konfigurationserweiterungen für Nagios laufend überwacht, um einen stabilen, unterbrechungsfreien und performanten Betrieb zu gewährleisten. Der Ausbau der IdP-Server zu jeweils einem IdP-Cluster war noch nicht notwendig. Die bestehenden IdPServer erwiesen sich als erstaunlich leistungsfähig, trotz z.B. Bestrebungen der TUM, Shibboleth auch für die Authentifizierung an TUM-lokalen Anwendungen einzusetzen. Da sich immer wieder spezielle Anforderung einzelner Service-Provider bezüglich Attribut-Ermittlung und -Filterung ergeben, ist für Entwicklung und Versuche ein neuer IdP-Testserver aufgesetzt worden, um den Produktionsbetrieb nicht zu stören. 1.3.4.2 DFN-AAI Die Zahl der deutschlandweit verfügbaren Webdienste in der DFN-AAI-Föderation wächst kontinuierlich, sowohl bei Hochschul- und Forschungseinrichtungen als auch bei kommerziellen Angeboten von Verlagen und Software-Anbietern. Bei der technischen Koordination der Single-Sign-on-Authentifizierung mit Shibboleth war die Beratung und Unterstützung für Bibliotheken und andere Dienstbetreiber an den Hochschulen durch das LRZ ein gefragter, aber ohne weiteres Personal nur unzureichend leistbarer Service. In einer eigenen Föderation bietet der DFN einen Short Lived Credential Services (SLCS, https://slcs.pca.dfn.de/gridshib-ca) für Grid-Dienste an, der seit 2009 bereits den LRZ-Benutzern zur Verfügung stand. In diese Föderation konnten Anfang 2010 nach den vertraglichen Vorbereitungen auch die Identity-Provider für TUM und LMU aufgenommen werden, wodurch nun ein wesentlich größerer Personenkreis einen unkomplizierten Zugang zu der sehr sicheren Authentifizierungsvariante über persönliche Zertifikate hat. Jahresbericht 2010 des Leibniz-Rechenzentrums 1.3.4.3 17 Universitätslokale Angebote Die Shibboleth-Technologie und damit die am LRZ gehosteten Identity-Provider-Server für TUM und LMU kommen verstärkt für universitätsinterne Webdienste zum Einsatz, z.B. für das TUM-Wiki, für zentrale Anmeldeverfahren oder für Lehrstuhl-Informationssysteme. Eine wesentliche Triebfeder ist die höhere Sicherheit (Passwörter gelangen nicht zum Service-Provider) und Vertraulichkeit (Benutzer geben ihre Daten in jedem Einzelfall selbst frei), die die Shibboleth-Technologie gegenüber herkömmlicher LDAP-Authentifizierung bietet. Für die lokalen Service Provider waren jedoch teils dedizierte Konfigurationen zur Datenbereitstellung und -freigabe nötig, die über das übliche Maß in der DFN-AAI hinausgingen. Zum einen erhalten die ebenfalls am LRZ für TUM und LMU gehosteten E-Learning-System-Instanzen (Moodle) und ContentManagement-Angebote (Typo3) jeweils einen über den Default-Umfang hinaus gehenden Attributsatz vom IdP. Zum anderen wurde in einem Pilotprojekt die Konstruktion dynamischer synthetischer Attribute für das TUM-Wiki (ein spezieller Username aus Vorname, Nachname und TUM-Kennung oder E-MailAdresse) erprobt und produktiv geführt. Weiterhin eignet sich die Shibboleth-Authentifizierung für Dienste, die sowohl TUM- als auch LMUBenutzern offen stehen sollen (z. B. E-Learning-Angebote für gemeinsame Studiengänge), da vorab kein aufwändiger Austausch von Benutzerdaten erforderlich ist. In der IdP-Konfiguration waren diese Attributfreigaben wechselseitig für die jeweils andere Hochschule jedoch zu berücksichtigen und geeignet zu konfigurieren. 1.3.4.4 Virtuelle Hochschule Bayern (vhb) Nach der schon im Vorjahr möglichen Online-Registrierung bei der vhb mit Shibboleth-Authentifizierung ist die Anmeldung zu vhb-Kursen nun ebenfalls für alle Studenten von in der DFN-AAI organisierten Hochschulen produktiv geführt. Für den dritten Baustein, die Shibboleth-Authentifizierung für den Kurszutritt selbst, zeichnet sich nun organisatorisch wie technisch ein höherer Koordinations- und Implementierungsaufwand ab. So musste ein Konzept gefunden werden, das sowohl die Belange der vhb umsetzt (zuverlässige Nachverfolgbarkeit der Kursbuchung und -nutzung) als auch den nahtlosen Parallelbetrieb für alle teilnehmenden Hochschulen beim Übergang vom bisherigen proprietären auf das neue standardbasierte Autorisierungsverfahren berücksichtigt. Nach intensiven Tests am LRZ hat sich aufgrund von Einschränkungen der ShibbolethArchitektur herauskristallisiert, dass eine Anbindung eines zentralen vhb-LDAP-Servers an alle Hochschul-IdPs nicht in Frage kommt – zu groß wären Verfügbarkeits- wie auch Datenschutzprobleme. Vielmehr ist die Provisionierung der vhb-Kursbelegungsdaten direkt in die IDM-Systeme der Hochschulen unumgänglich (s. Abbildung 3) und befindet sich bereits in der Testphase. Unterstützt wird diese maßgeblich vom LRZ und der vhb gestaltete Entwicklung durch den bayerischen Arbeitskreis „Metadirectory und AAI“ und die Begleitung durch das Bayerische Staatsministerium für Wissenschaft, Forschung und Kunst. Schließlich musste noch in einem anderen Bereich im vhb-Umfeld eine Sonderlösung gefunden werden, und zwar für vhb-Kurse auf Moodle-Instanzen der LMU, zu denen der Zugang schon jetzt nur noch über Shibboleth möglich ist. Für Studenten, deren Heimathochschulen noch keinen Shibboleth-IdP betreiben, wurden Sonderkennungen im LMU-Zweig des Import-Export-Satelliten von LRZ-SIM angelegt. 1.3.4.5 Ausblick Ein arbeitsintensiver Bereich zeichnet sich bei der Implementierung und Koordination für den Shibboleth-Zugang zu vhb-Kursen ab. Das gefundene Konzept der Kursbelegungsdaten-Übernahme in die einzelnen IDM-Systeme der Hochschulen muss durch Beispielimplementierungen von Webservices und Beratung durch das LRZ begleitet werden, ebenso wie die Erweiterung der IdP-Konfiguration zur Auslieferung und Filterung der Kursdaten an die relevanten Kurs-Service-Provider. Auf Initiative des TUM IT-Service-Zentrums wird die Planung und Etablierung von koordinierten Workflows bei Changes am TUM-IdP als weitere Aufgabe anfallen. 18 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) Abbildung 3: Kursbuchung und Kurszutritt über das vhb-Portal mit Übernahme der Kursbuchungsdaten in die lokale Identity-Management-Datenbasis (hier LDAP-Server, Schritt 4 oben links) Quelle: W. Hommel (LRZ), A. Hummel (vhb) 1.4 E-Mail, Web-Dienste und Datenbanken 1.4.1 E-Mail-Services 1.4.1.1 Anbindung des Mail-Forwarders an die Benutzerverwaltung LRZ-SIM Nachdem in 2009 der Mail-Forwarder aufgebaut und an die Benutzerverwaltung TUMonline angebunden wurde, um unter den Domains tum.de bzw. mytum.de Mailboxen sowohl auf dem MyTUM-Mailserver als auch auf dem Exchange-Server haben zu können, wurde in 2010 auch die Verbindung zwischen der Benutzerverwaltung LRZ-SIM (Secure Identity Management) und dem Forwarder aufgebaut, um eine Verbindung zwischen dem POP/IMAP-Server mailin.lrz.de und Exchange herzustellen. Es wurden dazu die Informationen über Weiterleitungen und Abwesenheitsnotizen, die bisher lokal am POP/IMAP-Server gehalten wurden, nach LRZ-SIM transferiert und sind dort für Dienste des Id-Portals einfach zugreifbar (z.B. Self Services für Benutzer oder Anzeigefunktionen für die LRZ-Hotline bei der Bearbeitung von Problemen). Außerdem wurde die Möglichkeit geschaffen, für jede Mailbox festzulegen, auf welchem Message Store (mailin oder Exchange) sie sich befinden soll. Diese Informationen werden dann dem Forwarder über ein dediziertes Directory zur Verfügung gestellt. Der Forwarder kann somit entscheiden, ob eine E-Mail an einen der beiden Message Stores geschickt werden soll und/oder an einen externen Mailserver. Gleichzeitig übernimmt er die Benachrichtigung eines Senders, wenn der Empfänger eine Abwesenheitsnotiz geschaltet hat. 1.4.1.2 Anbindung von Exchange an das zentrale Identity Management des LRZ Mit der Anbindung des Mail-Forwarders an LRZ-SIM war eine der Voraussetzungen erfüllt, um Exchange für weitere Nutzer im MWN, insbesondere für die Bayerische Akademie der Wissenschaften und die LMU München, bereitstellen zu können. Dazu musste aber zusätzlich auch Exchange an LRZ-SIM angebunden werden. Auch hier waren wiederum umfangreiche Arbeiten notwendig, um die Daten zwischen Jahresbericht 2010 des Leibniz-Rechenzentrums 19 LRZ-SIM und dem Active Directory zu synchronisieren und Mailboxen auf Exchange automatisch einzurichten oder zu löschen. Erste Pilotnutzer waren die Verwaltung der BAdW und die Tierärztliche Fakultät der LMU, deren Lehrstühle ab Juni sukzessive vom bisherigen Mailsystem mailin auf Exchange umgezogen wurden. 1.4.1.3 Aufbau einer Exchange 2010 Umgebung Parallel zu den Umzügen auf Exchange wurde ab Mai damit begonnen, eine Exchange 2010 Umgebung aufzubauen und die Migration von der bisherigen Version (Exchange 2007) vorzubereiten. Während die alte Umgebung nur für bis zu maximal 5.000 Nutzer ausgelegt war und so langsam an ihre Grenzen stieß, wurde die neue für bis zu 20.000 Nutzer konzipiert und komplett auf virtuellen Maschinen realisiert. Die Migration fand wie geplant Ende Oktober statt und verlief ohne größere Schwierigkeiten. Mit Exchange 2010 steht nun auch Benutzern, die nicht die Microsoft-Anwendungen Outlook bzw. Internet Explorer verwenden, die vollständige Funktionalität zur Verfügung, z.B. bei Verwendung von Firefox und der Web-Anwendung OWA (Outlook Web App). 1.4.1.4 Aufbau eines neuen Mailinglisten-Servers Ein weiteres wichtiges Projekt war der Aufbau eines neuen Mailinglisten-Servers auf Basis des Produkts Mailman. Damit wurde der in die Jahre gekommene Majordomo-Server abgelöst. Mailman bietet gegenüber Majordomo hauptsächlich den Vorteil, dass sowohl für Listen-Administratoren als auch für Nutzer der Listen eine Web-Oberfläche zur Verfügung steht, über die die gewünschten Einstellungen bequem vorgenommen werden können. Der Umzug auf den neuen Server wurde auch dazu genutzt, unter den bis dato existierenden Listen gründlich aufzuräumen: ca. 300 Listen, die schon lange nicht mehr benutzt wurden, wurden gelöscht. Zur automatischen Migration der Mailinglisten wurde eine Reihe von Programmen entwickelt. Trotzdem waren wegen der Komplexität der Migration und der verschiedenartigen Modelle der Listenverwaltung in Majordomo und Mailman zahlreiche manuelle Nacharbeiten notwendig. 1.4.1.5 Massenmail-System für Hochschulstart Aus dem Projekt Hochschulstart kam die Anforderung, an einem Tag alle Studenten, die sich um einen Studienplatz beworben haben, über das Ergebnis per Mail zu informieren. Dabei wird davon ausgegangen, dass das dafür notwendige Massenmailsystem in der Lage ist, 400.000 E-Mails innerhalb von 24 Stunden zu versenden. Dies war über die vorhandene Infrastruktur nicht zu erreichen, so dass ein separates Massenmailsystem auf Basis von zwei virtuellen Mailservern aufgebaut wurde. Alle E-Mails, die durch das Massenmailsystem laufen, werden mit einer DKIM-Signatur versehen, damit die Zielsysteme die Integrität des Mailheaders, insbesondere die Absendemailadresse überprüfen können. Bei manchen ISPs ist dies Voraussetzung, damit sie Massenmails in diesem Umfang akzeptieren. Die aufgebauten Systeme wurden intensiven Lasttests unterworfen, um die geforderte Performance sicherstellen zu können. Um Erfahrungen im Produktionsbetrieb des Systems zu erhalten, wurde der neu aufgebaute MailinglistenServer an das Massenmailsystem angebunden. In Zukunft soll das System auch für den Massenversand von E-Mails von Nutzern der ans MWN angeschlossenen Organisationen genutzt werden. Diese Kunden werden auf Antrag autorisiert, dieses System zu nutzen. 1.4.1.6 Statistiken 1.4.1.6.1 Spam- und Virenabwehr Das Gros der Spam- und Viren-Mails wird bereits von den Postrelays, die für die Annahme von E-Mails aus dem Internet zuständig sind, durch die dort implementierten Abwehrmechanismen abgewiesen. Die angenommenen E-Mails werden von den Postrelays über die Mailrelays an ein Cluster von ScanRechnern weitergeschickt. Dort werden Viren-Mails ausgefiltert (und die Empfänger darüber informiert) und die verbleibenden E-Mails markiert, ob es sich vermutlich um Spam-Mails handelt oder nicht. Diese Markierung kann dann dazu verwendet werden, die betreffenden E-Mails durch Konfiguration entsprechender Regeln im eigenen Mailprogramm auszufiltern. In der folgenden Graphik ist die Entwicklung von ausgefilterten Viren-Mails, markierten Spam-Mails und regulären erwünschten E-Mails (Ham-Mails) für die Jahre 2006 bis 2010 graphisch dargestellt. Dabei sind nur die E-Mails berücksichtigt, die aus dem Internet angenommen wurden, also ohne die abgewiesenen Spam- und Virenmails. Wie man sieht, ist der Anteil der Ham-Mails seit Jahren relativ konstant. Der Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) 20 Anteil an Viren-Mails ist seit einiger Zeit so klein, dass man ihn in der Graphik nicht mehr erkennen kann. Die Werte liegen bei ca. 88 erkannten Viren pro Tag (Vorjahr: 80). 7000000 6000000 5000000 4000000 Ham 3000000 Spam Viren 2000000 1000000 0 Jan Apr Jul Okt Jan Apr Jul Okt Jan Apr Jul Okt Jan Apr Jul Okt Jan Apr Jul Okt Abbildung 4: Monatliches Ham-, Spam- und Virenaufkommens in den Jahren 2006 bis 2010 1.4.1.6.2 Relaydienst Am Übergang vom Internet in das Münchner Wissenschaftsnetz (MWN) ist an den Routern der Port für das SMTP-Protokoll für fast alle Rechner gesperrt. Nur einige ausgewählte Mailserver – neben den Postrelays des LRZ sind das in der Regel große Fakultätsmailserver – können daher E-Mails direkt aus dem Internet annehmen. Alle anderen Mailserver im MWN müssen diese speziellen Mailserver als RelayServer benutzen. Der Vorteil ist, dass sich ein lokaler Mailserver im MWN nicht um Viren- und Spamfilterung kümmern muss, das wird bereits durch den Relay-Server erledigt. Den Relay-Service des LRZ nehmen zurzeit 164 Mailserver im MWN mit insgesamt 426 verschiedenen Maildomains in Anspruch. Mailserver Domains im MWN Einrichtung Ludwig-Maximilians-Universität München Technische Universität München andere Hochschulen und hochschulnahe Einrichtungen 49 100 28 107 220 117 Gesamt 177 444 Tabelle 9: Nutzung des E-Mail-Relaydienstes 1.4.1.6.3 Mailhosting (virtuelle Mailserver) Das LRZ bietet Hochschul- und hochschulnahen Einrichtungen, die keinen eigenen Mailserver betreiben wollen, an, den Maildienst am LRZ zu „hosten“. Es wird dann eine virtuelle Maildomain eingerichtet, in der sich der Name der betreffenden Einrichtung widerspiegelt (z.B. jura.uni-muenchen.de) und Angehörige dieser Einrichtungen erhalten entsprechende Mailadressen. Die zu den virtuellen Domains gehörenden Mailboxen können sich sowohl auf dem POP/IMAP-Server mailin.lrz.de, als auch auf dem vom LRZ betriebenen Exchange-Server befinden. Die Entscheidung, an welchen Server eine E-Mail auszuliefern ist, übernimmt der sogenannte Forwarder, der sich die notwendige Information dafür aus der jeweiligen Benutzerverwaltung holt. Jahresbericht 2010 des Leibniz-Rechenzentrums 21 Seit Ende des Jahres 2010 unterstützt TUMonline organisationsspezifische Maildomains, d.h. neben den Mailadressen mit den Domains mytum.de und tum.de können Administratoren einer TUMOrganisationseinheit, z.B. ein Lehrstuhl oder auch eine ganze Fakultät, weitere Maildomains für ihre Nutzer konfigurieren. Seitdem dies möglich ist, werden neue TUM-Maildomains nur noch in TUMonline angelegt. Alte virtuelle Maildomains auf den POP/IMAP-Servern des LRZ werden sukzessive dorthin migriert. Die zugehörigen Mailboxen liegen dann entweder auf dem MyTUM-Mailserver oder auf dem Teil des Exchange-Servers, der zu TUMonline gehört. Auch hier sorgt der Forwarder dafür, dass eine EMail auf dem richtigen Mailserver landet. Aus Sicht des LRZ handelt es sich beim TUM-Mailserver um einen einzigen Mailserver mit beliebig vielen Aliasdomains. Daher die „1“ in der Spalte „virtuelle Mailserver“ in der untigen Tabelle. Ende 2010 waren am LRZ 227 (Vorjahr: 228) virtuelle Mailserver eingerichtet. Eine Aufteilung auf die Hauptnutzer ist der folgenden Tabelle zu entnehmen: Einrichtung virtuelle Mailserver Domains 93 56 1 42 35 137 113 24 75 48 227 397 Ludwig-Maximilians-Universität München Technische Universität München (LRZ-SIM) Technische Universität München (TUMonline) Bayer. Akademie der Wissenschaften (inklusive LRZ) andere Hochschulen und hochschulnahe Einrichtungen Gesamt Tabelle 10: Betrieb virtueller Mailserver 1.4.1.6.4 Nutzung der Message-Store-Server 1.4.1.6.4.1 Nutung der POP/IMAP-Server Ende 2010 gab es 119.489 Mailboxen (Vorjahr: 111.764) auf einem der fünf POP/IMAP-Server des LRZ. Nachfolgend eine Aufteilung nach Server bzw. Benutzergruppen: POP/IMAP-Server für … … Mitarbeiter der vom LRZ bedienten Einrichtungen (Mailserver „mailin“): Ludwig-Maximilians-Universität München 8.187 Technische Universität München 7.388 Bayer. Akademie der Wissenschaften (inklusive LRZ) 1.066 Hochschule München 256 andere bayerische Hochschulen 205 andere wissenschaftliche Einrichtungen 2.255 … die Fakultät Physik der Technischen Universität München … das myTUM-Portal der Technischen Universität München … Studenten der Ludwig-Maximilians-Universität München (CampusLMU) … Studenten anderer Münchner Hochschulen Gesamt 19.357 2.982 43.719 51.903 1.528 119.489 Tabelle 11: Nutzung der POP/IMAP-Messagestores 1.4.1.6.4.2 Anzahl Benutzer Nutzung des Exchange-Dienstes 22 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) Im Jahr 2010 wurde der Benutzerbetrieb für den Exchange-Dienst auf die Ludwig-MaximiliansUniversität ausgeweitet (zunächst pilotmäßig für die Fakultät Tiermedizin). Ende 2010 gab es auf dem Exchange-Cluster 5.012 Mailboxen (Vorjahr: 1.634), die sich wie folgt verteilten: ExchangeMailboxen Einrichtung Ludwig-Maximilians-Universität München Technische Universität München Bayerische Akademie der Wissenschaften Leibniz-Rechenzentrum 278 4.561 43 130 Gesamt 5.012 Tabelle 12: Nutzung des Exchange-Dienstes 1.4.1.6.5 Weiterleitungs-Service Der oben bereits erwähnte Forwarder, der für die Verteilung von E-Mails an den richtigen Message Store zuständig ist, übernimmt neben individuell eingerichteten Weiterleitungen auch einen Weiterleitungsservice für ganze Domains, zu denen es keine Mailboxen gibt. Bei der LMU handelt es sich dabei um die Domain uni-muenchen.de bzw. lmu.de, bei der TUM um die Domain alumni.tum.de. Einrichtung Weiterleitungen Ludwig-Maximilians-Universität München Technische Universität München 15.376 3.989 Gesamt 19.365 Tabelle 13: Nutzung des Weiterleitungsdienstes für Maildomains 1.4.1.6.6 Nutzung von E-Mail-Verteilerlisten Wie weiter oben bereits erwähnt, wurde der Mailinglisten-Dienst des LRZ im Dezember 2010 auf das Produkt Mailman umgestellt. Diese Umstellung wurde auch zum Anlass genommen, gründlich aufzuräumen: Insgesamt wurden 304 Listen, die schon lange nicht mehr benutzt wurden, gelöscht. Ende 2010 gab es 453 E-Mail-Verteilerlisten (Vorjahr: 661), die sich wie folgt verteilten: E-MailVerteilerlisten Einrichtung Ludwig-Maximilians-Universität München Technische Universität München Bayer. Akademie der Wissenschaften (inklusive LRZ) andere Hochschulen und hochschulnahe Einrichtungen 112 159 145 37 Gesamt 453 Tabelle 14: Nutzung von E-Mail-Verteilerlisten 1.4.2 Webdienste Schwerpunkt beim Webhosting war 2010 der Ausbau des E-Learning für beide Universitäten, die jeweils nach relativ kurzer Pilotphase in den Produktionsbetrieb übergegangen sind, die TUM hochschulweit, die LMU mit einigen Fakultäten. Vor allem für diese Anwendungen wurde Shibboleth als neuer Dienst eingerichtet. Jahresbericht 2010 des Leibniz-Rechenzentrums 23 Außerdem wurden die schon bestehenden Content-Management-Systeme Fiona für LRZ und BAdW sowie Typo3 für die TUM weiter ausgebaut. 1.4.2.1 E-Learning Im Bereich der Lehre an den Hochschulen ist ein klarer Trend zur verstärkten Nutzung von E-LearningSystemen zu erkennen. Dadurch erhöhte sich auch die Nachfrage nach geeigneten Webumgebungen zur Realisierung deutlich. Somit wurden die im Vorjahr begonnenen Pilot-Projekte in diesem Bereich zu produktiven Lernumgebungen ausgebaut. 1.4.2.1.1 Moodle TUM Die umfangreichste Installation wurde für die TUM umgesetzt, die sich zum TUM-weiten Einsatz von Moodle entschieden hat. Betrieben wird die Lernplattform am LRZ in einer eigens dafür eingerichteten Webumgebung, bestehend u.a. aus dedizierten Webservern, Dateisystemen und Datenbanken. Dabei konnten die bereits bestehenden Konzepte für die Einrichtung von Webservern weitgehend auf das neue System übertragen werden, so dass es sich trotz Eigenständigkeit gut integriert. Der technische Betrieb wird vom LRZ in enger Absprache mit den Zuständigen an der TUM (ITSZ Medienzentrum) erbracht. Die Betreuung auf Applikations-Ebene, insbesondere die direkte Unterstützung der Moodle-Nutzer, liegt bei der TUM. Zum TUM-Moodle-System gehören mehrere Komponenten: Die zentrale Lernplattform selbst sowie ein Staging-System, das sowohl für Tests und Entwicklung, als auch für Support und Schulung verwendet wird. 1.4.2.1.2 Moodle LMU Bei der LMU erfolgt keine Zentralisierung auf eine gemeinsame Moodle-Umgebung, sondern es werden nach und nach einzelne Moodle-Instanzen nach den aktuellen Bedürfnissen der Fakultäten und Lehrstühle eingerichtet. Um eine allzu große Vielfalt zu verhindern, werden die Einrichtung und die Grundkonzepte der LMU-Moodle-Instanzen über den Leiter des Bereichs „Virtuelle Hochschule“ an der LMU koordiniert. Derzeit sind sechs Moodle-Instanzen für die LMU in Betrieb, die etwa zur Hälfte bereits produktiv eingesetzt werden. 1.4.2.2 Neues Dienst-Angebot im Webhosting: Shibboleth Die Nutzung der E-Learning-Systeme ist nur nach einem erfolgreichen Login durch nutzungsberechtigte Personen möglich. Gerade im Bereich E-Learning ist dieser Nutzer-Kreis jedoch oft nicht mehr auf die Hochschule beschränkt, an der ein Online-Kurs angeboten wird. Insbesondere über die VHB (Virtuelle Hochschule Bayern) werden zahlreiche Kursteilnehmer bayernweit auf Online-Kurse verteilt. Um die Verwaltung dieser Gast-Hörer auf technischer Ebene im E-Learning-System zu vereinfachen, wird sowohl auf den TUM- als auch den LMU-Moodle-Instanzen Shibboleth eingesetzt: • Shibboleth ermöglicht Nutzern, die nicht in die lokalen Verwaltungsstrukturen eingebunden sind, sich dennoch als berechtigte Nutzer in einer Moodle-Instanz anzumelden. Der Moodle-Nutzer wird in einem Shibboleth-fähigen Moodle für den Login-Prozess zu seinem eigenen „Herkunftsort“, seinem sogenannten Identity-Provider geschickt, kann sich dort mit seinen gewohnten Zugangsdaten ausweisen und wird dann wieder zurück zum Moodle geschickt. Dabei werden die notwendigen Eckdaten wie Name, Vorname, Loginname, Email-Adresse usw. automatisch an das Moodle übermittelt und in die lokale Moodle-Verwaltung aufgenommen. • Shibboleth ist außerdem ein Single-Sign-On-Verfahren. Das heißt, dass man nach einem Login beispielsweise in Moodle automatisch auch in einer anderen Applikation (z.B. einem Wiki, einem Hochschulportal. usw.) angemeldet ist, die ebenfalls Shibboleth-fähig ist. Auch für die Nutzer des TUM-Typo3-Systems (siehe weiter unten) soll Shibboleth zum Einsatz kommen. Derzeit wird an der TUM unter Mithilfe des LRZ ein entsprechendes Typo3-Modul entwickelt. Hier würde insbesondere auch die Single-Sign-On-Komponente zum Tragen kommen: Dozenten und andere Content-Provider der TUM wären automatisch an der Lern-Plattform und auf den Webseiten, die sie verwalten, angemeldet, um Kurse zu ändern und Webseiten-Inhalte zu erstellen und anzupassen. Je mehr Shibboleth-fähige Applikationen hinzukommen, umso interessanter wird dieser Aspekt natürlich. Um Applikationen Shibboleth-fähig zu machen, müssen eine Reihe von technischen Voraussetzungen erfüllt sein. Insbesondere muss applikationsseitig ein sogenannter Service-Provider betrieben werden, der zwischen der Applikation und dem Identity-Provider vermittelt. Der Betrieb solcher Service-Provider 24 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) muss auf den Systemen laufen, auf denen auch die Applikationen liegen und wird daher als weitere Leistung im Rahmen des Webhosting erbracht. Im Fall von LMU und TUM ergibt sich außerdem die Situation, dass auch der Identity-Provider vom LRZ betrieben wird (siehe Bericht Identity Management), so dass hier gute Bedingungen zur Koordination zwischen beiden Komponenten herrschen. Da die Komplexität des gesamten Shibboleth-Systems viele Absprachen erfordert, ist dies ein großer Vorteil. 1.4.2.3 Typo3 Die TUM unterstützt für die Webauftritte ihrer Fakultäten, Lehrstühle und Einrichtungen das ContentManagement-System Typo3 und bietet dazu die Installation dieser Applikation und den Support auf einer vom LRZ bereitgestellten und gepflegten Webumgebung. Die Vorbereitungen und Absprachen hatten bereits im Vorjahr begonnen (wie berichtet). Das Gesamtsystem ist im Berichtsjahr mit Erfolg und in großem Umfang in Produktion gegangen. Es wurden bisher über 200 neue Webserver in dieser Umgebung eingerichtet (siehe auch Statistik). 1.4.2.4 Performance der Webhosting-Umgebung Durch die zahlreichen neuen Webserver, die intensiven Gebrauch von Datenbanken machen – Moodle und Typo3 sind die am häufigsten eingesetzten Produkte dieser Art – haben sich neue Ansprüche an das Webhosting ergeben. Waren Zugriffe von den Webservern auf die Datenbanken früher eher die Ausnahme, so sind sie jetzt die Regel. Dadurch werden die Netzlaufzeiten von Datenpaketen zwischen Datenbank und Webserver relevant, während dies früher kaum eine Rolle spielte. Dies kann bei komplexen Setups zu deutlichen Leistungseinbußen im Gesamtsystem führen. Dieser Effekt erhöht sich noch dadurch, dass die meisten Zugriffe personalisiert sind – nach erfolgtem Login werden Webseiten entsprechend dem Nutzerprofil individuell angepasst ausgeliefert –, so dass die üblichen Caching-Methoden wenig bis gar nicht einsetzbar sind. Dabei ist es für das Laden einer Webseite oft von untergeordneter Bedeutung, ob viele oder nur wenige Nutzer das System nutzen, da allein zur Zusammenstellung einer einzigen Webseite hunderte von Verbindungen benötigt werden, deren Gesamtlaufzeit sich zu einer fühlbar langen Zeit aufaddiert, je langsamer die Netzanbindung ist. Und nicht nur die Laufzeiten zur Datenbank spielen dabei eine Rolle, sondern auch die Laufzeiten zu den Webdaten, die auf dem Dateisystem abgelegt sind. Die auf diesem Gebiet im Berichtsjahr gewonnenen Erkenntnisse müssen daher verwendet werden, um die Webumgebung den veränderten Bedingungen anzupassen und dem Nutzer weiterhin einen zeitgemäß ausreichend schnellen Zugang zu den Applikationen zu gewährleisten. Eine maschinelle Aufrüstung ist sicherlich auch notwendig, wird aber alleine nicht ausreichen. Dem Problem mit schnelleren Netzen zu begegnen ist ebenfalls keine Lösung, da die technischen Möglichkeiten hier bereits weitgehend ausgeschöpft sind. Daher müssen sowohl die Datenbanken als auch die Dateisysteme netztechnisch näher an die Webserver gebracht werden, um die Laufzeiten zu verringern. Das erfordert Änderungen im Webhosting-Konzept, die sowohl für bereits bestehende als vor allem auch für neue Webserver-Pools berücksichtigt und umgesetzt werden müssen. Der Zeitgewinn kann durch ein günstiges Setup durchaus einen Faktor 10 ausmachen. 1.4.2.5 Webhosting – Statistik Auf die zentralen WWW-Server am LRZ wurde im Jahr 2010 durchschnittlich ca. 51 Millionen Mal pro Monat (also etwa 19 Mal pro Sekunde) zugegriffen. Diese Zahl ist allerdings aus mehreren Gründen nur bedingt aussagekräftig. Zum einen ist eine echte Zählung der Zugriffe gar nicht möglich, da auf verschiedenen Ebenen Caching-Mechanismen eingesetzt werden (Browser, Proxy). Andererseits werden nicht Dokumente, sondern „http-Requests“ gezählt. Wenn also z. B. eine HTML-Seite drei GIF-Bilder enthält, so werden insgesamt vier Zugriffe registriert. Die folgende Tabelle zeigt die durchschnittliche Zahl der Zugriffe und den durchschnittlichen Umfang der ausgelieferten Daten pro Monat; die Daten sind nach den vom LRZ betreuten Bereichen aufgeschlüsselt. Die Zahlen für das LRZ enthalten auch die Zugriffe auf persönliche WWW-Seiten von Hochschulangehörigen. Zusätzlich wird die Zahl der Seitenaufrufe, das ist die angeforderte Zahl der „echten“ Dokumente, genannt. Als echte Dokumente gelten dabei Textdokumente, also keine Bilder oder CGISkripte. Die Zahl der Webserver hat sich gegenüber 2009 um 283 erhöht; das sind mehr als 50%; dieser Anstieg ist fast ausschließlich dem Typo3-Projekt der TUM zuzuschreiben, das eine Vielzahl kleiner Webserver Jahresbericht 2010 des Leibniz-Rechenzentrums 25 umfasst. Der Umfang der ausgelieferten Daten stieg etwas stärker an als die Zahl der Zugriffe, nämlich um 25% auf ca. 2,3 TByte pro Monat. Zugriffe in Mio. Seitenaufrufe in Mio. Leibniz-Rechenzentrum Ludwig-Maximilians-Universität München Technische Universität München Einrichtungen im Münchner Hochschulnetz Einrichtungen im Münchner Wissenschaftsnetz Bayerische Akademie der Wissenschaften Sonstige 17,20 4,69 17,52 2,76 2,52 0,88 5,94 6,89 0,65 1,76 0,86 0,28 0,20 0,44 835,9 224,2 741,6 40,5 249,4 152,1 112,3 Gesamt 51,51 11,08 2356,1 Server Datenumfang in GByte Tabelle 15: Monatliche Zugriffe auf die WWW-Server am LRZ Ende 2010 unterhielt das LRZ 16 virtuelle WWW-Server für eigene Zwecke. Für Hochschulen und hochschulnahe Einrichtungen wurden insgesamt 814 (Vorjahr: 531) virtuelle WWW-Server betrieben. Einrichtung Webserver 2010 Webserver 2009 Leibniz-Rechenzentrum Ludwig-Maximilians-Universität München Technische Universität München Bayerische Akademie der Wissenschaften Einrichtungen aus dem Münchner Hochschulnetz (z. B. Hochschule für Politik) Einrichtungen aus dem Münchner Wissenschaftsnetz (z. B. Zoologische Staatssammlung München) Andere (z. B. Bayerisches Nationalmuseum) 16 114 541 27 24 16 112 273 27 26 29 26 63 51 Gesamt 814 531 Tabelle 16: Anzahl virtueller WWW-Server Die Unterstützung der Applikationsplattform Zope wurde weiter zurückgefahren. Zum Jahresende gab es noch insgesamt zwölf unabhängige gehostete Sites, und zwar zehn individuelle Zope-Instanzen mit individuellen Sites (meist Plone), sowie eine TUM-Zope-Instanz mit zwei elevateIT-Sites. 1.4.2.6 Content-Management für das LRZ selbst und die BAdW Das Content-Management-System Fiona der Fa. Infopark wird seit Mitte 2007 für die Verwaltung der Inhalte des Webauftritts der Bayerischen Akademie der Wissenschaften verwendet. Nachdem im April 2009 auch der Webauftritt des LRZ auf dieses System umgestellt und dabei überarbeitet wurde, folgte im September 2010 der interne Webserver. Das bestand aus zwei größeren Komplexen: • Die enthaltene Dokumentation sollte übernommen werden. Anders als beim externen Webserver ein Jahr vorher wurde nicht der gesamte Altbestand an Webseiten mitsamt seiner Gliederung übernommen. Vielmehr orientiert sich die Gliederung jetzt am für das IT-Servicemanagement neu entworfenen Dienstebaum, und es sollen nur aktuelle Texte übernommen und dabei auf ihre Richtigkeit überprüft werden. Diese Aufräumaktion in enger Zusammenarbeit mit dem Arbeitskreis Informationsmanagement wird sich bis ins Jahr 2011 hinziehen. • Bestandteil des alten internen Webservers war auch der Publisher, also das bisherige ContentManagement für Extern- wie Internserver. Das ist zwar mit der Migration des Internservers im 26 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) Prinzip überflüssig geworden, einige speziellere Funktionen (E-Mail-Verteiler, LRZMitteilungen) konnten aber nicht sofort ersetzt werden und werden noch bis ins Jahr 2011 in Betrieb bleiben. Auch im Berichtsjahr lag nicht nur der Betrieb der Fiona-Software und der zugrundeliegenden Systeme, sondern auch die Unterstützung der Redakteure aus der BAdW und Anpassungen der Konfiguration an deren Wünsche beim LRZ. Hervorzuheben ist besonders die Schulung von Mitarbeitern der BAdW in der Nutzung und Konfiguration dieser Software. Mit der Schelling-Kommission wurde die pilotmäßige Migration des Webauftritts einer Kommission der BAdW nach Fiona vorbereitet. 1.4.3 Datenbanken MySQL-Datenbanken sowie Oracle-Datenbanken bilden den Schwerpunkt der Datenbankdienste. Daneben wird Microsoft Access als Frontend verwendet und mehrmals im Jahr Kurse hierzu angeboten. Die Anzahl der Server, die MySQL-Datenbanken im Netz anbieten, wuchs auf 15 Einheiten an, so dass sich die Anzahl der darauf laufenden Instanzen auf 25 (Vorjahr 15) erhöhte. Einzelne Datenbanken wie z.B. die Patentdatenbank überschreiten zwischenzeitlich die 1 TB Datenbankgröße. Neben der CMSInstallation Fiona werden diverse Clientanwendungen für MySQL (WordPress, Moodle, Typo3, Joomla! etc.) unterstützt. Die für virtuelle Webserver der Münchener Hochschulinstitute eingerichtete Datenbankinstanz wurde auf einen VMware-Rechner migriert. Diese Instanz umfasst 357 Schemata (Einzeldatenbanken) welche zum Datenmanagment der virtuellen Webserver benötigt werden. Hierbei handelt es sich um die MySQL Version 4.1. Seit Dezember 2010 werden allerdings Webserverdatenbanken ausschließlich mit der MySQL-Version 5 angeboten und installiert. Für die Version 5.0.51 wurden im letzten Jahr 167 Datenbanken zusätzlich angelegt. Wie bei allen anderen MySQL-Anwendungen am LRZ zuvor wird auch hier ein 7×24h-online-Betrieb durchgeführt; ausgenommen davon sind Wartungsfenster. Diese neu installierten Datenbanken dienen sowohl als Backend-Datenbanken für die Typo3-Anwendungen der TUM und LMU als auch für allgemeine Anwendungen (Drupal, Joomla! etc). Zusätzlich zu den vorhandenen Standarddatenbanken basierend auf MyISAM-Tabellen gewinnt der Einsatz von transaktionsbasierten Tabellen in MySQL mit der zugehörigen InnoDB-Engine immer mehr an Bedeutung und wird im LRZ zunehmend standardmäßig eingesetzt. Eine Besonderheit hierbei sind die wesentlich aufwendigeren Sicherungs- und Restoreverfahren, die im MySQL-Umfeld zusätzliche Software wie InnoDB-Hotbackup bzw. ZManda benötigen. Diese Software wurde ebenfalls angeschafft, installiert und sodann in wichtigen Projekten eingesetzt. Anzuführen wären hier insbesondere die Lernplattform Moodle der TU/ LMU sowie das Projekt Hochschulstart. Speziell die letzten genannten Projekte, die eine hohe Stabilität als auch Performance benötigen, wurden jeweils mit kommerzieller Enterprise-Software ausgestattet, wodurch ein bestmöglicher Support gewährleistet ist. Darüberhinaus wurden im Jahre 2010 Datenbanken für verschieden Inhouse-Awendungen MySQLDatenbanken benötigt und installiert. Hierbei ist vor allem die aktuelle HPC Anwendung zu nennen. Für diese wurde eine neue Datenbank mit Replikation installiert. Das Projekt befindet sich derzeit im Teststadium und wird etwa Mitte 2011 in Produktion gehen. Das Dienstangebot bei den Oracle-Datenbanken blieb weitgehend unverändert. Zwei neue Rechner für Oracle-Instanzen wurden beschafft, um ältere aus der Wartung fallende Maschinen zu ersetzen. Einige Dienste der Oracle-Instanz (z.B. das Trouble-Ticket-System des LRZ) liefen parallel unter der Anwendung Action Request Software (ARS) sowie dem neu beschafften System iET ITSM-Solution. Dieses System arbeitet mit der Datenbank Microsoft SQL Server als Datenbank-Engine und löst im März 2011 das bisherige Trouble-Ticket-System ab. Am Jahresende 2010 betrieb das LRZ 25 Instanzen (Vorjahr: 15) von MySQL (2× MySQL 4.1 und 23× MySQL 5), die etwa 1,5 TB-Byte Daten (Vorjahr: 600 G-Byte) verwalten. Damit werden unter anderem 357 virtuelle Webserver (Vorjahr: 280) versorgt. Darüber hinaus finden die MySQL-Services hausintern in 34 Projekten intensiven Gebrauch. Auch die Performancedaten des HLRB II werden in einer MySQLDatenbank verwaltet und dadurch konsolidiert im Internet angezeigt. Die MySQL-Datenbankserver verarbeiten derzeit permanent ca. 1200 Anfragen aus dem Netz pro Sekunde (Vorjahr: 1000). Jahresbericht 2010 des Leibniz-Rechenzentrums 1.5 27 Grafik, Visualisierung, Multimedia 1.5.1 Virtual Reality (VR) Die bisherige Ausstattung des LRZ zur immersiven Visualisierung wissenschaftlicher Daten, deren Hauptbestandteil eine Zwei-Flächen-Holobench ist, genügt nicht mehr den Anforderungen der Benutzer. Eine umfangreiche Bedarfserhebung unter Lehrstuhlinhabern aus vielen Fachbereichen von LMU und TUM zeigte die Notwendigkeit, auch zukünftig eine angemessene Ausstattung zur immersiven Visualisierung zur Verfügung zu stellen. Insbesondere sind mittlerweile Projekte in Planung, die nur in einer echten Virtual-Reality-Umgebung realisiert werden können, bei der der Benutzer von der Projektion fast vollständig umgeben wird. Ein solcher Projektionsraum (der häufig als CAVE bezeichnet wird) ist seiner Natur nach ein interaktiver Arbeitsplatz für einen oder wenige Wissenschaftler. Daneben gibt es auch noch Bedarf für großflächige stereoskopische Präsentationen vor Gruppen im Rahmen von wissenschaftlichen Veranstaltungen. Deshalb wurde in 2010 ein Forschungsgroßgeräteantrag ausgearbeitet, in dem ein Visualisierungszentrum mit einer entsprechenden Ausstattung beantragt wird: eine fünfseitige CAVE mit Projektion auf die Seitenflächen, Boden und Decke, sowie eine großformatige 3D-Powerwall. Im Erweiterungsbau des „Zentrums für Supercomputing“ wurde hierfür ein entsprechender Raum vorgesehen, der die spezifischen Anforderungen der beiden komplexen Projektionsanlagen erfüllt. Insbesondere wird in diesem neuen Visualisierungszentrum durch die außergewöhnliche Raumhöhe eine Bodenrückprojektion der CAVE ermöglicht werden, die jeglichen störenden Schattenwurf vermeidet, den Eindruck der Immersion verbessert und eine echte Besonderheit darstellt. 1.5.2 Streamingserver Das LRZ betreibt seit 2001 einen Streamingserver. Die Nutzung dieses Servers hat in den letzten Jahren kontinuierlich zugenommen. Insgesamt liegen derzeit auf dem Streamingserver mehrere tausend Filmbeiträge mit einem kumulierten Datenvolumen von 935 GByte – annähernd eine Verdoppelung in den vergangenen 12 Monaten. Die einzelnen Filme sind meist Aufzeichnungen von Vorträgen oder Vorlesungen mit einer Länge von 80-90 Minuten, aber auch teilweise kürzere Lehrvideos, die zum Beispiel die Ausbildung in der Medizin unterstützen. Vorlesungsaufzeichnungen werden normalerweise in drei Varianten erstellt und abgelegt, als hochaufgelöstes Video mit einer Bandbreite von ca. 1 Mbit/s, als niedriger aufgelöstes Video mit ca. 400 Kbit/s und einer Variante, die nur aus der Tonspur besteht und nur eine Bandbreite von ca. 50 Kbit/s benötigt. Der bisherige Darwin-Streamingserver basiert auf QuickTime und für die Wiedergabe der Medieninhalte ist das QuickTime-Plugin notwendig. Es wurde wiederholt nach einer weiteren Streaming-Lösung nachgefragt, bei der für die Wiedergabe stattdessen das Flash-Plugin zum Einsatz kommt. Dazu wurde im vergangenen Jahr ein Mediaserver von Wowza Media Systems aufgebaut, der seit dem Wintersemester in Produktionsbetrieb ist. 1.6 Serveradministration und Applikationsunterstützung Der Betrieb von Serversystemen für Internetdienste erfordert eine Reihe von Arbeiten, die inhaltlich eher zum Betriebssystem oder zur systemnahen Software gehören, die aber auf das Applikationsportfolio am jeweiligen Serversystem zugeschnitten sind. Ob dabei das Serversystem eine physische Maschine ist oder aber eine virtuelle, spielt auf dieser Ebene kaum eine Rolle. Zu diesen Aufgaben gehören beispielsweise • die Auswahl des erforderlichen Betriebssystemumfangs, je nach den Voraussetzungen der geplanten Anwendungen, • die Deaktivierung von nicht benötigten Netzdiensten aus Sicherheitsgründen und weitere Sicherheitsmaßnahmen wie Zugangsbeschränkungen und Security-Patches, • die Überwachung der Verfügbarkeit und der Funktion auf Applikationsebene, • die Messung der Systemauslastung unter Berücksichtigung der Erfordernisse der Applikationen zum Tuning und zur proaktiven Ressourcenplanung, • die Erstellung von Operateuranleitungen zur Problembehebung, Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) 28 die Unterstützung und Beratung der mit der Applikation betrauten Mitarbeiter, um eine optimale Nutzung des Systems zu erreichen sowie • die Fehlersuche an der Schnittstelle zwischen Applikation und Betriebssystem. Da diese Systemadministration sowohl mit dem eigentlichen Rechnerbetrieb (Installation und Deinstallation, Installation eines Basis-Betriebssystems, Firmware, Anbindung ans Rechnernetz, hardware- und netznahe Funktionsüberwachung) als auch mit der Applikationsadministration eng verwoben ist, können diese Aufgaben im einen oder im anderen Bereich angesiedelt sein, und es ist in jedem Fall eine enge Zusammenarbeit erforderlich. Die Ansiedlung beim Rechnerbetrieb bietet sich an, wenn die Applikationen von den Endbenutzern oder von den Kunden des LRZ eingebracht werden (Mitarbeiter-Arbeitsplätze, Hosting/Housing, High-Performance-Computing), wenn eine hohe Anzahl gleichartiger Systeme vorliegt oder wenn die Applikationsadministratoren dem Betrieb organisatorisch benachbart sind. Bei den Netzdiensten mit ihrem eher individuellen Applikationsprofil hat es sich bewährt, die Systemadministration organisatorisch im Umfeld der Applikationen anzusiedeln. • 1.6.1 Serveradministration in BDS Der Abteilung BDS oblag Ende 2010 die Administration folgender Serversysteme: • 38 (Vorjahr 21) virtuelle Maschinen mit Linux-Betriebssystem • 33 (unverändert) physische Maschinen mit Linux-Betriebssystem • 15 (Vorjahr 20) physische Maschinen mit Solaris-Betriebssystem • 211 (Vorjahr 160) Serversysteme für die IT-Infrastruktur des Bibliotheksverbundes Bayern (Details siehe Kapitel 1.10; diese Systeme werden in diesem Abschnitt nicht mehr betrachtet) Diese Maschinen wirken im Umfeld der Webservices (Webserver, Content-Management, verschiedene Backendserver), der Datenbanken, der Lizenzverwaltung und weiterer Netzdienste (FTP, Groupware). Sie beherbergen auch einige Dienste der Rechnerüberwachung und -steuerung (OVO, Konsolserver, Administratorengateways) sowie des Netzmanagements und der Netzüberwachung. Bei den virtuellen Systemen liegt der Rechnerbetrieb bei der Betreibergruppe der VMWare-Systeme in der Abteilung HLS; bei den physischen Systemen werden die Maschinen von den Systemadministratoren auch betrieben. Im Jahr 2010 ist neben den oben erwähnten Daueraufgaben folgendes durchgeführt worden: • Mehrere Dienste wurden von realer Hardware unter Solaris oder Linux auf virtuelle VMWareMaschinen verlagert oder neu auf virtuellen Maschinen eingerichtet. Das spiegelt sich auch im gewachsenen Anteil virtueller Maschinen wider, wie er aus den Zahlen oben hervorgeht. • Die MySQL-Serverlandschaft wurde stark erweitert und auch neu strukturiert. Hintergrund ist die bedeutende Ausweitung des Angebots der E-Learning-Plattform Moodle für die beiden Universitäten und des Content-Management-Systems Typo3 für die TUM. Allein hier sind acht weitere virtuelle Maschinen hinzugekommen. • Die E-Learning-Plattform Moodle insbesondere für die TUM hat darüber hinaus den Aufbau von sieben weiteren Servermaschinen erfordert. • Das Server- und Dienstmonitoring auf Applikationsebene, insbesondere mittels Nagios, wurde wesentlich ausgebaut und um eine Visualisierung der anfallenden Daten ergänzt. • Außerdem wurden die Anforderungen der Systemadministration in abteilungsübergreifende Arbeitskreise eingebracht (siehe Kapitel 4): • Mit dem Arbeitskreis Informationsmanagement (siehe Abschnitt 4.4) wurden die Vorschläge zur Verbesserung des LRZ-Informationsmanagements weiter konkretisiert. Insbesondere wurde der Dienstebaum, wie er künftig dem Incident-Management zugrundeliegen wird, als Grundlage der Struktur in die interne Dokumentation eingeführt. • Mit dem Arbeitskreis Continuity (siehe Abschnitt 4.3) wurden die Vorgehensweisen bei geplanten und ungeplanten Betriebsunterbrechungen weiter spezifiziert. 1.6.2 Service für das Münchner Wissenschaftsnetz Wie schon in den Vorjahren gibt es Daueraufgaben nicht nur beim Betrieb der obengenannten Server, sondern darüberhinaus als Dienst im gesamten Münchner Wissenschaftsnetz: Jahresbericht 2010 des Leibniz-Rechenzentrums • • • • • 1.7 29 Verteilung von Software im Rahmen des Sun Campus-Vertrages, Beratung der Anwender im MWN in Bezug auf den Sun Campus-Vertrag, Unterstützung der Anwender bei der Nutzung der LRZ Lizenzserver; speziell bei Ansys und Matlab ist der Unterstützungsbedarf sehr hoch, Unterstützung bei Beschaffung, Installation und Konfiguration von Hardware und Software, Unterstützung und Beratung von Systemadministratoren im MWN bei Problemen zu Hardware und Software („bootet nicht mehr“, „Platte defekt, was tun?“, ...) sowie Unterstützung von Systemadministratoren im MWN bei Security-Problemen oder bei Hackervorfällen Desktop-Applikationsservices Die zentralen Themen gruppieren sich nach wie vor um den Aufbau und Betrieb von Infrastrukturdiensten im Münchner Wissenschaftsnetz. Dazu gehört der Betrieb von Windows Servern für interne und externe Kunden, die Anbindung des „Speichers für die Wissenschaft“ an Arbeitsplatzrechner unter Windows und Linux, die Nutzung eines MWN-weiten Active Directories für Arbeitsplatzrechner bei Institutionen in einem delegierten Administrationsmodell, dem Aufbau eines mandantenfähigen Softwareverteilungstools und der Nutzung von Sharepoint 2010 als Kollaborationsplattform. Weitere (Pilot-) Kunden aus LMU und TUM konnten für diese Dienste im Life-Cycle-Management von Arbeitsplatz-PCs gewonnen werden. Insbesondere wird auch die LRZ-eigene PC-Landschaft (Pool, Kursräume, Spezialarbeitsplätze, Mitarbeiter-PCs, Server) nach und nach in die neue Management-Infrastruktur aufgenommen und dort betrieben. Das dient nicht zuletzt der Erfahrungssammlung für das eigene Dienstportfolio. 1.7.1 Sicherheitsdienste für Desktops im MWN 1.7.1.1 Antiviren-Service Auf der Grundlage eines Landesvertrages über die Antiviren-Software der Fa. SOPHOS hat das LRZ eine Service-Infrastruktur zur automatischen Verteilung und Installation von SOPHOS-Virensignaturen für alle Nutzer im Münchner Wissenschaftsnetz eingerichtet, verbunden mit entsprechenden Beratungsleistungen zur Nutzung für Endbenutzer und CID-Betreibern in Bayern. In ersten Quartal 2010 wurde die Infrastruktur von der Version 7.x auf die Version 9.x gehoben. Dadurch können nun auch 64-bit Systeme unterstützt werden. Das LRZ war dabei das erste der bayrischen UniRechenzentren und konnte die gewonnen Erfahrungen weitergeben. Der neue Sophos Server wird als virtuelle Instanz im LRZ-VMware-Cluster betrieben. Die Anzahl der monatlichen Zugriffe verdeutlicht Abbildung 5. Es ist zu berücksichtigen, dass PCClientsysteme oft mehrmals am Tag zugreifen. Als jeweils ein Client werden auch sog. Proxys gezählt, die wiederum eine Weiterverteilung der Daten an ihre PC-Clientsysteme ermöglichen. Die tatsächliche Zahl von Clients wird auf ca. 25.000 geschätzt (weiterführende Serviceinformationen siehe: http://www.lrz.de/services/security/antivirus/). 1.7.1.2 Windows Software Update Service Als weiterer Basisservice für das automatische Update von Windows-Betriebssystemen und Microsoft Applikationen wie Internet Explorer oder Office wird der „Windows Software Update Service“ (WSUS) als MWN-weiter Dienst angeboten. Der Service ist seit Längerem mit guten Erfahrungen innerhalb des LRZ in Gebrauch und kann auch von allen Endkunden im MWN über das LRZ benutzt werden. Der Dienst wurde aktiv von rund 6.500 Rechnern genutzt. Die hohe Akzeptanz des Service im Münchner Wissenschaftsnetz verdeutlicht auch Abbildung 6 (weiterführende Serviceinformationen siehe: http://www.lrz.de/services/security/mwnsus) 30 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) Abbildung 5: Zugriffe auf den Antiviren-Service im November 2010 Abbildung 6: Zugriffe auf den Windows Software Update Service im Jahr 2010 1.7.2 Active Directory im Münchner Wissenschaftsnetz Als weiteren, großen Infrastrukturdienst betreibt das LRZ für das MWN ein mandantenfähiges Active Directory (AD). Der Aufbau des zentralen, MWN-weiten AD wurde im Jahr 2007 im Rahmen der Bereitstellung von Exchange und der Fileservices auf Basis von NetApp mit CIFS notwendig. Dieses AD ist so angelegt, daß einzelne, große Institutionen wie LMU, TUM oder die BAdW voneinander getrennt agieren können. Ziel ist es dabei, Synergien bei der Administration von Desktop-PCs zu erschließen und Verbesserungen im Funktionsumfang für Anwender und Administratoren nutzen zu können. Dieses „Remote Desktop Management“ Serviceangebot ist seit langem am LRZ erprobt. Jede Organisationseinheit erhält eine vordefinierte Unterstruktur (Organisational Unit OU) in diesem Directory, die wiederum in Fakultäten und Lehrstühle weiter untergliedert werden kann. Auf diesen Ebenen können von einem sog. „Teil-Administrator“ des Kunden Computerkonten, Gruppen, Funktionskennungen oder auch Ressourcen für Exchange eingetragen und verwaltet werden. Damit es nicht zu Namenskonflikten kommt, wurde ein verbindliches Namenskonzept für Objekte im Active Directory entwickelt. Zur Erfüllung ihrer Aufgaben wird den Teil-Administratoren ein Set an Werkzeugen über zwei Jahresbericht 2010 des Leibniz-Rechenzentrums 31 Terminalserver auf Basis von Windows Server 2003 und 2008 zur Verfügung gestellt. Die Einrichtung dieser Organisationsstrukturen wurde in 2008 für die TU München umgesetzt und wird stetig in Absprache mit der TU München angepasst. Für die LMU wird die Struktur bei Bedarf angelegt. Die Benutzerkonten und zentralen Gruppen werden über die beiden Metadirectories (SIM, TUM) am LRZ gepflegt. Dabei kommen Softwarelösungen der Firma Novell zum Einsatz. Mit diesem Active Directory können alle Clients ab Windows 2000 verwaltet, Mac OS X und LinuxSysteme integriert werden. Momentan sind aus den drei großen Mandanten TUM, LMU und BAdW rund 1850 Rechner im AD integriert. Es wurden bisher rund 232 (160) Teiladministratoren aus 181 (105) Einrichtungen registriert und in 2010 haben sich an der Infrastruktur rund 13.000 verschiedene Nutzer angemeldet. Dabei wurden Dienste wie das Ablagesystem oder die Groupware Exchange genutzt. In 2010 fand der Upgrade der Domäne auf Windows 2008 R2 statt. Dabei wurde die Anzahl der Domänen Controller auf drei reduziert. Hinzu kamen zwei Read only Domain Controller (RODC) an den Außenstellen in Martinsried und Weihenstephan. Die RODCs gewährleisten auch bei einem Ausfall der Netzanbindung an das LRZ eine Anmeldung an den Clients. 1.7.2.1 Provisionierung der Benutzer in das Active Directory Seit 2009 erfolgt die Provisionierung der Benutzerkonten der TU München aus den Metadirectories in das Active Directory durch den Identity Manager Driver for Scripting von Novell, der Attributsänderungen an vom LRZ selbstentwickelten Powershell Skripten an die AD-Seite übergibt. Dadurch wird eine enorme Flexibilität beim Verarbeiten und der Fehlerbehandlung von Ereignissen erreicht. In 2010 wurden die Skripte angepasst, um weitere Funktionen erweitert, die Anbindung eines weiteren Metadirectories (LRZ-SIM) realisiert und für die Versorgung eines weiteren Active Directories eduroam.mwn.de übertragen. 1.7.2.1.1 LRZ-SIM Auf der Codebasis des IntegraTUM-Treibers wurden eigene Scripte für LRZ-SIM realisiert. Die wichtigste Erweiterung war hierbei, dass nun nicht nur Benutzerobjekte, sondern auch andere Objekte verarbeitet werden können. Dies war notwendig, da die Abbildung der Projekte in der Nutzerverwaltung von LRZ-SIM AD-seitig in Universal-Gruppen erfolgt. Außerdem mussten in vielen Bereichen die Funktionen von IntegraTUM angepasst werden, da die Daten in den beiden verschiedenen Directories einem unterschiedlichen Prozessablauf unterliegen. Bestes Beispiel ist hier das Löschen von Objekten, welches in LRZ-SIM zu einer direkten Löschung führt. Im IntegraTUM-Treiber führt hingegen eine Änderung des Dienststatus zu einer Löschung im AD. 1.7.2.1.2 IntegraTUM Der Treiber wurde überarbeitet und die Funktionalität, dass beliebig verschiedene Objekte im Treiber verwendet werden können, aus dem LRZ-SIM Treiber übernommen. Dies geschah mit der Zielsetzung, im IntegraTUM-Treiber Objekte wie Gruppen oder Funktionsobjekte zu verarbeiten. Damit wurde die Voraussetzung geschaffen, um Exchange-relevante Objekte wie Verteiler und Shared Mailboxen über die in 2011 geplanten Erweiterungen in TUMOnline zu provisionieren. 1.7.2.1.3 Eduroam Für Eduroam konnte der LRZ-SIM Treiber im Wesentlichen übernommen werden, da eduroam hier auch über das LRZ-SIM-Metadir provisioniert wurde. Der Umfang der verarbeiteten Attribute wurde auf das Nötigste beschränkt, wodurch der Code deutlich gekürzt werden konnte. In allen Treibern hat die erweiterte Fehlerbehandlung Einzug gehalten. Dies beinhaltet u.a. die Einführung von Fehlercodes, Vereinheitlichung der Fehlermeldungen und eine Überarbeitung des Loggings. Ein wichtiges neues Feature ist, dass nun der Treiber abgebrochene Ereignisse erkennt und diese dann als Fehler ausgibt. Fehlermeldungen werden in der Windows Ereignisanzeige protokolliert. Eine direkte Benachrichtigung der Verantwortlichen erfolgt per E-Mail. bzw. wird über einen lokalen Agenten an den zentralen SCOM (System Center Operation Manager) weitergeleitet. Mit Hilfe eines Daily-Reports werden alle Ereignisse des Tages mit Statusangabe zusammengefasst und in einem eigenen Logfile gespeichert. 32 1.7.2.2 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) Active Directory Lightweight Directory Services - ADLDS Mit ADLDS bietet Microsoft die Möglichkeit, eine veränderbare Kopie eines Active Directories auf einem eigenständigen Server zu betreiben. Dabei kann nicht nur der Datenbestand selbst verändert werden, sondern auch das Schema beliebig erweitert werden. Änderungen werden aber nicht in das QuellVerzeichnis zurück geschrieben. Diese Technologie wurde für die Telefonanlage am LRZ verwendet. Die VoIP-Telefone am LRZ lesen über einen LDAP-Zugriff aus dem ADLDS passend zur Telefonnummer den Vor- und Nachnamen aus und zeigen diesen im Display der Telefone an. Dabei wurde das Format der Telefonnummern aus dem Quell AD für die Telefonanlage angepasst. Eine zweite ADLDS-Instanz wurde für die Anbindung der Druckabrechnungssoftware Pcounter am ITW der TUM aufgebaut, kam aber dann nicht mehr zum Einsatz. 1.7.2.3 Network Policy Server - NPS In 2010 wurden die Möglichkeiten des NPS von Microsoft näher untersucht. Der NPS bietet die Möglichkeit einer Authentifizierung oder Autorisierung von Geräten oder Nutzern gegenüber einem Netzwerk Server, wie z.B. für IEEE 802.1x. In zwei Bereichen kam die Technik in 2010 unabhängig voneinander zum Einsatz. 1.7.2.3.1 Eduroam Der Dienst Eduroam ermöglicht Studenten und Hochschulmitarbeitern den Zugang zum Internet über WLAN über eine 802.1x Authentifizierung. Dabei werden Benutzerdaten, die auf der Client-Seite eingegeben werden, über das Netzwerk versendet und in einem extra dafür aufgebauten Active Directory eduroam.mwn.de und zwei installierten und konfigurierten NPS-Servern geprüft. Den Dienst nutzen im Jahr 2010 rund 300 verschiedene Nutzer. 1.7.2.3.2 MAC-Adress Authorization im LRZ Pool Um den Zugriff ins Netz im öffentlichen LRZ Pool von unbekannten Geräten zu verhindern, waren bislang MAC-Adressen fest an den jeweiligen Switchen hinterlegt. Mit der Umstellung auf NPS werden nun die MAC-Adressen der Rechner als Benutzerobjekte im Active Directory hinterlegt. Meldet sich ein Gerät an den jeweiligen Switchen, prüfen diese die Berechtigung, am Netz teilzunehmen gegenüber dem Active Directory ab. Die Verwaltung der Berechtigung konnte so ins AD verlagert und die notwendigen Rechte für die Verwaltung der Switches reduziert werden. In den nächsten Monaten sollen weitere Pools umgestellt und der Dienst an Externe weitergegeben werden. 1.7.3 Desktop Management Die PC-Gruppe hat unterschiedliche Modelle für die Bereitstellung von aktuellen WindowsArbeitsplätzen für verschiedene Kundengruppen entwickelt. Die Lösungen reichen dabei vom vollwertigen Mitarbeiterarbeitsplatz über Terminalserverlösungen für Mitarbeiter bis zum virtuellen Desktop für Testzwecke. Für Studenten werden sowohl vollwertige Rechnerpools als auch auf Terminalserverlösungen basierende Pools angeboten. Im Rahmen des MWN-AD wird der Light-Desktop angeboten, bei dem Institutionen Rechner in die Infrastruktur integrieren können und so die Vorteile des zentralen MWN-AD für das Desktopmanagement mitnutzen können, ohne selbst die Infrastruktur zu betreiben. Die Administration der integrierten Instituts-PCs übernehmen dabei wie bisher die lokalen Administratoren. Die verschiedenen Rechnergruppen setzen sich zahlenmäßig Ende 2010 wie in Tabelle 17 gezeigt zusammen. Bei den Kunden für den Remote Desktop Management Service in der ADS/LRZ-Domäne fanden in 2010 einige Umrüstungen statt: • LMU BIO: Aufbau eines Rechnerpools mit Windows 7 • BAdW: laufende Modernisierung der Hard- und Softwareausstattungen • LRZ: o laufende Modernisierung der Hard- und Softwareausstattung an den Clients o Beginn der Windows 7 Verteilung o Umzug der Clients in das MWN-AD o Umstellung von Pool und Kurs auf Windows 7 Auch im Jahr 2010 wurden viele Stunden für Kundenberatung erbracht, um das Angebot des zentralen Speichers und des „Desktop Light“ vorzustellen. Jahresbericht 2010 des Leibniz-Rechenzentrums Light Desktop LRZ 33 Pool und Kurs Fully Managed Desktop 57 (57) 193 (189) BAdW 171 (173) TUM 1272 (582) 37 (37) LMU 153 (117) 35 (27) HMT 60 (60) HFF 8 (8) Summen 1425 (699) 197 (189) 364 (362) Tabelle 17: Clients im MWN-AD 1.7.3.1 System Center Configuration Manager (SCCM) Um das Deployment und Management von Windows Desktops und Serversystemen zu optimieren, wurde der im vergangenen Jahr in Produktion gesetzte System Center Configuration Manager weiter ausgebaut und in die vorhandene Infrastruktur integriert. Der SCCM ist ein Produkt von Microsoft, das zu einer Vielzahl von Management-Produkten der System Center-Familie gehört. Er ermöglicht ein Betriebssystemrollout als Bare-Metal Variante (auf einem leeren System) sowie als in-place Upgrade oder Neuinstallation über ein bereits vorhandenes System. Im letzteren Fall werden dabei auch Einstellungen und Nutzdaten migriert. Desweiteren ist es möglich, Software auf die gemanagten Clients zu installieren, aktualisieren oder deinstallieren. Ein integriertes Reporting gibt Aufschluss über die Erfolgsrate des Rollouts und etwaige aufgetretene Fehler. Zudem wurde im Jahr 2010 das Patchmanagement über den WSUS integriert, so dass alle Clients mit den jeweils aktuellen Patches von Microsoft versorgt werden. Ein weiteres Ziel war es, das Produkt für eine Nutzung durch Teiladministratoren des MWNs freizugeben. Obwohl der SCCM in der aktuellen Version keine Mandantenfähigkeit im eigentlichen Sinn aufweist, konnte hierzu für die Teiladministratoren eine Möglichkeit geschaffen werden, über die SCCM Console ihre jeweiligen Systeme zu managen. Für die Erprobungsphase konnten hierzu einige Lehrstühle gewonnen werden, um mit deren Feedback den Dienst weiter zu verbessern. Insgesamt gibt es nun je nach Gegebenheit und Anforderung mehrere Varianten für Administratoren, ihre Systeme zu managen und installieren: • Erstellung eines Muster-PCs: Hierbei erstellt der Administrator einen Muster-PC, der anschließend als Image „aufgezeichnet“ wird. Dieses Image kann nun in relativ kurzer Zeit auf eine Vielzahl von Rechnern wieder aufgebracht werden. Das Verfahren eignet sich in erster Linie bei Pools und Kursräumen, kann aber auch bei einer Erst-/Grundinstallation von Mitarbeiterrechnern eingesetzt werden. • Bare-Metal Installation mit definiertem Software-Portfolio • Einspielen von Software-Paketen auf eine (Teil-)Menge der administrierten Rechner • Einsehen von Inventarinformationen, Hardwarekonfigurationen Software-Pakete, die sich bereits im Software Repository befinden, können jederzeit benutzt werden entsprechende Lizenzierung durch den Kunden vorausgesetzt. Software, die nicht vorhanden ist (in der Regel Spezialsoftware von Fakultäten), wird für den Kunden paketiert und nach Aufwand in Rechnung gestellt. Das LRZ übernimmt bei gemanagten PCs zudem die Aktualisierung von Standardsoftware, die aus Sicherheitsgründen aktualisiert werden muss (z.B. Mozilla Firefox, Adobe Flash). Um das verfügbare Software Repository stets aktuell zu halten und an die Bedürfnisse der Nutzer auszurichten, wurden im vergangenen Jahr durchgehend Software-Pakete aktualisiert sowie neue Software in das Repository eingepflegt. Insgesamt stehen derzeit 313 reine Software-Pakete bereit (Treiber-Pakete und Betriebssysteme nicht eingerechnet). 34 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) Innerhalb des LRZ und der BAdW hat der SCCM den alten Deployment-Mechanismus über Microsoft Remote Installation Services (RIS) und Windows Deployment Services (WDS) im Jahr 2010 vollständig ersetzt. Dabei werden sowohl die Mitarbeiter-PCs und -Laptops als auch Serversysteme und virtuelle Maschinen über den SCCM installiert und gemanaged. Insgesamt, d.h. MWN-weit, werden vom System Center Configuration Manager 489 Systeme (im Vorjahr 370) verwaltet. Für 2011 ist eine kontinuierliche Verbesserung des Dienstes vorgesehen. So sollen ein höherer Automatisierungsgrad beim Deployment und Management erreicht werden. Ebenso soll die Mandantenfähigkeit weiter verbessert werden und die Bedienung für Administratoren vereinfacht werden. 1.7.4 Server Management Die PC-Gruppe betreut im Rahmen ihrer Tätigkeit auch zahlreiche Serversysteme. Zum einen zur Erbringung der Hintergrunddienste für den Clientbetrieb, wie das MWN-AD, Exchange oder die Softwareverteilung SCCM, zum anderen für andere Abteilungen oder für externe Kunden. Das letzte Jahr stand dabei im Zeichen der zunehmenden Server-Virtualisierung. Neue Server werden nur noch als virtuelle Instanzen in Betrieb genommen und zahlreiche Server auf physischer Hardware wurden virtualisiert. Dabei konnten Neuanschaffungen von Hardware, die aus der Garantie gelaufen war, vermieden und auch Stromkosten eingespart werden. Bislang sind die Erfahrungen mit den virtualisierten Maschinen zufriedenstellend. Nachfolgend werden einige der wichtigsten Veränderungen in 2010 im Bereich des Server Managements angeführt. 1.7.4.1 MS-SQL-Server Cluster Mit der Einführung des LRZ-VMware-Cluster wurde ein MS-SQL-Server Cluster auf Basis der Microsoft Cluster Services aufgebaut. Dabei wurde der Speicher für die Datenbanken über iSCSI angebunden. In den letzten Monaten kam es aufgrund von Netz- und NAS-Wartungen immer wieder zu größeren Unterbrechungen in der Verfügbarkeit des Clusters und der VMware-Management Werkzeuge. Um diese Abhängigkeiten aufzulösen, wurde in 2010 ein neues Cluster aus zwei physischen Maschinen auf Basis von MS-SQL 2008 R2 aufgebaut. Der Storage für die Datenbanken ist nun lokal angebunden. Somit wurde eine weitestgehende Abhängigkeit vom zentralen NAS und vom Netz aufgelöst. Die Datenbanken selbst werden entweder gespiegelt betrieben oder bei Datenbanken, wo dies nicht notwendig ist, werden diese nur auf einem der beiden Server betrieben. Mithilfe von internen Methoden des SQL-Servers werden dann die Datenbanken gesichert, bereinigt und anderen Wartungsschritten unterzogen. In 2011 sollen weitere MS-SQL-Datenbanken von älteren Systemen auf den leistungsfähigeren zentralen MS-SQLDatenbankcluster umgezogen werden. 1.7.4.2 Citrix-Terminalserverfarm In 2010 stand die Erneuerung der auf Windows 2003 basierenden Citrix Farm an. Auf Basis von VMware wurden fünf virtuelle Server mit Windows 2008 x64 und Citrix Xenapp 5.5 aufgebaut. Drei der Server dienen dabei als Applikationsserver, ein Server fungiert als Webserver, der die Clients über https an die Applikationsserver weiterleitet und nun die veröffentlichten Anwendungen auch über ein Webinterface zur Verfügung stellt. Der fünfte Server agiert als Secure Gateway und ermöglicht den Zugriff auf die Citrix-Farm von außerhalb des MWN. Damit ist es den Mitarbeitern möglich, von überall auf ihre Daten bzw. „gepublishten“ Applikationen zuzugreifen und somit die Flexibilität zu erhöhen. 1.7.4.3 Exchange 2010 Im Rahmen der Migration auf 2010 war die PC-Gruppe intensiv in den Neuaufbau und die Migration der Exchange Infrastruktur eingebunden. Wichtigstes Ziel hierbei war das Auflösen von Abhängigkeiten von Hardware und Netz und die Aktualisierung der Betriebssysteme mit Windows 2008 R2. So konnte durch die Virtualisierung sämtlicher Serversysteme eine größere Flexibilität von Systemressourcen (CPU und Memory) und eine erhöhte Datensicherheit durch Snapshots gewonnen werden. Mit der Einführung von Database Availability Groups (DAG) in Exchange 2010 wurde auch das fehleranfälligere Single Copy Cluster von Exchange 2007 abgelöst. Jahresbericht 2010 des Leibniz-Rechenzentrums 1.7.4.4 35 iET ITSM Das LRZ ist derzeit dabei, ein IT-Servicemanagement nach ISO/IEC20000 aufzubauen. Hier wurde als Tool-Unterstützung das Produkt „iET ITSM“ von iETSolutions ausgewählt. Neben der Betreuung der Systeme ist die PC-Gruppe zudem im LRZ Entwicklungsteam vertreten und kümmert sich um die Integration und Anpassung des Tools. Um einen langfristigen und stabilen Betrieb zu gewährleisten, wurde zu Beginn des Jahres ein Betriebskonzept entwickelt und der Aufbau der Serversysteme durchgeführt. Für in-House-Entwicklungen und Anpassungen am Tool wurden hierzu zunächst Entwicklersysteme installiert. Später folgten jeweils ein Test-, Schulungs- und Produktionssystem. Alle Systeme können über eigens konzipierte Updatemechanismen auf den neuesten Stand gebracht werden. Damit im Tool immer aktuelle Kunden- und KontaktDaten vorliegen, wurde hierfür eine Schnittstelle zu LRZ-SIM (Secure Identity Management) als Ort der Wahrheit für Kundendaten programmiert. Des Weiteren wurde die Nutzer-Authentifizierung im Tool an LRZ-SIM gebunden. Somit können sich die Mitarbeiter (via Client) und Kunden (via Webportal) mit ihren persönlichen Kennungsdaten anmelden. Der Fokus von Anpassungen im Tool wurde im Jahr 2010 auf das Incident Management gelegt. Hierfür wurden die Formulare angepasst, Abfragen geändert und weitere Anforderungen gemäß der LRZProzessdefinition umgesetzt. Als Pilotgruppe testete die Linux-Cluster-Gruppe (und später zusätzlich noch die HLRB-Gruppe) das Incident Management, das im Jahr 2011 das bisherige Ticketsystem ablösen soll. Parallel dazu wurde in einer Arbeitsgruppe, die sich aus allen Abteilungen zusammensetzte, ein CMDBKonzept sowie deren Integration in iET ITSM entwickelt. Das Konzept wurde dazu in mehreren Proof-ofconcepts auf Tauglichkeit und Erweiterbarkeit getestet und wird im Jahr 2011 umgesetzt. 1.7.4.5 VMware Infrastruktur Die PC-Gruppe ist auch am Betrieb der virtuellen Infrastruktur des LRZ beteiligt. Zum Einen erfolgt das Deployment von virtuellen Windows-Maschinen (Servern und Clients) ausschließlich durch die PCGruppe. Hierfür wird wie oben bereits beschrieben SCCM eingesetzt. Zum Anderen obliegt der Gruppe die Administration des zentralen vCenter-Servers, der für das Management der ESX-Hosts zuständig ist. Hier wurde im vergangenen Jahr ein Upgrade auf vSphere Version 4.1 vorgenommen sowie die dahinter liegenden Verwaltungsdatenbanken auf das neue SQL-Cluster verschoben. Seit vergangenem Jahr wurden die Kompetenzen weiter ausgebaut, so dass es nun einen Ansprechpartner in dieser Gruppe für die gesamte VMware-Administration gibt. Dies dient auf der einen Seite der Entlastung der Gruppe COS, die diese Aufgabe bisher alleine bewältigt hat, und sorgt andererseits für größere Redundanz bei etwaigen Störungen. Um die Kompetenzen nachhaltig auszubauen, nahmen zwei Mitglieder an einer Schulung für vSphere 4.1 teil, die die Basis für die Zertifizierungsprüfung zum VMware Certified Professional (VCP) bildet. Die Zertifizierungsprüfung ist für das Jahr 2011 geplant. 1.7.5 Microsoft Office Sharepoint Services (MOSS) In 2009 wurde mit dem Aufbau einer Kollaborationslösung auf Basis von MOSS 2007/2010 begonnen und in 2010 fortgesetzt. Ziel ist zum einen die Ergänzung der Groupwarelösung von Exchange 2007/2010, da hier die public Folder entfallen sind und diese durch MOSS ersetzt wurden. Zum anderen bietet MOSS die Möglichkeit, für Gruppen die Zusammenarbeit zu verbessern, um z.B. gemeinsam an Dokumenten zu arbeiten oder die Zusammenarbeit besser über Gruppenkalender, Besprechungsbereiche, Benachrichtigungen, Wikis oder gemeinsame Aufgaben zu organisieren. Es gibt auch die Möglichkeit, komplexere Prozesse in Workflows abzubilden, die häufig in Verwaltungen zum Einsatz kommen. Der Zugriff auf die Ressourcen erfolgt webbasiert. Auf der bereits in 2009 aufgebauten MOSS-2007-Farm wurden weitere Sites angelegt, um weitere Erfahrungen in der Zusammenarbeit zu gewinnen. Zu Beginn des dritten Quartals 2010 wurde die neue Version von MOSS 2010 veröffentlicht. Nach den bereits erfolgversprechenden Tests mit den Vorversionen des Produktes mit verbesserten Verwaltungs- und Bedienoberflächen wurde im Sommer rasch eine neue Farm auf Basis von MOSS 2010 aufgebaut. Es handelt sich dabei um einen Datenbankserver mit MSSQL 2008 und einem dedizierten Server für die MOSS-Installation. Die Sites sind von außerhalb über ein Forefront Threat Management Gateway (TMG) zugänglich. 36 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) Da der Dienst auch kostenpflichtig für Externe angeboten wird, wurde großes Augenmerk auf die Abtrennung einzelner Mandanten (TUM, LMU, BAdW, LRZ-SIM) gelegt. Dies wird über eine Auftrennung der Mandanten im AD und verschiedene Proxy Accounts abgebildet. Aus dem Alltagsbetrieb ergab sich eine Auftrennung der einzelnen Sites in eigene Datenbanken, Ressource Pools und IIS-Websites mit individuellen Ports. Das erhöht die Modularität und es können so einzelne Sites unabhängig voneinander gesichert und wieder hergestellt werden. In enger Zusammenarbeit mit den Site-Nutzern fanden verschiedene Anpassungen von Sites statt. Der Nutzerkreis umfasste zum Ende des Jahres 2010 neben mehreren Sites für die Gruppenkoordination, Ausbildung und Hotline auch Sites für die Koordination zweier bayernweiter Arbeitskreise und auch zur Koordination mit externen Dienstleistern des LRZ für den neuen Höchstleistungsrechner. Zwei zahlende externe Kunden konnten auch gewonnen werden. Eine besondere Herausforderung stellte dabei eine komplexe Migration einer MOSS 2007 Site von einem externen Altsystem in die LRZ-Installation dar. 1.7.6 Tätigkeiten im Rahmen der Berufsausbildung Der PC-Gruppe waren in 2010 zunächst vier und dann, ab September, drei Auszubildende der Fachrichtung Fachinformatiker Systemintegration (FISI) zugeordnet. Die Auszubildenden sollen dabei den Alltag eines Systemadministrators kennenlernen und auch projektorientiert arbeiten. Zwei Auszubildende konnten im Frühjahr/Sommer 2010 erfolgreich ihre Abschlussprüfung ablegen. Ein Auszubildender wurde vom LRZ übernommen. Die Themen der Abschlussarbeiten ergaben sich aus dem aktuellen Arbeitsumfeld und umfassten zum einen den Aufbau eines NPS Servers und zum anderen die Umstellung der Kursräume auf Windows 7 mit den entsprechenden Anpassungen im MWN-AD und dem SCCM. Seit Anfang Oktober werden die Auszubildenden auch in der Hotline/Beratung eingesetzt. Voran ging eine intensive Schulung der Auszubildenden zu den wichtigsten Diensten am LRZ sowie eine allgemeine Schulung im Umgang mit Kunden am Telefon. Im Rahmen eines zweiwöchigen Austausches im Herbst 2010 mit dem Wissenschaftszentrum Weihenstephan (WZW) vermittelten die Auszubildenden am LRZ den Gästen vom WZW die vorher selbst über den Sommer erworbenen Kenntnisse zu Installation und Betrieb eines Active Directory. Weitere, wichtige Aufgaben der Auszubildenden in 2010 waren: • Migration der LRZ-Rechner in die neue Domäne ads.mwn.de • Softwarepaketierung • Erarbeiten von Dokumentation für den allgemeinen Betrieb • Mitarbeit im Life-Cycle Management der Rechner am LRZ • vierwöchiges Praktikum in der LRZ-Netzwartung 1.8 Server- und Benutzerzertifizierung nach X.509 Das LRZ ist mit mehreren Zertifizierungs- und Registrierungsstellen (CAs und RAs) in die Zertifizierungshierarchie „Global“ der Public-Key-Infrastruktur des Deutschen Forschungsnetzes (DFN-PCA) eingebunden, deren Wurzelzertifikat von einer kommerziellen CA (T-TeleSec Trust Center der Deutschen Telekom AG) beglaubigt wird. Damit gibt es dann keine Notwendigkeit für die Endbenutzer, das Wurzelzertifikat explizit durch Import als vertrauenswürdig zu kennzeichnen, wenn das schon vom Hersteller der Software erledigt wurde. Das LRZ betreibt im Rahmen dieser Hierarchie eine Zertifizierungsstelle (CA) und Registrierungsstelle (RA) sowie für die beiden Münchner Universitäten jeweils eine Registrierungsstelle. Insgesamt gibt es am LRZ vier Registrierungsstellen, die derzeit neue Zertifikate ausstellen: • eine RA für die Bayerische Akademie der Wissenschaften einschließlich des LRZ selbst sowie für solche Einrichtungen im Münchner Wissenschaftsnetz, die keine eigene CA betreiben (102 neue Zertifikate im Jahr 2010) • eine Server-RA für die TU München (72 neue Zertifikate im Jahr 2010) • eine Server-RA für die LMU München (103 neue Zertifikate im Jahr 2010) • eine Server- und Nutzer-RA für das Grid-Computing im Münchner Wissenschaftsnetz und an der Universität der Bundeswehr München (zusammen 128 neue Zertifikate im Jahr 2010) Jahresbericht 2010 des Leibniz-Rechenzentrums 37 Die drei erstgenannten gehören dabei jeweils zu einer CA bei der jeweiligen Einrichtung; die Grid-RA gehört zu einer CA, die von der DFN-PCA betrieben wird. 1.9 Bearbeitung von Missbrauchsfällen Das LRZ ist bei der DENIC eG (d.h. bei der Registrierungsstelle für Domains unterhalb der Top-LevelDomain „DE“) als Ansprechpartner für Domains des Münchner Wissenschaftsnetzes (MWN) eingetragen (u.a. für uni-muenchen.de, lmu.de, tu-muenchen.de und tum.de). Ähnliches gilt für die IP-Netze, die dem LRZ zugeteilt wurden. Damit ist das LRZ Anlaufstelle für sehr viele Anfragen und Beschwerden, die diese Domains bzw. IP-Adressen betreffen. 1.9.1 Statistik der Missbrauchsfälle Im Jahr 2010 nahm die Zahl der entdeckten Missbrauchsfälle gegenüber dem Vorjahr wieder zu (siehe Abbildung 7). Zum Einen kommen wegen der weitgehenden Kriminalisierung der Szene (d.h. der „VirenBastler“, Spammer und Hacker) nahezu ausschließlich „qualitativ hochwertige“ Schädlinge und AngriffsTools (Malware) zum Einsatz. Zum Anderen ist das Sicherheitsbewußtsein bzw. -verhalten zu vieler MWN-Benutzer nach wie vor unzureichend. Diesem setzt das LRZ diverse sicherheitsrelevante Dienste entgegen (siehe Abschnitt 1.7.1). 3000 Gemeldete Fälle 1860 Vom LRZ selbst entdeckte Fälle 2500 1362 2000 1319 1500 1085 500 0 792 377 1000 44 53 85 243 930 64 309 324 944 572 239 292 258 916 393 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 Abbildung 7: Missbrauchsfälle im MWN Die insgesamt 2.776 Abuse-Fälle des Jahres 2010 betrafen 3.124 MWN-Rechner. In diesem Rahmen erhielt das LRZ 1.227 Hinweise, Beschwerden, Anfragen usw. von außerhalb. Zum Glück verletzten nur bei ganz wenigen Sicherheitsvorfällen MWN-Benutzer absichtlich die Nutzungsregeln; der überwiegende Teil der Fälle betraf Rechner, • die von Würmern, trojanischen Pferden, Botnet-Drohnen usw. befallen wurden; die eingedrungenen Schädlinge versuchten dann ihrerseits, sich weiter zu verbreiten, oder der Rechner wurde zu einem Teilnehmer an einem Botnet und verursachte danach Schäden (z.B. durch Versenden von Spam-Mails). • die über aktuelle Sicherheitslücken angegriffen, kompromittiert und dann für weitere Angriffe missbraucht wurden. 38 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) Art der Vorgänge Fälle mit rechtlichen Aspekten: Verletzungen des Urheberrechts Sonstige Fälle Teilsumme Sonstige kompromittierte Rechner: DFN-CERT: Automatische Warnungen Port-/Vulnerability-Scans Sonstige Beschwerden (u.a. DoS) DFN-CERT: Sonstige gemeldete Fälle Teilsumme Organisatorische Vorgänge: Aktualisierung der Monitoring-Ausnahmelisten Sonstige Fälle Teilsumme Fälle im Bereich „E-Mail“: Sonstige Mail-Fälle Spam-Versand über kompromittierte Rechner Unberechtigte Spam-Beschwerden Hinweise auf / Fragen zu Phishing-Aktionen Teilsumme Sonstige Fälle Summe der gemeldeten Fälle Involvierte Eingegangene Anzahl Rechner /Benutzer Beschwerden, der Fälle des MWN Anfragen usw. 649 2 651 677 2 679 686 2 688 173 5 4 3 185 471 5 5 3 484 173 8 6 3 190 26 9 35 30 7 37 3 8 11 11 8 7 4 30 15 916 3 8 ‒ – 11 9 1.220 23 22 7 15 67 15 971 Tabelle 18: Missbrauchsfälle, die dem LRZ gemeldet wurden, oder organisatorische Vorgänge Ca. 30% der bearbeiteten Fälle gehen auf Beschwerden, Hinweise, Anfragen usw. zurück, die dem LRZ von außerhalb geschickt wurden, oder auf organisatorische Vorgänge (siehe Tabelle 18). Bei diesen Fällen sind folgende Punkte besonders erwähnenswert: • Bei ca. 70% dieser gemeldeten Fälle handelt es sich um Verletzungen des Urheberrechts. Diese Beschwerden haben seit 2008 drastisch zugenommen (siehe Abbildung 8). Dabei werden Beschwerde-Mails von Organisationen verschickt, die im Auftrag von amerikanischen oder europäischen Rechte-Inhabern die wichtigsten File-Sharing-Netze kontinuierlich nach Verletzungen des Urheberrechts durchsuchen. Selbst wenn diese Fälle bis jetzt noch keine juristischen Konsequenzen haben, sind es keine Kavaliersdelikte; auch nach deutschem Recht ist es verboten, urheberrechtlich geschütztes Material (überwiegend Filme und MP3s und teilweise auch Software) in File-Sharing-Netzen anzubieten. Unabhängig davon verstößt es auch gegen die Nutzungsordnung des LRZ bzw. MWN. • Das DFN-CERT beobachtet und analysiert eine Reihe von Quellen, um Probleme zu entdecken, die sich auf Systeme der DFN-Anwender beziehen. Darüber hinaus werden eigene Sensoren betrieben, um die Informationsbasis weiter auszudehnen. Das DFN-CERT sammelt, korreliert und normiert diese Daten und stellt jedem DFN-Anwender den Zugriff auf diejenigen Daten zur Verfügung, die die eigene Einrichtung betreffen. Das LRZ nutzt seit März 2009 diesen Dienst „Automatische Warnungen“ und erhält in diesem Rahmen entsprechende Hinweis-Mails. Da an das MWN mehr als 80.000 Endsysteme angeschlossen sind, trifft beim LRZ an vielen Werktagen eine Warnung ein, die meist mehrere auffällig gewordene IP-Adressen enthält. Jahresbericht 2010 des Leibniz-Rechenzentrums 39 800 Fälle 700 Beschwerden 686 617 600 649 570 500 400 267 300 239 200 100 0 9 21 37 20 28 9 10 2003 2004 2005 2006 9 44 54 2007 2008 2009 2010 Abbildung 8: Fälle wegen Verletzung des Urheberrechts • • • • Bei den Monitoring-Verfahren (siehe unten) gibt es zwangsläufig jeweils eine Ausnahmeliste mit Rechnern, bei denen das auffällige Verhalten legitim ist. Die Aktualisierung dieser Listen betraf überwiegend das „Mail-Monitoring“, weil es relativ viele legitime Ursachen für ein erhöhtes Mail-Aufkommen gibt: o Inbetriebnahme eines neuen Mail-Servers/-Gateways oder Servers für Mail-Verteiler o Regelmäßiges Verschicken von Rundbriefen mit vielen Empfängern o Verschicken von Benachrichtigungen durch ein System, das die korrekte Funktion / Verfügbarkeit von Diensten oder Rechnern überwacht Das LRZ geht i.a. aktiv auf die Betreiber von Rechnern zu, bei denen das Mail-Aufkommen vermutlich legitim ist (z.B. wenn im DNS-Namen die Zeichenfolge „mail“ vorkommt). Dies ist auch der Grund dafür, dass die Fälle dieser Gruppe nur selten von LRZ-Kunden initiiert werden. Früher kam es häufiger vor, dass ein Rechner mehrere Monate oder evtl. sogar Jahre am InternetÜbergang gesperrt blieb, weil sich niemand gemeldet hat. In diesen Fällen wurde dann das Entsperren in einem gesonderten Fall bearbeitet. 2010 gab es nur noch drei derartige Fälle (Teil der „sonstigen organisatorischen Fälle“), weil diese Sperren inzwischen nach 90 Tagen automatisch aufgehoben werden. Das LRZ hat die Erfahrung gemacht, dass nach 3 Monaten die Rechner meistens gesäubert oder neu installiert wurden. Traf dies nicht zu, wurden die Rechner erneut gesperrt. Bei den unberechtigten Spam-Beschwerden treten im wesentlichen zwei Fälle auf: o Wenn ein Mail-System (z.B. die Mail-Server des LRZ) eine einmal angenommene EMail nicht zustellen kann, muss es laut Norm den Absender in einem Non-DeliveryReport (NDR) darüber informieren. Hat ein Spammer die eigene Mail-Adresse als Absender von Spam-Mails missbraucht, erhält man manchmal NDRs zu diesen Spam-Mails, die man gar nicht selbst verschickt hat; in diesem Fall ist man ein indirektes Opfer des Spammers. Manche Empfänger fühlen sich durch diese nicht selbst ausgelösten NDRs derart belästigt, dass sie sich beim Betreiber des korrekt arbeitenden Mail-Systems beschweren. o Manchmal erhält das LRZ Beschwerden über E-Mails, die nach Ansicht des LRZ einen legitimen bzw. seriösen Inhalt haben. In diesen Fällen handelte es sich meist um Rundbriefe einer Organisation des MWN oder um Beiträge eines seriösen Newsletters. Manche Nutzer tragen sich selbst bei einem Newsletter ein, vergessen dies dann aber nach einiger Zeit und fühlen sich dann von Beiträgen des betreffenden Newsletters belästigt. Auch 2010 wurden mehrere Phishing-Angriffe auf Mail-Accounts von MWN-Teilnehmern durchgeführt. Meist melden sich dann freundlicherweise MWN-Teilnehmer, um das LRZ auf 40 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) diese Angriffe aufmerksam zu machen. Leider hat sich immer noch nicht überall herumgesprochen, dass man nach einer Aufforderung per E-Mail niemals Account-Daten herausgeben darf. Entsprechende Schutzeinrichtungen bei den Mail-Systemen des LRZ verhindern aber, dass gestohlene Mail-Accounts in großem Umfang zum Versenden von Spam-Mails missbraucht werden können. Zu den von außerhalb gemeldeten Fällen kamen weitere, auf die das LRZ im Rahmen der Netzüberwachung selbst aufmerksam wurde (siehe Tabelle 19). Die Monitoring-Verfahren am Internet-Übergang (d.h. am Übergang vom MWN zum X-WiN) sind trotz ihrer Einfachheit erstaunlich wirksam; folgende Indikatoren eignen sich erfahrungsgemäß sehr gut, um (sehr wahrscheinlich) kompromittierte Rechner zu entdecken: • Bei der ersten Gruppe ist der Indikator derart treffsicher, dass das LRZ riskiert, die auffällig gewordenen Rechner automatisch am Internet-Übergang zu sperren; die zuständigen Netzverantwortlichen werden selbstverständlich ebenso automatisch sofort davon verständigt. o Der Rechner ist mit einem der folgenden Schädlinge infiziert: Trojaner „Bredolab“ Wurm „Conficker“ Trojaner „Gozi“ Botnet-Drohne „Mariposa“ Botnet-Drohne „Torpig“ Virus „Sality“ o „SSH-Angriff“ durch einen MWN-Rechner. In diesen Fällen öffnet der MWN-Rechner innerhalb kurzer Zeit viele SSH-Verbindungen zu anderen Rechnern im Internet. Ein kompromittierter MWN-Rechner sucht dabei nach Rechnern mit einem aktiven SSH-Server, d.h. es handelt sich um einen SSH-Scan. versucht sich per SSH bei einem anderen Rechner anzumelden. Dabei werden Kennungen ausprobiert, die bei vielen Systemen vorhanden sind (wie z.B. „root“, „admin“ oder „guest“). Als Passwort testet man eine Liste von Wörtern, die sehr oft als Passwort verwendet werden; es handelt sich also um einen Angriff auf „schlechte“ Passwörter. Es ist erschreckend, wie häufig man auf diese einfache Art in einen Rechner einbrechen kann. o Auf dem Rechner läuft ein FTP-Server, der auf einem Nicht-Standard-Port arbeitet (d.h. nicht auf dem allgemein üblichen Port 21). • Bei den restlichen Indikatoren werden Benachrichtigungs-Mails vorformuliert; ein Mitglied des Abuse-Response-Teams entscheidet jedoch jeweils, ob die E-Mail auch abgeschickt und der Rechner evtl. zusätzlich gesperrt werden soll. o Der MWN-Rechner öffnet innerhalb kurzer Zeit viele Mail-Verbindungen zu anderen Rechnern im Internet. Diese MWN-Rechner sind fast immer kompromittiert, wobei der Rechner zum Versenden von Spam- oder Phishing-Mails missbraucht wird. Dieses Monitoring-Verfahren wird kurz als „Mail-Monitoring“ bezeichnet. o Der MWN-Rechner öffnet innerhalb kurzer Zeit extrem viele Verbindungen zu anderen Rechnern im Internet. Durch zusätzliche Indikatoren kann man erkennen, ob es sich wahrscheinlich um einen massiven Port-Scan oder um einen Denial-of-Service-Angriff (DoS) handelt. o Der Rechner fällt durch einen außergewöhnlich hohen Datenverkehr auf. Es handelt sich dabei auch manchmal um Rechner, die für die Verteilung urheberrechtlich geschützter Daten missbraucht wurden. o Ein aktiver SSH-Server eines MWN-Rechners wird extrem oft kontaktiert. In diesen Fällen ist der MWN-Rechner (noch) nicht kompromittiert, sondern das Opfer eines Angriffs auf „schlechte“ Passwörter (siehe oben). Das Abuse-Response-Team weist den Ansprechpartner des MWN-Rechners auf den erfolgten Angriff hin und gibt ihm den Rat, in den Log-Meldungen des SSH-Servers nach erfolgreichen Anmeldevorgängen zu suchen; es könnte sich dabei um einen Einbruch handeln. Nur im Falle eines „SSH-Angriffs“ durch einen MWN-Rechner erfolgt die automatische Sperre sofort bei der ersten Auffälligkeit. Bei den übrigen Monitoring-Verfahren mit einer automatisierten Reaktion wird eine dreistufige Eskalation durchgeführt: Jahresbericht 2010 des Leibniz-Rechenzentrums 41 1. Der Rechner fällt zum ersten Mal auf: Eine Informations-Mail wird verschickt. 2. Nach mindestens einem Tag fällt der Rechner erneut auf: Eine Erinnerungs-Mail wird verschickt. 3. Nach mindestens einem weiteren Tag fällt der Rechner noch einmal auf: Der Rechner wird gesperrt und eine entsprechende Benachrichtigung verschickt. Zu den aufgeführten Indikatoren gibt es natürlich jeweils eine Ausnahmeliste von bekannten „sauberen“ Rechnern, die dadurch vor einer Sperre geschützt werden. Verfahren, durch das die verdächtigen Rechner entdeckt wurden Explizit erkannte Schädlinge: Wurm „Conficker“ Trojaner „Bredolab“ Trojaner „Gozi“ Botnet-Drohne „Mariposa“ Botnet-Drohne „Torpig“ Sonstige Botnet-Drohnen Virus „Sality“ Teilsumme Sonstige Monitoring-Verfahren: NAT-o-MAT (schwere Fälle) Mail-Monitoring „SSH-Angriff“ durch einen MWN-Rechner FTP-Server auf einem Nicht-Standard-Port Port-Scans DoS Extrem hoher Datenverkehr „SSH-Angriff“ auf einen MWN-Rechner Sonstige Angriffe Teilsumme False Positives: Sonstige False-Positives Mail-Monitoring Teilsumme Summe der vom LRZ selbst endeckten Fälle Anzahl der Fälle Anzahl der Rechner 499 249 174 128 65 8 6 1.129 502 249 174 128 65 8 6 1.132 427 125 68 38 25 9 9 7 4 712 427 161 68 38 25 9 9 7 9 753 15 4 19 1.860 15 4 19 1.904 Tabelle 19: Kompromittierte Rechner, die vom LRZ selbst entdeckt wurden Neben den Monitoring-Verfahren am Internet-Übergang verbessert auch noch der sogenannte „NAT-oMAT“ (siehe Kapitel 3.4.1) durch automatisierte Mechanismen die Sicherheit des MWN. Es handelt sich dabei primär um ein transparentes NAT-Gateway, das bei den Rechnern mit privater IP-Adresse nicht konfiguriert werden muss. Zusätzlich zur Adressumsetzung sorgt ein „AutoMAT“ für eine Bandbreitenregelung und verhindert weitgehend Angriffe auf andere Rechner durch Port-Scans, DoS und SpamVersendung: Der NAT-o-MAT blockt automatisch kompromittierte Rechner, die den Betrieb beeinträchtigen, und veranlasst den Besitzer eines derartigen Rechners durch geeignete Hinweise, seinen PC zu säubern. In schweren Fällen schickt der NAT-o-MAT außerdem noch eine Hinweis-Mail an die zuständigen Netzverantwortlichen. In der Statistik werden nur diese Fälle gezählt. In den folgenden Fällen sperrt der NAT-o-MAT einen Rechner nach einer Vorwarung dauerhaft; das Aufheben der Sperre muss danach durch ein Mitglied des Abuse-Response-Teams erfolgen. • Einer der folgenden Schädlinge wird erkannt: Bredolab, Conficker, Gozi, Torpig, Sality 42 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) • SSH-Angriff • FTP-Server auf einem Nicht-Standard-Port Seit 2006 wirkt sich der NAT-o-MAT nicht mehr nur auf Rechner mit privaten IP-Adressen aus, die Dienste im Internet in Anspruch nehmen wollen. Durch ein geeignetes Policy-based-Routing werden auch sämtliche VPN- und Einwahlverbindungen (Modem, ISDN und M-net) zwangsweise durch den NAT-o-MAT geleitet. Dementsprechend nahmen auch die vom NAT-o-MAT erkannten Missbrauchsfälle drastisch zu. Bei den selbst entdeckten Fällen (siehe oben, Tabelle 19) sind folgende Punkte besonders erwähnenswert: • Der Wurm „Conficker“ tauchte im Oktober 2008 auf und treibt seit dieser Zeit auch im MWN sein Unwesen. Zu Beginn verbreitete sich Conficker ausschließlich über eine kritische Schwachstelle, durch die er selbständig von außen in einen Windows-Rechner eindringen konnte. Microsoft stellte schon Ende Oktober 2008 einen Security-Patch zum Schließen dieser Lücke bereit. Spätere Versionen von Conficker können sich zusätzlich noch über Netz-Laufwerke und Wechseldatenträger (wie z.B. USB-Sticks) verbreiten. Auch nach mehreren Monaten nahm im MWN die Zahl der Neuinfektionen nicht ab. Deshalb wurde 2009 ein spezialisiertes Intrusion-Detection-System (IDS) in Betrieb genommen, mit dem man infizierte Rechner finden kann. Das IDS wurde später erweitert, um auch noch andere Schädlinge erkennen zu können. Trotz dieser Maßnahmen war Conficker im MWN auch 2010 immer noch sehr aktiv. • Auch 2010 waren die Spammer wieder sehr aktiv und haben viele kompromittierte Rechner im MWN dazu missbraucht, Spam-Mails zu verschicken (siehe das Mail-Monitoring). Dabei ist es keine Seltenheit, wenn ein Rechner mehr als 20.000 Spam-Mails pro Stunde verschickt. • Leider kann man bei den Monitoring-Verfahren, die beim LRZ eingesetzt werden, False-Positives nicht ganz vermeiden. Im Falle des Mail-Monitoring handelte es sich z.B. um lange Zeit vollkommen unauffällige Rechner, die plötzlich ein ungewöhnliches Mail-Aufkommen zeigten. In diesen Fällen gab es auch keine Hinweise für eine legitime Mail-Quelle: Die Rechner hatten weder einen aussagekräftigen DNS-Namen noch konnte auf dem Mail-Port ein Mail-Server kontaktiert werden. Zum Glück war in den meisten dieser Fälle das verdächtige Mail-Aufkommen der betroffenen Rechner nicht besonders hoch; die zuständigen Netzverantwortlichen wurden deshalb überwiegend nur informiert und die Rechner nicht sofort gesperrt. Es handelte sich meist um erst kürzlich in Betrieb genommene Mail-Server oder -Gateways oder um Rechner, von denen nur relativ selten (oder auch nur einmalig) Rundbriefe, Einladungen usw. an sehr viele Empfänger verschickt wurden. 1.10 IT Bibliotheksverbund Bayern Seit Mai 2008 ist das Rechenzentrum der Verbundzentrale des Bibliotheksverbundes Bayern (BVB) in das LRZ integriert. Es handelt sich mittlerweile um insgesamt 211 Betriebssysteminstanzen (Solaris, Linux, Windows), die teils auf physischen Maschinen, teils auf virtuellen realisiert sind. Ende 2009 wurden 143 Betriebssysteminstanzen gezählt, damit sind also in 2010 68 Betriebssysteminstanzen dazugekommen. Die physischen Maschinen und die Wirtssysteme für die virtuellen Solaris-Systeme werden dabei vom BVB-IT-Team betrieben, während die virtuellen Linux- und Windows-Systeme auf der VMWare-Farm des LRZ (siehe Abschnitt 2.7.1.1) laufen. Die Betreuung der Anwendungen geschieht nicht durch das LRZ, sondern durch die Verbundzentrale des BVB in der Bayerischen Staatsbibliothek. Zum einen dienen die Systeme als „Lokalsysteme“ der angeschlossenen Bibliotheken (alle Fachhochschulbibliotheken, sechs Universitätsbibliotheken, viele weitere staatliche Bibliotheken) und verwalten die Datenbanken mit den Katalogen, die Such- und Bestellmöglichkeiten (OPAC) für die Bibliotheksnutzer, die Verwaltung der Ausleihe und zahlreiche weitere Dienste. Zum anderen wird eine Verbunddatenbank von über 1 Terabyte Größe betrieben, die mit den lokalen Datenbanken abgeglichen wird, und die zur Suche im gesamten Verbund und für die Fernleihe aus anderen Bibliotheken gebraucht wird. Die eingesetzte Software ist hauptsächlich SISIS als Bibliothekssystem und Sybase als Datenbank auf den Lokalsystemen sowie Aleph als Bibliothekssystem und Oracle als Datenbank auf den Verbundsystemen. Als Suchmaschine wird Fast eingesetzt. Viele weitere Softwareprodukte für die zentrale Fernleihe, für kontextsensitive Verlinkung, für Web-Oberflächen, zur Digitalisierung, zur Langzeitarchivierung und für andere Aufgaben werden daneben eingesetzt. Jahresbericht 2010 des Leibniz-Rechenzentrums 43 Die Verbundsysteme und die Lokalsysteme dienen hauptsächlich den Bibliotheken des Bibliotheksverbundes Bayern (BVB) und des Kooperativen Bibliotheksverbundes Berlin-Brandenburg (KOBV), mit dem eine enge Zusammenarbeit besteht. Nur einzelne Bibliotheken außerhalb dieses Bereiches werden mitversorgt. 1.10.1 Umsetzung Großgeräte-Antrag 1.10.1.1 Lokalsystemcluster Die Ablösung der bis zu acht Jahre alten Rechner der lokalen Bibliothekssysteme war dringend notwendig. Drei der mit Mitteln eines Großgeräte-Antrags beschafften Rechner vom Typ Sun M5000 wurden zu einem hochverfügbaren Cluster zusammengeschlossen. Auf diesem Cluster wurden virtuelle Solaris Betriebssysteminstanzen (Solaris Container) installiert und hochverfügbar gemacht. Dorthin wurden die einzelnen lokalen Bibliothekssysteme migriert. Momentan werden auf diesem Lokalsystemcluster 66 solcher Solaris Container betrieben. Die flexible Verteilung der Dienste auf die Container ermöglichte auch eine Umstellung des Betriebskonzeptes für den Hosting Betrieb der lokalen Bibliothekssysteme. So wurde eine Trennung von Datenbank und Weboberfläche erreicht. Dadurch konnte die Netzsicherheit erhöht werden und erreicht werden, daß die einzelnen Bibliotheken ihre OPAC-Weboberflächen anpassen und mit eigenen Zertifikaten für den verschlüsselten Zugang (https) ausstatten konnten. Außerdem wurden Skripte erstellt, die Klone der produktiven lokalen Bibliothekssysteme erzeugen. Dies war vor allem ein Wunsch der Universitätsbibliotheken, die bei umfangreichen Änderungen an den Datenbeständen ein Testsystem benötigen. 1.10.1.2 Verbundsystemcluster Auf Seiten des Verbundsystems ist schon seit 2004 ein System auf Basis von Solaris Cluster und Oracle RAC (Real Application Cluster) im Einsatz. Auch hier stand eine Erneuerung der Hardware mit zweien der Rechner vom Typ Sun M5000 aus Großgeräte-Mitteln an. Zusätzlich mussten Betriebssystem, Clustersoftware, Datenbanksoftware und auch die Anwendungssoftware Aleph500 in neuen Versionen installiert werden. Daher wurde das System von Grund auf neu installiert und der Umstieg auf die neue Hardund Software durch eine Datenmigration realisiert. Durch den Einsatz von Zonenclustern und capped Containers konnte einerseits ein hochperformanter Datenbankcluster aufgebaut werden und andererseits konnte eine Lizenzkostenerweiterung für die Datenbanklizenzen vermieden werden. Das neue System wurde auch gleich in einen Netzbereich mit providerunabhängigen IP-Adressen gelegt und somit die Ausfallwahrscheinlichkeit weiter vermindert. 1.10.1.3 Suchmaschinencluster Verbundsystem Die Ende 2009 beschafften Bladesysteme für den Suchmaschinencluster wurden 2010 in Betrieb genommen. Die Performance wurde durch den Einsatz der neuen Hardware weiter verbessert. Durch die erweiterten Resourcen konnten auch weitere Suchindizes für andere Suchkriterien auf die Verbunddatenbank erzeugt werden. 1.10.1.4 Neuaufbau Citrix Farm Die Citrix Farm für die Nutzung der bibliothekarischen Spezialsoftware (Alephclient, Sisisclient, WinIBW) wurde komplett neu auf Basis von XenApp 5 64bit auf vier virtuellen Maschinen der zentralen VMWare Farm aufgebaut. Für die meisten Nutzer ging ein Wechsel der Anwendungssoftware auf eine neue Version einher mit dem Wechsel auf die neue Citrix Farm. Der Umstieg verlief daher ohne Einschränkungen. Die alte Hardware (neun Server in einem Blade-Chassis) konnten abgeschaltet werden. 1.10.1.5 Migration und Update CDROM-Server Farm Auch die Hardware der CDROM-Server war veraltet. Hier wurden virtuelle Maschinen in die Umgebung (Citrix mit Erweiterungssoftware von H+H) einkonfiguriert und die CDROM Datenbanken sukzessive von H+H auf die neuen Rechner umgezogen. Die alte Hardware konnte abgeschaltet werden. Außerdem wurden zwei virtuelle VMWare Maschinen zur Installation künftiger CDROM Datenbanken erstellt. Durch die Nutzung von Snaphots unter VMWare konnte erreicht werden, daß die Installation von weiteren CDROM Datenbanken deutlich vereinfacht wurde. 44 Entwicklungen und Tätigkeiten im Bereich Benutzernahe Dienste und Systeme (BDS) 1.10.2 Rosetta Ende 2009 hat sich die Bayerische Staatsbibliothek für das Produkt "Rosetta-Digital Preservation System" der Firma ExLibris zur Verwaltung der digitalen Langzeitarchive entschieden. Das LRZ ist hier in vieler Hinsicht strategischer Partner: Es stellt nicht nur die Server- und Archivtechnik, sondern wird voraussichtlich auch durch den Betrieb der Technik des Bibliothksverbundes Bayern künftig mit dem Betrieb von weiteren Instanzen der Software für die anderen Mitgliedsbibliotheken betraut werden. Für die Projektphase wurde eine Schulungsumgebung unter VMWare bereitgestellt. Außerdem wurden VMWare Maschinen für die „Worker-Server“ der Test- und Produktivumgebung installiert. Für die künftige Produktivumgebung wurde auch ein Oracle Datenbankcluster auf zwei physischen Rechnern installiert. Jahresbericht 2010 des Leibniz-Rechenzentrums 45 2 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 2.1 Entwicklung in der Datenhaltung 2.1.1 Überblick Die Architektur der Speichersysteme gliedert sich im Wesentlichen in zwei Bereiche, • den Bereich der Massenspeicher der Archiv- und Backupsysteme mit ihren Bandbibliotheken (Abschnitt 2.1.2), auf die sich unter anderem die Langzeitarchivierung (Abschnitt 2.1.3) abstützt, • und in den Bereich der Onlinespeicher (Abschnitt 2.1.4), bei denen wiederum zwischen NAS (Network Attached Storage)- und SAN (Storage Area Network)-basiertem Datenspeicher unterschieden wird. Für Sicherungssysteme zweiter Ordnung sowie für die Archivierung von großen Datenmengen sind Bänder als Datenträger unverzichtbar. Der Umfang der in den Bandbibliotheken des LRZ gespeicherten Daten wuchs im Jahr 2010 von 9.000 Terabyte auf 14.700 Terabyte an. Um den Zuwachs zu bewältigen wurden in erheblichem Umfang neue Kassetten beschafft und ein weiteres Archiv- und Backupsystem bestehend aus einer Bandbibliothek, Plattenspeichern, Servern und Netzinfrastruktur wurde im Datenund Archivraum installiert. Durch das neue System wurde ein technisch veraltetes System aus dem Jahre 2003 abgelöst. Eine zusätzliche große Herausforderung in diesem Umfeld war der Übergang auf ein neues SoftwareRelease und der dadurch bedingte grundlegende Wechsel der Datenbank-Architektur. Die Migration von 8 Milliarden Datenbankeinträgen zog sich über mehrere Monate und konnte im Herbst erfolgreich abgeschlossen werden. Die Zusammenarbeit mit der Bayerischen Staatsbibliothek wurde weiter ausgebaut. Dabei fungiert das LRZ als IT Service Provider in den Bereichen Serverhosting, Clusterhousing, Storagehousing einerseits und als Projekt- und Kooperationspartner in verschiedenen Projekten (BABS2, BSB-Google, Rosetta) andererseits. Nicht zuletzt bedingt durch die Vorarbeiten zu „Rosetta“, einem Projekt mit sehr ambitioniertem Zeitplan, für das in erheblichem Maß Speicherplatz benötigt wird, wurde sehr kurzfristig die Ersetzung des alten Speichersystems der BSB notwendig und auch erfolgreich umgesetzt. Die Bayerische Staatsbibliothek verfügt nun über 500 Terabyte Onlinespeicher am LRZ, der von verschiedenen Arbeitsgruppen und Projekten genutzt wird. Dieser Speicher ist auch Ausgangspunkt für die Übertragung der Daten ins Langzeitarchiv des LRZ. Am LRZ selbst und an den Kommissionen der Bayerischen Akademie der Wissenschaften wird gemeinsam nutzbarer, hoch verfügbarer und optimal gesicherter Speicher auf Basis der NAS-Technologie eingesetzt. Dieser Dienst steht als Grundversorgungsangebot auch Mitarbeitern und Studierenden der TU München und der LMU zur Verfügung und ersetzt dort immer häufiger lokale Lösungen. Die 2008 installierten NAS-Systeme wurden 2010 deutlich erweitert. Hinzu kamen weitere hochverfügbare Speichersysteme, die primär innerhalb der virtuellen Serverumgebung des LRZ genutzt werden. Insgesamt ist der zur Verfügung stehende Onlinespeicherplatz auf 2.000 Terabyte brutto angewachsen. Zusammen mit dem SAN-Speicherplatz beträgt die Bruttokapazität der Plattenspeicher 3.500 Terabyte verteilt auf etwas weniger als 5.000 Festplatten. 2.1.2 Archiv- und Backupsystem 2.1.2.1 Konfiguration Das Archiv- und Backupsystem des LRZ besteht aus zwei großen Systemen mit Bandrobotern: einem Hochleistungssystem HABS, das Anfang 2006 installiert und Ende 2007 und 2010 erweitert wurde, und einem System mit LTO-Bandlaufwerken in mehreren Bibliotheken (LABS), das 2010 neu installiert wur- Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 46 de. Aus Gründen der Ausfallsicherheit befinden sich die Komponenten der beiden Systeme in getrennten Speichernetzen. Softwareseitig wird die gesamte Architektur mit dem Tivoli Storage Manager von IBM betrieben. Archive and Backup System, Dec 2010 IBM SUN Brocade 10 GBit Ethernet 8 TSM Servers TSM TSM 8 TSM Servers 3 machines TSM IBM X3850x5 TSM SAN Disk Cache SUN FLX380 280 TB Brocade Silkworm 4800 Brocade Silkworm 4800 3 TSM Servers TSM SAN 3 TSM Servers TSM 12 machines HABS – High Performance Archive and Backup System TSM SUNFire 4270 Brocade 5400 Brocade 5400 Disk Cache SUN 6780 520 TB Brocade 5400 Brocade 5400 Library SUN SL8500 26 tape devices SUN T10K-B 10,000 slots 3 TSM Servers Library SUN SL8500 16 tape devices IBM LTO5 16 tape devices IBM LTO4 6,500 slots Library IBM TS3500 L52 10 tape devices IBM LTO4 8 tape devices IBM LTO5 6,500 slots LABS – LTO Archive and Backup System Abbildung 9: Überblick Archiv- und Backupsysteme Die theoretische Gesamtkapazität der Systeme liegt bei 27 PB, die Peak-I/O-Leistung liegt bei 22 TB pro Stunde. Die wesentlichen Komponenten des Systems sind: • 16 Rechner (Vorwiegend Intel Nehalem EP und EX) • 4 Fibre Channel Switches (8 Gbit) und 2 Fibre Channel Direktoren (4 u. 8 Gbit) • 14 Storage Server mit insgesamt 800 TB verteilt auf 2176 Disks • 3 Tape Libraries mit insgesamt 21.500 Slots • 76 Tape Laufwerke (LTO-4, LTO-5, T10K) Abbildung 10 und Abbildung 11 zeigen die beiden Teil-Konfigurationen des LABS bzw. HABS im Detail. Der Name Hochleistungsarchiv HABS ist insofern irreführend, als durch die jüngsten Aufrüstungen am LABS dieses System einen höhere Leistung und Kapazität vorweisen kann als das HABS. 2.1.2.2 Veränderungen im Bereich Speichersysteme 2.1.2.2.1 Stilllegung eines veralteten Systems Die LTO-Technologie (LTO steht für linear tape open) hat sich in den vergangenen zehn Jahren nicht zuletzt wegen des offenen Standards zum Marktführer im Midrange-Bereich entwickelt. Am LRZ wird die Technologie beginnend mit LTO2 seit 2003 eingesetzt. Die Modellreihe ist zwischenzeitlich bei LTO5 angelangt. LTO2 entspricht weder leistungsmäßig noch kapazitiv länger dem Stand der Technik. Im Laufe des Jahres 2010 wurden sämtliche Daten von 11.000 LTO2-Bändern auf LTO4-Bänder kopiert. 40 LTO2-Bandlaufwerke wurden außer Betrieb genommen. Die älteste Bandbibliothek, die schon in der Innenstadt betrieben wurde und den Umzug nach Garching im Jahr 2006 mitmachte, wurde stillgelegt. Jahresbericht 2010 des Leibniz-Rechenzentrums 47 LTO Archive and Backup System 2010 Cur. Max. Tape Disk tape capacity: tape capacity: devices: devices: 6.297 TB, 5.500 LTO-4 cartridges + 3795 LTO-5 cartridges 17.250 TB, 11.500 LTO-5 cartridges 26 x LTO4 + 24 LTO5 drives 192 TB FC-AL, 262 TB SATA, 65 TB SAS Router MWN 10 Gbit HP E6600-24XG Switch 24 x 10 GbE Ports HP E6600-24XG Switch 24 x 10 GbE Ports Munich Scientific Network 24 x 10 Gbit Ethernet 9 x Sun Fire X4270 3 x Sun Fire X4270 Pentium 4 Pentium 4 Pentium 4 Sn Sn Pentium 4 Sn Sn Pentium 4 Sn Sn Pentium 4 Sn Sn Pentium 4 Sn Sn Pentium 4 Sn Sn Sun Fire X4270Sn S1 Sn Sn Worker 7 Server 2 XEON x 4 Core 2 x INTEL X5560 2.8 GHz 72 GB Memory 4 x FC 8 Gbit 2 x 10 GbE (Failover) Pentium 4 Pentium 4 Sun Fire X4270Sn S1 Sn Sn Mgmt. 7 Server 1 XEON x 4 Core SLES 11 TSM Server 6.2 2 x INTEL X5560 2.8 GHz 16 GB Memory 4 x FC 8 Gbit 2 x 10 GbE (Failover) SLES 11 TSM Server 6.2 48 x 8 Gbit FC Storage Area Network 8 GBit FC-Switch 80 Port 8 GBit FC-Switch 80 Port 8 GBit FC-Switch 80 Port 8 GBit FC-Switch 80 Port 26 x 4 Gbit FC 24 x 8 Gbit FC 56 x 8 Gbit FC 5.000 slots total capacity: 7.500 TB IBM TS 3500 tape library 10 x LTO-4 + 8 x LTO-5 6.500 slots total capacity: 9.750 TB SUN SL8500 tape library 16 x LTO-4 + 16 x LTO-5 Max library capacity: Cur. library capacity: 17.250 TB uncompressed 6.297 TB uncompressed SUN 6780 FC-AL 65 TB SATA 87 TB SUN 6780 FC-AL 65 TB SATA 87 TB SUN 6780 FC-AL 61 TB SATA 87 TB IBM DS3500 SAS 65 TB 1028 disks, total capacity: 519 TB Abbildung 10: LTO-Archiv-und Backupsystem LABS Ende 2010 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 48 High Performance Archive and Backup System 2010 Cur. Max. Tape Disk tape capacity: tape capacity: devices: capacity: 9.300 TB, 9.300 T10K cartridges 10.000 TB, 10.000 T10K cartridges 26 x T10K-B 280 TB FC-AL Munich Scientific Network National Supercomputer HLRBII Linux Compute Cluster Router MWN 10 Gbit 10GE-Switch Cisco 6509 20 x 10 GbE Ports HP E6600-24XG Switch 24 x 10 GbE Ports 2 x 10 Gbit Ethernet HPC special 3 x IBM X3850 X5 Pentium 4 Pentium S1 4 OPTERON Worker ServerSn S127x 2 core Sn XEON X7550 7 4 x 8 Core 9 x 10 Gbit Ethernet 1 x 10 Gbit Ethernet HPC special 1 x Sun Fire X4200 M2 4 x Intel Xeon X7550 2.0 GHz 128 GB Memory 8 x FC 8 Gbit 4 x 10 GbE (3 x trunk, 1 x HPC special) 2 x OPTERON DualCore 2.6 GHz 16 GB Memory 4 x FC 4 Gbit 1 x 10 GbE Mgmt. Server OPTERON 2 x 2 core SLES 11 TSM Server 6.2 SLES 11 TSM Server 6.2 4 x 4 Gbit FC 24 x 8 Gbit FC 13 x NAS Filer Storage Area Network 13 x 2 Gbit FC FC-Direktor 96 Port 4Gb + 16 Port 8Gb FC-Direktor 96 Port 4Gb + 16 Port 8Gb 26 x 4 Gbit FC 80 x 4 Gbit FC SUN 6540 FC-AL 30 TB STK 6540 FC-AL TB STK FLX380 FC-AL 25 TB STK FLX380 FC-AL 25 TB SGI IS4500 FC-AL 28 TB SGI IS4500 FC-AL 28 TB SGI IS4500 FC-AL 28 TB SGI IS4500 FC-AL 28 TB SGI IS4500 FC-AL 28 TB SGI IS4500 FC-AL 28 TB STK SL8500 tape library 26 FC tape drives Titanium B Max library capacity: Cur. library capacity: 10.000 TB uncompressed 9.300 TB uncompressed 1148 disks total capacity: 280 TB Abbildung 11: Hochleistungsarchiv- und Backupsystem HABS Ende 2010 Jahresbericht 2010 des Leibniz-Rechenzentrums 49 2.1.2.2.2 Beschaffung eines neuen Systems und Modernisierung Bereits 2009 wurde als Ersatz für das 2010 außer Betrieb genommene Archiv ein neues System im Rahmen einer Ausschreibung erworben. Dieses System wurde 2010 in zwei Phasen installiert und in den Produktionsbetrieb übergeführt. In der ersten Phase im Frühjahr wurden eine weitere Bandbibliothek mit 6.500 Stellplätzen, sowie Plattenspeicher und eine Serverfarm im Daten- und Archivraum aufgestellt. Die Bibliothek wurde mit 16 LTO4-Laufwerken ausgerüstet. Zum Ausschreibungszeitpunkt war LTO5 noch nicht verfügbar. In der zweiten Phase wurde die Bibliothek dann im vierten Quartal um 16 LTO5Bandlaufwerke erweitert. LTO5-Laufwerke sind deutlich schneller als LTO4-Laufwerke und fassen die doppelte Datenmenge (800 GB). Die Rechner und auch andere Komponenten des Hochleistungsarchiv- und Backupsystems HABS aus dem Jahr 2006 wurden 2010 gegen neuere, leistungsstärkere Maschinen ausgetauscht. Dazu mussten die TSM-Serverinstanzen, die auf den Servern liefen, hardware- und betriebsystemseitig auf die neuen Systeme migriert werden. Ende 2010 wurde dann noch eine der Bandbibliotheken von IBM um 8 LTO5-Laufwerke aufgerüstet. In dieser Bibliothek wurden bis 2009 20 LTO2-Laufwerke betrieben. Diese wurden sukzessive durch LTO4Laufwerke ersetzt, sodass nun in der Bibliothek ein Mischbetrieb zwischen LTO4 und LTO5 gefahren wird. Grundsätzlich haben die robotergestützten Bandbibliotheken eine deutlich längere Standzeit als die Bandlaufwerke selbst, bei denen sich die Technologie rasant weiterentwickelt. 2.1.2.2.3 Releasewechsel auf TSM Version 6 Die Software, mit der die Archiv- und Backupsysteme betrieben werden, wird mindestens einmal im Jahr auf allen Systemen aktualisiert. In der Regel sind für diese Releasewechsel nur kleinere Anpassungsarbeiten und kurze Betriebsunterbrechungen notwendig. Der Upgrade von TSM 5 auf TSM 6 war anders. Kernstück einer jeden TSM-Serverinstanz ist die interne Datenbank, in der verzeichnet ist, welche Datei auf welchem Band in welcher Version zu welchem Zeitpunkt gespeichert wurde. In den TSMDatenbanken liegen Informationen dieser Art zu 8 Milliarden Dateien. Mit TSM 6 wurde die proprietäre interne Datenbank durch die Datenbank DB2 ersetzt. Der Wechsel machte umfangreiche Anpassungsarbeiten sowie eine Konvertierung der Datenbanken, die jeweils mehrere Tage dauerte, auf das neue Format notwendig und zog sich über einige Monate. 2.1.2.2.4 Synchronisierung Kunden-DB mit zentralem Verzeichnisdienst Die in den Archiven gespeicherten Daten werden bestimmten Personen und Personengruppen bzw. Einrichtungen zugeordnet. Die Pflege der Kontaktdaten der über 1100 Ansprechpartner auf Kundenseite ist eine ebenso wichtige wie zeitraubende Aufgabe beim Betrieb des Archiv- und Backupsystems. Die Fluktuation im Hochschulbereich ist sehr hoch, Ansprechpartner wechseln häufig. Bisher wurden die personenbezogenen Daten in einem eigenen, unabhängigen Datenbanksystem mit Webschnittstelle (DATWeb) verwaltet. Im Frühjahr 2010 wurden die Kontaktdaten mit dem zentralen Verzeichnisdienst des LRZ synchronisiert. Personenbezogenen Daten werden seitdem nur noch zentral gehalten. Dies erleichtert die Verwaltung der Kundendaten erheblich. Trotzdem erfordert die Pflege der Kontaktdaten auch weiterhin viel Aufmerksamkeit. Nur durch ständigen Kontakt mit den Kunden kann erreicht werden, dass sich die Archive nicht zu einem „Datenfriedhof“ entwickeln. 2.1.2.3 Statistik Ende 2010 waren in den drei Libraries 14.700 Terabyte, verteilt auf 8 Milliarden Dateien gespeichert. Täglich wurden auf die Systeme durchschnittlich 40 Terabyte neu geschrieben, zu Spitzenzeiten mit einer Geschwindigkeit von 6 GB/Sek. Die Daten stammten von 6.800 Servern des MWN aus 430 Einrichtungen der Münchner Hochschulen. Im Vergleich zum Vorjahr sind Last und Datenmenge erwartungsgemäß weiter gestiegen. Der Bestand an genutzten Kassetten in den drei Libraries lag Ende 2010 trotz Zukauf von weiteren 5.000 Stück mit 14.000 um 5.000 Stück niedriger als im Vorjahr (2009: 19.000). Die Differenz erklärt sich durch die Au- Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 50 ßerbetriebnahme von 11.000 LTO2-Kassetten. Die Gesamtanzahl der Kassetten ist nur bedingt als Indikator für den Zuwachs tauglich, da die Kapazitäten der Kassetten je nach Technologie stark variieren. Jeder Rechner oder jeder Rechnerverbund, der auf das Archiv- und Backupsystem zugreifen will, muss unter TSM als sogenannter „Node“ registriert sein. Die Anzahl der Nodes entspricht damit in etwa der Anzahl der Systeme, die ihre Daten im Archiv- und Backupsystem ablegen. 2010 wurden 1.260 Nodes neu registriert und 550 alte Nodes inklusive ihrer gespeicherten Daten gelöscht. Durch das explizite Löschen von Nodes sowie durch automatische Löschprozesse nicht mehr benötigter Daten wird dafür gesorgt, dass das Archiv- und Backupsystem nicht zum Datengrab wird. Um die Datenflut soweit wie möglich zu begrenzen, ist es notwendig, den Kunden des Archiv- und Backupsystems den Umfang ihrer abgelegten Daten immer wieder bewusst zu machen und sie zum sinnvollen Umgang mit den vom LRZ zur Verfügung gestellten – für sie kostenlosen – Ressourcen anzuhalten. Ein eigens für diesen Zweck bereitgestellter Server erlaubt es den Kunden, sich direkt umfassend über den eigenen Datenbestand zu informieren. Gleichzeitig werden die Nutzer in regelmäßigen Abständen von diesem Server über die von ihnen verbrauchten Speicherressourcen via E-Mail informiert. Integriert sind Werkzeuge, die der betrieblichen Überwachung und Analyse der Systeme dienen. Nutzer mit besonders auffälligem Datenprofil werden direkt angesprochen. Alle Kontaktdaten werden zusätzlich regelmäßig auf ihre Aktualität überprüft. Entsprechend den Benutzungsrichtlinien werden Daten, zu denen sich keine Ansprechpartner mehr ermitteln lassen, nach Ablauf einer festgelegten Frist gelöscht. Zur Erhöhung der Datensicherheit spiegelt das LRZ seine Archivdaten an das Rechenzentrum der MaxPlanck-Gesellschaft in Garching (3,3 Petabyte) und umgekehrt (5,8 Petabyte). Den Zuwachs von Speicherbelegung und Dateneingang im Laufe des Jahres 2010 zeigen Abbildung 12 und Abbildung 13. 1.400.000 Backup Archiv 1.200.000 1.000.000 800.000 600.000 400.000 200.000 0 Jan Feb Mrz Apr Mai Jun Jul Aug Sep Okt Nov Dez Abbildung 12: Datenverkehr (Gigabytes/Monat) Der Archiv-Anteil am Datenbestand ist relativ statisch, d.h. es gibt nur wenige Änderungen an den Dateien im Archiv. Archivdaten werden in der Regel einmal ins Archiv übertragen und dort sehr lange aufbewahrt, im Fall der Langzeitarchivierung für Jahrzehnte. Datensicherungen finden regelmäßig statt. Backupdaten werden dagegen häufig ins System geschrieben und die veralteten Daten werden automatisch aus dem Bestand gelöscht. Durch diese Dynamik erklärt sich die im Vergleich zur Archivierung deutlich höhere Dateneingangsrate. Jahresbericht 2010 des Leibniz-Rechenzentrums 51 14000 12000 10000 8000 6000 Backup Archiv 4000 2000 0 Jan Feb Mrz Apr Mai Jun Jul Aug Sep Okt Nov Dez Abbildung 13: Datenumfang in Terabytes 14.090.000 9.475.000 2.810.000 1.700.000 950.000 340.000 220.000 120.000 62.000 31.000 12.000 100.000 1.000 1.000 10.000 500 Speicherbelegung in TB 1.000.000 84.000 10.000.000 650.000 100.000.000 5.300.000 Die Entwicklung der letzten 15 Jahre zeigt Abbildung 14. Das Diagramm zeigt ein kontinuierliches exponentielles Wachstum des Datenbestands über die Jahre hinweg. 100 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 Abbildung 14: Speicherbelegung 1995-2010 52 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 2.1.3 Langzeitarchivierung 2.1.3.1 Das LRZ als Service-Provider für digitale Langzeitarchivierung Veröffentlichungen in digitaler Form nehmen im Wissenschaftsbetrieb wie auch im gesellschaftlichen Leben einen immer höheren Stellenwert ein. Oft wird, wie z. B. bei Dissertationen und bei amtlichen Publikationen, auf ein gedrucktes Pendant ganz verzichtet. Während die Digitalisierung für die Nutzer den Zugang und den Umgang mit der Information beschleunigt und insgesamt erleichtert, entstehen aus organisatorischer, rechtlicher und technischer Sicht neue Herausforderungen. Die Objekte sollen nicht nur verwaltet und gespeichert, sondern auch langfristig zugänglich gemacht werden. Diese Aufgabe wird erschwert durch den raschen technologischen Wandel im Bereich der Hard- und Software und der Datenträger. Seit 2004 besteht eine Kooperation zwischen der Bayerischen Staatsbibliothek (BSB) und dem LeibnizRechenzentrum, die inzwischen durch drei DFG-geförderte Projekte (BABS, BABS2 und vd16digital), der BSB-Google Partnerschaft und der Einführung des LZA-Managementsystems Rosetta der Firma Exlibris an der BSB ausgeweitet wurde. Dabei tritt das LRZ für die BSB als Dienstleister für die Langzeitarchivierung, das Bereitstellen von Onlinespeicher, das Attended Housing von Clusterknoten und Hosting von virtuellen Servern auf. Die langfristige Speicherung der Daten übernimmt bei allen Projekten ein NAS-System und das Archiv- und Backupsystem des LRZ mit dem Softwarepaket Tivoli Storage Manager (TSM). TSM verfügt über alle wesentlichen Funktionalitäten, die für Langzeitarchivsysteme Voraussetzung sind. Das Gesamtsystem deckt damit alle wichtigen Bereiche eines langfristig funktionierenden Archivs ab und folgt dem allgemeinen „Open Archival Information Systems“-Referenzmodell (OAIS). Weitere Details über die hier aufgeführten Langzeitarchivierungsprojekte können über die LRZHomepage im Bereich Projekte (http://www.lrz.de/projekte/langzeitarchivierung) gefunden werden. Abbildung 15 und Abbildung 16 zeigen die Entwicklung der Anzahl der Archivobjekte und des Datenvolumens des Langzeitarchivs von Januar 2005 bis Januar 2011. Der starke Anstieg der Dateianzahl ab März 2009 ist durch den Produktivbeginn der Archivierung der Google-Digitalisate zu erklären. Bisher wurden von der BSB mehr als 560 Millionen Objekte mit einem Datenvolumen von mehr als 290 TByte am LRZ archiviert. Der Datenzuwachs im Jahr 2010 betrug ca. 260 Mio. Dateien mit einem Volumen von 90 TByte. In Abbildung 16 ist dieser Anstieg weniger auffällig, da die Größe der einzelnen GoogleDigitalisate im Vergleich zu den übrigen Digitalisaten eher gering ist. Die aus Sicherheitsgründen erstellte Zweitkopie auf einem weiteren Magnetband verdoppelt in der Praxis die Objektanzahl und das Datenvolumen. Sie ist in den Diagrammen nicht berücksichtigt. Abbildung 15: Objektanzahl im LRZ-Archiv Jahresbericht 2010 des Leibniz-Rechenzentrums 53 Abbildung 16: Datenvolumen im LRZ-Archiv Die gespeicherten Daten werden auf Systemen aufbereitet, archiviert und als Webpräsenz bereitgestellt, die zum großen Teil auf der virtuellen Serverplattform des LRZ betrieben werden. Zu diesen Systemen gehören unter anderem die Verkündungsplattform Bayern, der Webserver der Bayerischen Landesbibliothek oder ein Server, der die Volltextindizierung der Digitalisate steuert, um nur einige Beispiele zu nennen. Die Anzahl dieser am LRZ für die Staatsbibliothek gehosteten virtuellen Linux-Server ist im Jahr 2010 von 13 auf 27 angewachsen. 2.1.3.2 Projekt BABS2 Start für das DFG-geförderte Projekt BABS2 war Oktober 2008. Das Projekt wurde am 20.01.2011 mit einem sehr gut besuchtem Workshop mit dem Thema „Langzeitarchivierung von Retrodigitalisaten: Handlungsfelder und Praxis“ erfolgreich abgeschlossen. Das rege Interesse von über 80 Teilnehmern am Workshop zeigt die Relevanz der im BABS2 behandelten Thematiken für die Praxis. Ein Ziel von BABS2 war der prototypische Ausbau und die Evaluierung eines vertrauenswürdigen und skalierbaren digitalen Langzeitarchives. Die Entwicklungen der letzten Jahre haben gezeigt, dass die Zuwächse an digitalen Daten, die der Langzeitarchivierung zugeführt werden, schwer abschätzbar sind. Dies zeigt sich sehr deutlich im Bereich der digitalen Sammlungen der BSB, wo exorbitante Steigerungen zu verzeichnen sind, und alle Prognosen früherer Jahre immer wieder nach oben korrigiert werden mussten. Als Hauptdatenlieferant sind die Google-Digitalisate anzusehen. Auch entsteht durch die anlaufende Pflichtablieferung elektronischer Publikationen eine nur schwer abschätzbare Menge weiterer Daten. In 2010 wuchs das Datenvolumen von 194 TB auf 290 TB und die Archivobjektanzahl von 305 Mio. auf 560 Mio. Dateien. Für die wichtige Frage nach der Skalierbarkeit bezüglich Datenvolumen und insbesondere bezüglich der Anzahl der archivierten Dateien eines digitalen Langzeitarchivs wurden im Projekt BABS2 Lösungsansätze gesucht. Die Ergebnisse aus den umfangreichen Skalierungstests flossen in das umgesetzte Konzept für ein skalierbares Langzeitarchivierungssystem für die Massendigitalisierung ein und führten zur Realisierung einer erweiterbaren Speicherschicht bestehend aus einem Onlinespeicher (Festplatten) und einem Archivund Backupsystem mit Magnetbändern als Speichermedien. Als Onlinespeicher wird ein NAS-System (Network Attached Storage) verwendet, das durch zwei getrennte Speicher-Controller (Filer-Köpfe) redundant aufgebaut ist, und den Ausfall einzelner Komponenten ohne Betriebsunterbrechung abfangen kann. Da sehr große Speicherbereiche im Petabyte-Bereich nicht zu realisieren sind, werden diese großen Bereiche aus vielen kleinen Speicherbereichen (so genannten Volumes) mit einer Größe von vier bis sechs Terabyte zusammengesetzt. Ähnliches gilt auch bei der Datensicherung. Die Sicherung (Backup oder Archivierung) sehr großer Speicherbereiche ist nicht zu empfehlen, da gerade hier an das Wiedereinspielen der Sicherung in einem Desaster Fall gedacht werden muss, was viel zu lange dauern würde. Deshalb wurde auch innerhalb des Backup- und Archivsystems durch so genannte TSM-Nodes eine zu den 54 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) Volumes analoge Organisation umgesetzt. Abbildung 17 zeigt eine Detailansicht der skalierbaren Speicher- und Archivumgebung. Abbildung 17: Aufbau einer skalierbaren Archivierungskomponente 2.1.3.3 Projekt Rosetta Im Frühjahr 2010 hat sich die BSB für die Einführung des Langzeitarchivsystems Rosetta der Firma Exlibris als neue strategische Plattform für die Langzeitarchivierung in Bayern entschieden. Diese Entscheidung wurde auch dadurch beeinflusst, dass das bislang verwendete Systeme Digitool der Firma Exlibris nicht mehr weiterentwickelt wird. Eine wesentliche Anforderung an das neue Langzeitarchivsystem Rosetta war der Anspruch, dass pro Tag mindestens 1.000 Bücher in das System eingefügt werden können. Mittelfristig ist geplant, den bisher archivierten Datenbestand (290 TB; 560 Mio. Dateien) nach Rosetta zu migrieren. Gegenüber der bisherigen Konfiguration werden neben den Bereitstellungsdaten auch die digitalen Masterdateien auf einem Online-Speichersystem vorgehalten. Diese ambitionierten Pläne haben dazu beigetragen, dass der bestehende Online-Speicher (NAS-System) der BSB im Oktober 2010 durch ein performanteres und skalierbareres NAS-System ersetzt wurde. Die Bruttokapazität des NAS-Filers wurde ganz erheblich von 137 TB auf 586 TB erweitert. Das LRZ betreibt für die BSB die Komponenten des Langzeitarchivsystem Rosetta (virtuelle Server, Onlinespeicher und Archivspeicher). 2.1.3.4 Projekt BSB-Google Im Rahmen einer im Jahr 2007 entstandenen Public-Private-Partnership digitalisiert Google über einen Zeitraum von mehreren Jahren mehr als 1 Million urheberrechtsfreie Druckwerke aus dem Bestand der BSB. Die BSB erhält Kopien der Digitalisate, die am LRZ gespeichert, archiviert und über den OPAC der BSB weltweit zugänglich gemacht werden. Das LRZ unterstützt die BSB in diesem Projekt als Dienstleister und ist für die Langzeitarchivierung der Digitalisate, das Housing von Clusterknoten für die Formatmigration als Vorbereitung für die Web-Bereitstellung, das Hosting des Speichersystems und das Hosting virtueller Server für Archivierung und Web-Bereitstellung zuständig. Konkret stellt das LRZ zunächst drei virtuelle Server bereit, die sich um den Download, die Verarbeitung, Archivierung und Bereitstellung der Daten im Internet kümmern. Die Originaldateien, die die BSB von Google erhält, werden im Archiv- und Backupsystem des LRZ abgelegt. Jahresbericht 2010 des Leibniz-Rechenzentrums 55 Abbildung 18: Rosetta-Speicherarchitektur Die Dateien, die im Internet angeboten werden, werden am LRZ auf einem NAS-System gehostet. Die Umwandlung aller originalen Bilddateien in jeweils zwei Bilddateien mit niedriger Auflösung geschieht am LRZ auf dem Linuxcluster. Schematisch dargestellt ist die Infrastruktur sowie der Workflow in Abbildung 19: Abbildung 19: Workflow im Google Projekt Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 56 Ende 2008 wurden von Google die ersten Digitalisate bereitgestellt. Bis Ende 2010 wurden rund 210.000 Bücher heruntergeladen und verarbeitet, der Bestand an Archivdaten im Google-Projekt ist so bis Ende 2010 auf fast 90 TB angewachsen: 100 90 80 70 60 50 40 30 20 10 Dezember November Oktober September August Juli Juni Mai April März Februar Januar '10 Dezember November Oktober September August Juli Juni Mai April März Februar Januar '09 0 Abbildung 20: Archivierte Daten in Terabyte Im Oktober 2010 wurden auch die Google-Volumes unterbrechungsfrei auf das neue NAS-System der BSB umgezogen. 2.1.3.5 Münchner Arbeitskreis Langzeitarchivierung Der Münchener Arbeitskreis Langzeitarchivierung ist auf Initiative der Bayerischen Staatsbibliothek und der Generaldirektion der Staatlichen Archive Bayerns entstanden und vereint Institutionen aus dem Raum München, die sich aktiv mit der Langzeitarchivierung elektronischer Medien befassen. Der Arbeitskreis bietet die Möglichkeit eines Informations- und Erfahrungsaustausches auf lokaler Ebene und fördert den Transfer von Wissen über Methoden und Techniken. Bei den etwa halbjährlich stattfindenden Treffen an wechselnden Orten werden jeweils andere Themenschwerpunkte gesetzt. Ein ausgewähltes Thema war „Langzeitarchivierung von Objekten aus Massendigitalisierungsprojekten an der BSB“. Eine detailliertere Beschreibung der einzelnen Projektinhalte im Bereich der Langzeitarchivierung ist auf der LRZ-Homepage (http://www.lrz.de/projekte/langzeitarchivierung) zu finden. Auch wenn im Kontext der Kooperation mit der Bayerischen Staatsbibliothek der größte Teil der Aktivitäten bezüglich der digitalen Langzeitarchivierung stattfindet, sollte die Zusammenarbeit mit anderen Einrichtungen wie dem Bayerischen Bibliotheksverbund (siehe Abschnitt 1.10) und der Bibliothek der Technischen Universität München, die die Speicher des LRZ für den bibliothekseigenen Medienserver nutzen, nicht unerwähnt bleiben. 2.1.4 Online-Speicher 2.1.4.1 Network Attached Storage 2.1.4.1.1 Homogene NAS-Umgebung Die NAS-Systeme am LRZ haben sich als Speicherplattform aufgrund ihrer Stabilität, Ausfallsicherheit und hohen Datensicherheit durch die Spiegelung auf ein Replikationssystem seit mehreren Jahren bewährt und als strategische Plattform etabliert. Die rapide wachsenden Datenmengen erfordern auch eine Jahresbericht 2010 des Leibniz-Rechenzentrums 57 gute Skalierbarkeit der eingesetzten Systeme. Abbildung 21 zeigt exemplarisch die Speicherentwicklung wichtiger Systeme im Jahr 2010. Abbildung 21: Links: NAS-Speicherentwicklung von Juni 2010 bis Januar 2011. Rechts: Speichereinsparung durch Datendeduplizierung Datendeduplizierung wird für den VMWare-Datenspeicherbereich produktiv eingesetzt. Bei der Datendeduplizierung wird der Datenbestand nach gleichen Blöcken durchsucht. Sind Doubletten vorhanden, wird ein solcher Block nur einmal gespeichert und die doppelten Datenblöcke freigegeben. Die Deduplizierung bringt in diesem Bereich eine Einsparung von über 40% (grüne Kurve). Abbildung 22 zeigt die Konfiguration der Speicherinfrastruktur der Primärspeichersysteme (Produktivsysteme) inklusive der Replikations- und Backupsysteme. Zwischen Primär- und Replikationsspeichersystemen findet mit SnapMirror eine asynchrone Spiegelung der Daten statt, im VMWare-Umfeld, wie unten beschrieben, eine synchrone Spiegelung. Zur weiteren Erhöhung der Datensicherheit werden die Daten von den Replikationssystemen zusätzlich über NDMP (Network Data Management Protocol) auf Magnetbänder gesichert. Die Primär- und Replikationssysteme befinden sich aus Sicherheitsgründen darüber hinaus in getrennten Brandabschnitten des Rechnergebäudes. Abbildung 22: Primärsysteme, Replikation und Backup 2.1.4.1.2 Hochverfügbarer Speicher für virtuelle Server Im Frühjahr 2010 wurden Speichersysteme für die neue VMWare-Infrastruktur und für ein Hochleistungs-NAS-System für den HPC-Bereich in Betrieb genommen. Voran ging eine Ausschreibung im Vorjahr. 58 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) Um die notwendige hohe Verfügbarkeit bei der Speicherversorgung der neuen VMWare-Infrastruktur zu erreichen, wurde ein System beschafft, das seine Daten synchron spiegelt und zusätzlich repliziert. Als nutzbarer Speicherplatz stehen VMWare seit Frühjahr 2010 ca. 55 TByte zur Verfügung. Für die Replikation der Daten wurde das vorhandene Replikationssystem, das 2007 beschafft wurde, entsprechend erweitert. Abbildung 23 zeigt das beschaffte System, das in räumlich getrennten Brandabschnitten aufgebaut und installiert wurde. Abbildung 23: Hochverfügbares NAS-System für VMWare inkl. Replikation und Backup 2.1.4.1.3 Hochleistungs-NAS-System für HPC-Anwendungen Der Linux-Computecluster des LRZ mit derzeit mehr als 500 Knoten bietet eine Grundversorgung mit HPC-Diensten für Wissenschaftler sowohl für die Münchner Universitäten als auch für andere bayerische Hochschulen. Zusätzlich zu den LRZ-eigenen Rechnern integriert der Linux-Computecluster weiterhin externe Projekte wie D-Grid, das LHC-Tier-2-Zentrum oder die Archivprojekte der Bayerischen Staatsbibliothek, deren Rechner in die Gesamtinfrastruktur eingebunden sind. Da in der Vergangenheit das für den Linux-Computecluster verwendete parallele Dateisystem Lustre häufiger zu Ausfällen geführt hat, wurde entschieden, dieses System zu ersetzen. In der erwähnten Ausschreibung von 2009 wurde ein skalierbares und für hohen Durchsatz optimiertes NAS-Speichersystem für die Speicherung von großen Datensätzen beschafft und im Frühjahr 2010 in Betrieb genommen. Das Speichersystem hat sich hervorragend in die am LRZ bereits vorhandene NAS-Speicherinfrastruktur integrieren lassen und besteht aus sechs FAS3170 (2 Nodes je Chassis) der Firma Netapp und verfügt über eine nutzbare Kapazität von knapp über 150 TB. Bereits einige Monate später wurde das System auf 300 TB erweitert. 2.1.4.1.4 Speicher für die Wissenschaft Das LRZ bemüht sich um die Bereitstellung von Speicherkapazitäten für alle Studierenden und Mitarbeiter der Hochschulen. Die derzeitige Infrastruktur für die Speicherung von Dateien und Dokumenten an den Hochschulen ist dezentralisiert und die Qualität der angebotenen Dienstleistungen schwankt in Abhängigkeit von der zuständigen Teileinheit, verfügbaren Budgets und den für den Betrieb verantwortlichen Mitarbeitern. Die innerhalb des Projektes IntegraTUM (Projektende September 2009) evaluierten und ausgearbeiteten technischen Grundlagen und Randbedingungen für hochschulweite Bereitstellung Jahresbericht 2010 des Leibniz-Rechenzentrums 59 von Speicher wurde erfolgreich umgesetzt und seit Mitte 2008 in den Produktivbetrieb überführt. Das LRZ stellt seit dieser Zeit eine einfach zu bedienende, sichere und zentral administrierte Speicherlösung bereit. Durch eine enge Kopplung mit Verzeichnisdiensten verfügen alle Mitarbeiter und Studierenden sowohl über persönlichen Speicherplatz als auch über den Zugang zu Projektablagen. Gemeinsamer Projektspeicherplatz ermöglicht eine neue Art der Kooperation zwischen verschiedenen Einheiten, die bisher wegen der dezentralen Strukturen nicht möglich war. Weiteres Ziel ist die Versorgung anderer hochschulweiter Dienste mit sicherem, hochverfügbarem Speicherplatz. Der zentrale Speicher wird gut angenommen, was die stetig steigende Anzahl der eindeutigen Benutzer-Kennungen (ohne Funktions- und lokale Benutzerkennungen) mit simultanen Zugriffen zeigt (siehe Abbildung 24). Die Zugriffe haben sich innerhalb des Jahres 2010 von ca. 650 auf fast 1.200 simultane Zugriffe fast verdoppelt. Abbildung 24: Durchschnittliche Anzahl von simultan zugreifenden Kennungen von Jan 10 bis Jan 11 Für das im Dezember 2007 beschaffte Speichersystem, bestehend aus einem Primärspeichersystem (2 x FAS6070) und einem Replikationssystem (FAS6070) wurden Ende 2009 Erweiterungen beschafft. Die Bruttokapazitäten des Primärsystems wurden Anfang 2010 von 68 TByte auf 117 TByte und des Replikationssystems von 68 TByte auf 305 TByte (dient auch als Replikationssystem für die VMWare Speicherinfrastruktur) erhöht. Die Infrastruktur des Speichers für die Wissenschaft ist in Abbildung 25 dargestellt. Abbildung 25: Infrastruktur des Speichers für die Wissenschaft Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 60 Der für die Speichersysteme beschaffte innovative Flashspeicher von 4 TB dient als intelligenter ReadCache. Durch den Einsatz dieser Technologie kann festplattenbasierter Speicher für Random-Readintensive Workloads wie File-Services optimiert und effizienter genutzt werden, da durch den Cache die Anzahl der Platten-IOs reduziert wird. Somit können günstigere Speichermedien (SATA anstelle FC Platten) eingesetzt werden. Der Einsatz der Flashspeicher hat sich in der Praxis bewährt. 2.1.4.1.5 Speicher für Hochschulstart.de Das LRZ hat sehr kurzfristig das Hosting für das Projekt Hochschulstart.de übernommen. Für das Projekt wurde im Herbst 2010 ein hochverfügbares Speicher-Cluster (2 x NetApp FAS 3170, 50 TB) mit synchroner Spiegelung beschafft und installiert (siehe Abschnitt 2.9). 2.1.4.2 Storage Area Network Wie in den meisten großen Rechenzentren wird auch am LRZ sowohl ein Storage Area Netzwerk (SAN) als Grundlage für einen effizienten Transport von großen Datenmengen, insbesondere für die Datensicherung, als auch die NAS-Architektur zur Bereitstellung von Plattenspeicher eingesetzt. HRR HRLBII 8 x NAS Home AFS 128 Port 128 Port NSR AFS 2 x NAS mass storage 16AFS Port 16 Port 2 x NAS BSB 2 x NAS SFS 2 x NAS LRZ 6 x NAS Linux HPC DAR LABS 63 Port 64 Port AFS 64 Port 64 Port NAS Mirror SFS HABS 122 Port AFS 122 Port NAS Mirror LRZ Abbildung 26: SAN/NAS-Topologie Das ursprüngliche Speichernetz, dessen Anfänge auf das Jahr 2000 zurückgehen, wurde vor einigen Jahren in mehrere sogenannte Fabrics aufgeteilt, um so eine höhere Verfügbarkeit gewährleisten zu können. Es werden nun getrennte Fabrics für das Hochleistungsarchiv HABS, das LTO-Archiv- und Backupsystem LABS, das verteilte Filesystem AFS und das SAN-Filesystem des Bundeshöchstleistungsrechners betrieben. An die SAN-Fabrics sind die Storageserver, ein Teil der NAS-Filer, alle Bandlaufwerke der Libraries und alle Serversysteme mit hohem Datenverkehr, insbesondere die File- und Backupserver angeschlossen. Abbildung 26 zeigt die Topologie des Netzwerks auf den verschiedenen Stockwerksebenen des Rechnergebäudes. Gut zu sehen ist die Anbindung der diversen NAS-Filer, über die der sogenannte NDMPBackup läuft. Die Sicherung über NDMP wird mittelfristig zu Gunsten einer Sicherung über das LAN zurückgefahren, da sich die LAN-Sicherung kostengünstiger umsetzen lässt. Insgesamt gibt es vier getrennte, sogenannte Fabrics im Speichernetz: Jahresbericht 2010 des Leibniz-Rechenzentrums 61 Redundantes SAN für das Hochleistungsarchiv: Basis sind zwei FC-Direktoren mit je 96 Ports. Die Direktoren werden als zwei getrennte Fabrics betrieben, um ein Höchstmaß an Ausfallsicherheit (redundant fabric) zu gewährleisten. • SAN für das LTO-Archiv- und Backupsystem: Die Verkabelung der 4 FC-Switches (4x32 Port) des LABS bildet eine Mesh-Struktur. • Redundantes SAN für AFS: Zwei 16 Port FC-Switches sorgen für die redundante Storageanbindung der AFS-Fileserver. • SAN für das CXFS-Filesystem des HLRB II. Als Storageserver werden ausschließlich Plattensysteme eingesetzt, deren Controller von LSI Logic stammen. Da die Geräte im Laufe mehrerer Jahre über verschiedene Ausschreibungen beschafft wurden, sind die Modellnamen trotzdem recht unterschiedlich: • StorageTek D280 Der Storageserver D280 der Firma STK hat zwei 2 Gbit Fibre-Channel-Anschlüsse ins SAN, über die eine aggregierte Leistung von 800 MB/s erreicht wird. Intern sind die Systeme mit 146Gigabyte-Platten bestückt und ebenfalls über Fibre Channel verkabelt. Die Gesamtkapazität beträgt 14 Terabyte. Der Plattenplatz der Systeme wird von den AFS-Fileservern und einem MySQL-Server genutzt. • StorageTek Flexline 380 Storageserver Die Storageserver Flx380 der Firma STK haben acht 4 Gbit Fibre-Channel-Anschlüsse ins SAN, über die eine aggregierte Leistung von 1600 MB/s erreicht wird. Intern sind die Systeme sowohl mit 146-Gigabyte-Platten als auch 300-Gigabyte-Platten bestückt und ebenfalls über Fibre Channel verkabelt. Die Gesamtkapazität beträgt 115 Terabyte. Der Plattenplatz der Systeme wird ausschließlich von den Rechnern der TSM-Serverinstanzen genutzt. Die 146-Gigabyte-Platten werden als Speicher für die TSM-Datenbanken verwendet, die 300-Gigabyte-Platten für die Plattenpools der Server. • SGI IS4500 Die 6 Storageserver vom Typ SGI IS4500 mit insgesamt 170 TB Kapazität kamen im Frühjahr 2010 dazu. Die Geräte wurden vorher am Linux-Computecluster des LRZ für das parallele Filesystem Lustre genutzt. Lustre wurde wegen seiner Instabilität durch eine NAS-Lösung ersetzt und die SGI-Storageserver wurden vom NSR in den DAR umgezogen und leisten nun als Cache für das Archiv- und Backupsystem gute Dienste. • SUN StorageTek 6780 Zu Beginn des Jahres wurden drei Controllerpärchen mit insgesamt 516 TB Plattenplatz (FC und SATA) für das neue Archiv- und Backupsystem LABS 2.0 installiert. • 2.1.4.3 AFS Seit 1992 wurde am LRZ das verteilte Filesystem AFS (Andrew Filesystem) eingesetzt. Es war in den 90er Jahren das zentrale Filesystem am LRZ, das von allen Diensten genutzt wurde. Im Rahmen des TUM-Großprojekts IntegraTUM wurden auch die Alternativen für ein hochschulübergreifendes hochverfügbares Filesystem evaluiert. Bereits 2005 fiel dann die Entscheidung zu Gunsten einer NAS-basierten Lösung. Seitdem wird an der Ablösung von AFS gearbeitet. Die tiefe Verwurzelung von AFS in zahlreiche Teilbereiche des LRZ-Dienstespektrums machte die Ablösung zu einem langwierigen Unternehmen, das bis heute noch nicht abgeschlossen ist. Nach und nach wurden die Speicherbereiche verschiedener Dienste aus AFS herausgelöst, zunächst der Mailbereich, der am wenigsten mit der speziellen Filesystemarchitektur von AFS zurechtkam, dann die Daten der Computecluster. Mitte 2010 fand eine große Bereinigungsaktion nicht mehr oder kaum genutzter AFS-Homeverzeichnisse und damit gekoppelt der AFS-Kennungen statt. Dadurch konnte die Anzahl der AFS-Kennungen von vormals über 30.000 auf 2.300 reduziert werden. Heute liegen noch 800 GB in diesen Homeverzeichnissen, etwa ebenso viele Daten sind noch in allgemeinen Verzeichnissen, Webbereichen u.ä. gespeichert. Die Räumung aller Bereiche wurde im Laufe des Jahres weiter vorangetrieben und soll Ende 2011 abgeschlossen sein. Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 62 2.1.5 Daten- und Archivraum Im Rechnerwürfel des LRZ steht im Augenblick für die Geräte des Archiv- und Backupbereichs nahezu ein gesamtes Stockwerk mit 560 m2 Nutzfläche zur Verfügung, der sogenannte Daten- und Archiv-Raum (DAR, vgl. Abbildung 27). Die Dimensionierung erlaubte bisher eine optimale Aufstellung der Geräte. Die sicherheits-technischen und klimatischen Randbedingungen waren gut geeignet für die langfristige, sichere Aufbewahrung großer Datenmengen. Abbildung 27: Daten- und Archivraum Mit einer durchschnittlichen Leistungsaufnahme von unter 50 KW ist der Raum ein Aushängeschild für Green-IT. Der geringe Energiebedarf ist darauf zurückzuführen, dass in diesem Raum primär Bandbibliotheken, deren Stromverbrauch gemessen an der Speicherkapazität sehr gering ist, stehen. An dem für das Jahr 2012 geplanten Supercomputer der nächsten Generation werden deutlich mehr Daten anfallen als bisher, für die Nearlinespeicher bereitgestellt werden muss. Es wird erwartet, dass für den neuen Supercomputer während seiner Standzeit Speicher in der Größenordnung von 100 PB bereitgestellt werden muss. Ein Grobkonzept für eine mehrstufige Installation der dazu notwendigen Komponenten wurde festgelegt. Der Daten- und Archivraum wird dazu an den Erweiterungsbau angebunden. Umfangreiche Staubschutzmaßnahmen sind während der Bauarbeiten notwendig, um die Staubbelastung für Kassetten und Bandlaufwerke so gering wie möglich zu halten. So wird zum Beispiel im Raum ständig ein gewisser Überdruck gegenüber der Außenhaut erzeugt. 2.2 Entwicklungen bei den Rechensystemen 2.2.1 Höchstleistungsrechner in Bayern (HLRB II: SGI Altix 4700) 2.2.1.1 Kennzahlen des Systems Anzahl SMP Knoten CPUs pro Knoten Anzahl Prozessoren Peakperformance pro CPU Peakperformance pro Knoten Peakperformance des Gesamtsystems LINPACK Hauptspeicher pro Knoten Hauptspeicher des Gesamtsystems Plattenspeicher 19 512 9728 (=19*512) * 6.4 GFlop/s ** 3.3 TFlop/s ** 62.3 TFlop/s ** 56.5 TFlop/s 2056 GByte 39064 GByte 660 TByte Tabelle 20: Kennzahlen des HLRB II: SGI Altix 4700 Jahresbericht 2010 des Leibniz-Rechenzentrums 63 Abbildung 28: SGI Altix 4700 im Höchstleistungsrechnerraum (HRR) des LRZ 2.2.1.2 Betriebliche Aspekte Im Berichtsjahr 2010 konnte die Betriebsstabilität und die Verfügbarkeit durch das Einspielen kleinerer Software Updates durch SGI weiter erhöht werden. Ab November 2010 traten jedoch nach einem Upgrade Performanceprobleme mit dem parallelen Filesystem auf, die im Berichtsjahr nicht gelöst werden konnten. Die Verfügbarkeit des Systems ist in Abbildung 29 dargestellt. Mit ca. 97% Verfügbarkeit kann man bei einem so großen System sehr zufrieden sein. Die Gründe für die Ausfälle sind in Abbildung 30 dargestellt. Abbildung 29: Übersicht über die Verfügbarkeit (Monatsmittel) des HLRB II (SGI Altix 4700) Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 64 HLRB II unavailability statistics 2010 1.00% 0.90% unavailability [%] 0.80% 0.70% 0.60% 0.50% 0.40% 0.30% 0.20% 0.10% 0.00% Erläuterungen: DIMM: Memorybausteine CPU: Central Processing Unit Blade: Platine POD: Power On Discovery (Fehler beim Selbsttest nach Power On) Router: Dual- oder Quad-Dense-Router IRU: Individual Rack Unit(Enclosure für bis zu 16 Blades) L1: Kontrolleinheit für eine IRU PS: Power Supply, Netzteil NUMA Link: Fehlerfortpflanzung auf andere Partitionen 10GigE: Netzwerkkarte xpc: Cross Partition Communication Software CXFS or RAID: Plattenfehler OS: Fehler im Betriebssystem user: durch Benutzer verursachte Störung Maintenance: Stillstandszeiten durch (geplante) Wartungen Abbildung 30: Gründe für Ausfälle des HLRB II 2.2.1.3 Nutzungsübersicht Die Schwerpunkte der Arbeiten in diesem Jahr lagen auf der Stabilisierung des Betriebs und der Optimierung und Skalierung von Benutzerprogrammen. Das Angebot an Chemiesoftware und mathematischen Bibliotheken wurde wiederum erweitert. Neue Compilerversionen wurden getestet und installiert. Der HLRB II zeigte ab Frühjahr 2010 einen sehr stabilen Betrieb, wobei vor allem die Anzahl der softwarebedingten Ausfälle deutlich zurückgegangen ist. Die abgegebene Rechenzeit (ausgedrückt in Core*Stunden) des HLRB II sind in Abbildung 31 dargestellt. Im Jahr 2010 wurden am HLRB II ca. 68 Mio. Core*Stunden abgegeben. Berücksichtigt man die Service- und die Interaktivknoten nicht, so sind das etwa 83% der maximal abgebbaren Rechenzeit. Der Anstieg der abgegebenen Rechenzeit ist auf mehrere Faktoren zurückzuführen: Jahresbericht 2010 des Leibniz-Rechenzentrums 65 • Weniger und lokalisiertere Systemabstürze • Weniger und kürzere Wartungen Eine weitere Steigerung der abgegebenen Rechenleistung ist im letzten Betriebsjahr nicht zu erwarten. Abbildung 31: Abgegebene Rechenzeit des HLRB II (in Core-Stunden) Abbildung 32: Mittlere Rechenleistung des HLRB II in GFlop/s. 2006 und teilweise 2007 vor Upgrade auf Phase2 Die mittlere Rechenleistung des Systems hat in diesem Jahr einen deutlichen Einbruch erlitten (siehe Abbildung 32). Dies ist zum einen auf die stark gestiegene Anzahl von neuen Projekten zurückzuführen, zum anderen auch darauf, dass auf Grund der Personalknappheit und der Inanspruchnahme der Mitarbei- Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 66 ter für die SuperMUC-Beschaffung weniger gezielte Optimierungen von Benutzerprogrammen durchgeführt werden konnten. Die Verteilung der abgegebenen Rechenzeit auf einzelne Jobklassen ist in Abbildung 33 dargestellt. Der Schwerpunkt der Nutzung liegt immer noch zwischen 128 und 512 Prozessorkernen. Es sind daher deutlich mehr Anstrengungen notwendig, um die Applikationen für die Nutzung zukünftiger Rechnergenerationen mit mehr als einhunderttausend Cores vorzubereiten und zu optimieren. Abbildung 33: Verteilung der Rechenzeit nach Jobgröße (Legende gibt die Anzahl von Cores an) Wartezeiten von Jobs 120 Wartezeit (h) 100 80 2006 60 2007 40 2008 20 2009 0 2010 Jobgröße (Cores) Abbildung 34: Wartezeiten der Jobs Die durchschnittlichen Wartezeiten in Abhängigkeit von der Jobgröße sind in Abbildung 34 dargestellt. Zum einen sieht man das Anwachsen der Wartezeiten für kleine bis mittlere Jobs aufgrund der zunehmenden Überbuchung der Maschine, zum anderen auch den Effekt von administrativen Maßnahmen, große Jobs (ab ca. 1024 und darüber) zu bevorzugen und deren Wartezeiten in Grenzen zu halten. Für Jahresbericht 2010 des Leibniz-Rechenzentrums 67 Jobs größer als 4096 Cores sind solche Maßnahmen aber nicht mehr sinnvoll, da sie zu großen Leerständen auf der Maschine führen würden. Für solche Jobs sind lange Wartezeiten unvermeidbar. 2.2.1.4 Nutzungsstatistik Die Anzahl der aktiven Nutzer des HLRB II hat sich im Bereichtszeitraum nur noch leicht erhöht. Die Anzahl von Projekten ist leicht zurückgegangen. Number of Users and Projects 600 514 500 510 527 389 400 Users 300 200 100 196 135 186 139 Projects 180 62 0 2006 2007 2008 2009 2010 Abbildung 35: Entwicklung der Anzahl aktiver Benutzer und Projekte Die Verteilung der Rechenzeit auf die einzelnen Fachgebiete ist in Tabelle 21 aufgeführt. Die zeitliche Entwicklung in den einzelnen Fächern ist in Abbildung 36 dargestellt. Bemerkenswert für 2010 ist die wachsende Bedeutung der Biowissenschaften. Die Aufschlüsselung der Rechenzeitabgabe nach der Herkunftsregion der am HLRB II durchgeführten Projekte ist in Tabelle 22 angegeben. In dieser Statistik sind neben deutschen Bundesländern auch Staaten aufgeführt, die in DEISA (Distributed European Infrastructure for Supercomputing Applications) aktiv sind. Für die Projekte aus Deutschland, die in DEISA und oder von virtuellen Organisationen in D-Grid durchgeführt wurden, kann kein eindeutiges Bundesland zugeordnet werden; sie wurden deshalb in einem eigenen Punkt „Deutschland“ zusammengefasst. Die zehn größten Projekte am HLRB II sind in Tabelle 24 aufgeführt. Kritisch ist im Berichtsjahr zu vermerken, dass auf Grund der stark gestiegenen Anzahl von neuen Projekten der Anteil der größten Projekte an der Rechenzeit stark zurückgegangen ist. In früheren Jahren lag dieser bei ca. 10%. Diese Situation ist sehr unbefriedigend und muss mit der Inbetriebnahme des neuen Höchstleistungsrechners beseitigt werden. Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 68 Fachgebiet Computational Fluid Dynamics Astrophysics/Cosmology Chemistry Biophysics/Biology/Bioinformatics Physics - Solid State Physics - High Energy Physics Geophysics Engineering - others Informatics/Computer Sciences Met/Clima/Oceanography Grid Computing Support Electr. Engineer. Physics - others Medicine % CPU-h 31.5% 14.5% 9.7% 9.5% 7.3% 6.7% 5.9% 3.3% 3.0% 2.8% 2.3% 1.0% 0.9% 0.8% 0.7% CPU-h 21337381 9836460 6568450 6427534 4914823 4556832 4002677 2257973 2044633 1921560 1585952 659318 618049 520296 468998 Jobs 18.8% 8.4% 14.6% 7.2% 9.7% 7.6% 3.8% 3.6% 7.2% 2.8% 0.4% 14.6% 0.3% 0.7% 0.3% Jobs 12864 5703 9991 4902 6630 5170 2571 2460 4942 1918 276 9995 210 472 184 Tabelle 21: Verteilung der Rechenzeit nach Fächern am HLRB II im Jahr 2010 Abbildung 36: Zeitliche Entwicklung des Anteiles der Fachgebiete an der Gesamtrechenzeit Jahresbericht 2010 des Leibniz-Rechenzentrums Land Bayern Baden-Württemberg Brandenburg Nordrhein-Westfalen Thüringen Deutschland (VO) Niedersachsen Berlin Hessen United Kingdom Spanien Italien Niederlande Mecklenburg-Vorpommern Hamburg Sachsen-Anhalt Finnland 69 2006 49.3% 8.9% 3.8% 8.1% 4.4% 0.0% 4.0% 5.6% 1.4% 7.2% 0.0% 0.9% 0.0% 6.3% 0.0% 0.0% 0.0% 2007 52.9% 11.6% 9.7% 5.9% 5.6% 6.9% 1.6% 0.8% 1.1% 0.8% 0.4% 1.1% 0.6% 0.6% 0.0% 0.3% 0.0% 2008 40.5% 10.1% 14.7% 14.3% 6.2% 3.6% 2.4% 2.4% 2.2% 0.4% 1.0% 0.7% 1.0% 0.1% 0.0% 0.3% 0.0% 2009 45.7% 16.5% 14.1% 6.3% 4.1% 1.6% 2.0% 4.5% 3.1% 0.3% 0.9% 0.5% 0.0% 0.0% 0.0% 0.0% 0.3% 2010 49.2% 14.0% 5.3% 7.3% 2.9% 5.6% 7.4% 4.0% 1.8% 1.3% 0.0% 0.0% 0.1% 0.0% 0.8% 0.0% 0.0% Gesamt 46.6% 13.2% 10.8% 8.6% 4.5% 4.1% 3.6% 3.2% 2.2% 0.9% 0.6% 0.5% 0.4% 0.3% 0.2% 0.1% 0.1% Tabelle 22: Verteilung der Rechenzeit nach Ländern am HLRB II Tabelle 23 gibt die institutionelle Zugehörigkeit der Projekte wieder. Institutionelle Zugehörigkeit Universitäten Helmholtz-Gemeinschaft Max-Planck-Gesellschaft Deisa Leibniz-Rechenzentrum D-Grid Fraunhofer Gesellschaft 2006 80.6% 0.1% 3.7% 14.8% 0.7% 0.0% 0.0% 2007 61.9% 6.9% 18.4% 5.7% 2.4% 4.7% 0.0% 2008 62.9% 8.2% 21.3% 6.0% 0.8% 0.8% 0.0% 2009 69.3% 14.7% 10.6% 3.7% 1.7% 0.0% 0.0% 2010 72.7% 10.7% 8.7% 7.0% 0.9% 0.0% 0.0% Gesamt 67.7% 10.4% 13.9% 5.8% 1.3% 1.0% 0.0% Tabelle 23: Verteilung der Rechenzeit nach institutioneller Zugehörigkeit am HLRB II Nr. Projekt 1 h0351 Principal Investigator/ Institution Krüger/TU München 2 pr47he Shishkina/DLR Göttingen 3 4 5 h1021 h0983 h006z Müller/Uni Jena Stemmer/TU München Schierholz/DESY Zeuthen 6 7 8 h0485 h019z h0323 Götz/Uni Erlangen Igel/Uni München Schäfer/Uni Regensburg 9 pr95ba Uhlmann/Uni Karlsruhe 10 h1061 Wassen/TU Berlin Project Title Density Functional Investigations of Complex Chemical Systems High-resolved numerical simulations of turbulent nonOberbeck-Boussinesq Rayleigh-Benard convection Dynamics of binary black hole systems Large Scale CFD for Complex Flows Simulation of N_f equal 2+1 lattice QCD at realistic quark masses Hyper-Scale waLBerla Computational wave propagation Dynamical lattice QCD with Ginsparg-Wilson-type fermions Interface-resolved direct numerical simulation of turbulent channel flow with suspended solid particles Investigation of turbulent drag reduction by flexible lamellas % CPU CUM 3.9% 3.9% 3.5% 7.4% 2.8% 2.8% 2.8% 10.2% 13.0% 15.8% 2.8% 2.2% 2.2% 18.5% 20.7% 22.9% 2.1% 25.1% 2.1% 27.2% Tabelle 24: Die zehn größten Projekte und ihr Anteil an der Gesamtrechenzeit am HLRB II im Jahr 2010 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 70 2.2.2 Linux-Cluster 2.2.2.1 Weiterentwicklung des Systems Für das Berichtsjahr sind im Wesentlichen Anstrengungen zur Konsolidierung des Betriebs sowie die Inbetriebnahme neuer Hardware zu verzeichnen. Nachdem 2009 das parallele Dateisystem Lustre immer wieder größere Störungen verursacht hatte, wurde Anfang 2010 seine Ablösung durch NAS-basierten Speicher mit erheblich verbesserter Metadatenleistung durchgeführt. Das Dateisystem läuft seitdem praktisch ohne Probleme. Die seit 2003 bzw. 2005 betriebenen Itanium-Systeme vom Typ McKinley und Madison des Clusters wurden im November 2010 außer Betrieb genommen; für diese Systeme waren schon seit einiger Zeit keine Ersatzteile verfügbar und ihr Energieverbrauch war im Verhältnis zur abgegebenen Rechenleistung zu hoch. Ähnliches gilt für die seit 2004 betriebene Altix 3700 mit 128 Madison Prozessorkernen, die ebenfalls außer Betrieb ging. Im Gegenzug sind zwei neue, von SGI gelieferte Systeme nach ausführlicher Hard- und SoftwareEvaluierung im Rahmen des PRACE Projektes in das Cluster integriert worden: eine auf der Nehalem-EP Architektur basierende SGI ICE mit 64 über Infiniband vernetzten Knoten mit je zwei 4-core Sockeln (also 512 Cores) und einer Spitzenrechenleistung von etwas mehr als 5 TFlop/s sowie ein auf NUMAlink-Technologie basierendes großes Shared-Memory Ultraviolet 1000 System mit 256 Nehalem-EP Cores, 512 GByte Hauptspeicher und einer Spitzenrechenleistung von etwa 2 TFlop/s. Ein weiterer Ausbau der parallelen Cluster-Kapazität wurde durch die DFG im Sommer 2010 genehmigt und soll nach Abschluss der erforderlichen Beschaffungsverfahren Anfang bzw. Mitte 2011 in Benutzerbetrieb gehen (siehe unten). 2.2.3 Tests und Prototypen Das LRZ wurde von Intel als eines von wenigen Zentren weltweit ausgewählt, um vorab die neue Intel MIC-Architektur zu testen (Many Integrated Cores). Ab Mai stand dem LRZ ein "Knights Ferry"Prototyp für Tests zur Verfügung, erste Ergebnisse wurden in dem nicht-öffentlichen PRACE-Deliverable "Final Technical Report and Architecture Proposal" dokumentiert. Weiterhin wurden Tests von spezieller Beschleuniger-Hardware, insbesondere von NVIDIA GPGPUs, Analysen zur Performance und Anwendbarkeit neuer Programmiersprachen und -paradigmen für hochparallele Systeme und eine Evaluierung der Programmierumgebung HMPP ("Hybrid Multicore Parallel Programming Workbench“) sowie des PGI Accelerator Compilers, die beide die Programmierung von GPGPUs wesentlich vereinfachen, durchgeführt. Beta-Tests von Intels neuer datenparalleler Programmiersprache "Intel Array Building Blocks (ArBB)“, Mitwirkung an der ausgedehnten Beta-phase für den 12.0 Compiler mit Coarray-Funktionalität sowie die Einladung des LRZ zur Mitwirkung am Intel Software Customer Advisory Board zeigen, dass das LRZ ein begehrter Partner ist. Arbeiten zur synthetischen Performance-Modellierung der Applikationen runden diesen Arbeitsbereich ab. 2.2.4 Linux MPP Erweiterung Ein Antrag zur Ersetzung der Itanium-Komponenten im Linux-Cluster wurde Anfang 2010 erstellt und nach Jahresmitte genehmigt. Es werden ein großes MPP-System und ein großes Shared Memory System für das Cluster beschafft. Die Beschaffung des MPP-Anteils musste noch 2010 erfolgen, deshalb war es trotz des hohen Arbeitsaufwandes für die SuperMUC-Ausschreibung zusätzlich nötig, für diese Beschaffung Unterlagen und Benchmarks zusammenzustellen und die Angebote der Hersteller auszuwerten. Wie auch beim SuperMUC legte das LRZ hierbei großen Wert auf Energieeffizienz und die mögliche Nutzung der Warmwasserkühlung im neuen Rechnerwürfel. Den Zuschlag für die Lieferung von 1824 Infinibandvernetzten AMD-Cores für das Cluster erhielt die Firma Megware mit ihrem innovativen WarmwasserKühlungskonzept. Das neue Cluster soll mit der MPI Software „Parastation“ der Firma Par-Tec betrieben werden; es wird eine deutliche Zunahme der parallelen Job-Größen auf dem Cluster zulassen. Jahresbericht 2010 des Leibniz-Rechenzentrums 71 2.2.4.1 Nutzungsstatistiken für das Linux-Cluster Kategorie LRZ BAY BAY BAY BAY BAY BAY BAY LCG HLR HLR Kör Kör HSM TUM TUM TUM TUM TUM TUM TUM TUM TUM TUM LMU LMU LMU LMU LMU LMU LMU LMU LMU Sonstige Summe Summe Summe Summe Institution/Fachbereich LRZ Hochschule Ingolstadt (FH) Universität Regensburg Universität Erlangen Universität Würzburg Universität Bayreuth Katholische Universität Eichstätt Universität Augsburg LCG (Large Hadron Collider Computing Grid) Fraunhofer ITWM - HPC department Astrogrid Bayerisches Staatsministerium für Wissenschaft, Forschung und Kunst Hochschulnahe Einrichtungen Feinwerk- und Mikrotechnik Maschinenwesen Chemie Mathematik Wissenschaftszentrum Weihenstephan Bauingenieur- und Vermessungswesen Elektrotechnik und Informationstechnik Wirtschaftswissenschaften Informatik Zentralbereich Medizin Betriebswirtschaft Zentrale Einrichtungen und Verwaltung Physik Chemie und Pharmazie Geowissenschaften Medizinische Fakultät Biologie Mathematik, Informatik und Statistik Volkswirtschaftliche Fakultät Sonstige LCG (Large Hadron Collider Computing Grid) Technische Universität München Ludwigs-Maximilians-Universität Sonstige Bayerische Hochschulen Summe total Anzahl Jobs 113830 229 113952 59210 83612 11162 11217 1582 3412774 47 17314 703621 % Jobs 1.39 0.00 1.39 0.72 1.02 0.14 0.14 0.02 41.55 0.00 0.21 8.57 Core-h 750217 21983 2384465 862948 382926 913868 213659 53253 5332378 442 149626 137547 % Core-h 2.56 0.07 8.12 2.94 1.30 3.11 0.73 0.18 18.17 0.00 0.51 0.47 399 4475 16846 150306 15879 96063 755730 25138 7457 385005 659 1380 26 294 1779629 10010 3139 33133 365179 20981 350 13059 3412774 1454463 2212748 280964 0.00 0.05 0.21 1.83 0.19 1.17 9.20 0.31 0.09 4.69 0.01 0.02 0.00 0.00 21.67 0.12 0.04 0.40 4.45 0.26 0.00 0.16 41.55 17.71 26.94 3.42 36833 138867 2775163 1641675 848987 606210 392107 214941 111205 212104 60121 46363 2517 1659 8026341 1111469 786248 266123 513331 113530 121032 119875 5332378 6908875 10942252 4833102 0.13 0.47 9.46 5.59 2.89 2.07 1.34 0.73 0.38 0.72 0.20 0.16 0.01 0.01 27.35 3.79 2.68 0.91 1.75 0.39 0.41 0.41 18.17 23.54 37.28 16.47 8213687 100.00 29350013 100.00 Tabelle 25: Linux-Cluster Nutzung nach institutioneller Zugehörigkeit und Fachgebiet 2.2.5 Remote Visualisierungsserver Die auf dem HLRB II oder dem Linux-Cluster erzeugten Datensätze erreichen inzwischen oftmals eine Größe, die eine Visualisierung auf PCs oder einfachen Workstations nicht mehr gestattet. Der Dienst „Remote-Visualisierung“ wird daher von den Benutzern sehr gut angenommen, was an der auf hohem Niveau liegenden Auslastung der Hardware-Reservierungen abzulesen ist, so dass Anwender bereits temporär vom automatischen Reservierungssystem abgewiesen werden mussten. Das RemoteVisualisierungssystem RVS1 für HLRB II Benutzer läuft seit Inbetriebnahme stabil. Die beiden aus DGRID Mitteln für den Linux-Cluster neu beschafften Remote-Visualisierungs-Server GVS1 und GVS2 liefen Anfang des Jahres recht instabil. Als Ursache wurden BIOS-Probleme gefunden, die verhinderten, dass die Maschinen in der gekauften Vollbestückung (8 CPU-Module und 4 Grafikkarten) korrekt arbeiten konnten. Der Hersteller lieferte deswegen im Juni zwei zusätzliche Server-Gehäuse. Die CPU-Module und Grafikkarten konnten dann auf vier Maschinen verteilt werden, die seither stabil laufen. Insgesamt stehen den Anwendern nun fünf Server (RVS1, GVS1-4) mit zusammen 80 Cores und insgesamt zwölf Hochleistungsgraphikkarten zur Verfügung. Sämtliche Visualisierungs-Server sind auch per GridZertifikat benutzbar. Wegen der hohen Nachfrage nach GPGPU-Programmierung (speziell NVIDIA CU- 72 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) DA) wurde hierfür ein dediziertes CUDA Testsystem angeschafft (1 Workstation mit Intel Nehalem EX, 1 Tesla C1060 Karte und 1 GeForce 9800 Grafikkarte). 2.3 Aktivitäten zur Beschaffung des neuen Petascale-Rechners SuperMUC Nach mehr als einjähriger Vorbereitung konnte die Beschaffung des nächsten (europäischen) Höchstleistungsrechners unter dem Dach des Gauß-Zentrums für Supercomputing als Wettbewerblicher Dialog zwischen Februar und Dezember 2010 durchgeführt und zum erfolgreichen Abschluss gebracht werden. Dafür wurden die im letzten Jahr begonnen Arbeiten an den Verdingungsunterlagen und der Benchmarksuite Anfang dieses Jahres abgeschlossen. Nach über zwanzig jeweils ganztägigen Einzelverhandlungen mit anfänglich fünf Bietern erhielt am Ende das Angebot der Firma IBM den Zuschlag. Ein Migrationssystem soll Mitte 2011 in Betrieb gehen, der Hauptteil des SuperMUC genannten Systems soll bis Ende Mai 2012 betriebsbereit sein und über drei PFlop/s Spitzenrechenleistung verfügen. Der gesamte Beschaffungsvorgang ist in Tabelle 26 noch einmal dargestellt. In Anwesenheit von Staatsminister Dr. Wolfgang Heubisch unterzeichneten am 13.12.2010 Prof. Dr. Arndt Bode, Vorsitzender des Direktoriums des Leibniz-Rechenzentrums (LRZ) der Bayerischen Akademie der Wissenschaften, und Martin Jetter, Vorsitzender der Geschäftsführung der IBM Deutschland GmbH, den Vertrag hierzu. Damit kommt im Frühjahr 2012 einer der leistungsfähigsten und der wohl effizienteste Rechner der Welt nach Garching. Der „SuperMUC“ genannte Rechner wird mehr als 110.000 Prozessorkerne neuester Bauart der Firma Intel aufweisen und damit eine Leistung von drei Petaflop/s erreichen, das sind drei Billiarden Rechenoperationen pro Sekunde – eine Drei mit 15 Nullen. Eine neuartige, von der Firma IBM in Deutschland entwickelte Hochtemperatur-Flüssigkeitskühlung und eine ausgefeilte Wärmerückgewinnung sorgen für eine optimale Energieausnutzung. Minister Heubisch betonte bei der Vertragsunterzeichnung: „Das Leibniz-Rechenzentrum in Garching wird mit dem neuen Höchstleistungsrechner zum Vorreiter einer energieoptimierten Computertechnik.“ Abbildung 37: Foto von der Vertragsunterzeichnung für SuperMUC, v.l.n.r.: Staatsminister Dr. Wolfgang Heubisch, Prof. Dr. Arndt Bode, LRZ, Martin Jetter, IBM, Andreas Pflieger, IBM, Prof. Dr. Dietmar Willoweit, Präsident der Bayerischen Akademie der Wissenschaften Jahresbericht 2010 des Leibniz-Rechenzentrums Vorgang Markterkundung Informationspapier für Hersteller Herstellerbesuche des Direktoriums Kolloqium für Herstellerfirmen Technische Einzelbesprechungen mit Firmen Sitzung der Kommission für Informatik zur Benennung des Auswahlgremium Hersteller-Konzept für Petascale-Rechner am LRZ Benchmarks (Vorbereitung) Auswahl Benchmarkprogramme Erstellung herstellerfähiger Versionen Eignung auf verschiedenen Architekturen testen Auslieferung der Benchmarksuite an Hersteller Durchführung von Tests durch Hersteller Beschaffungsprozess Verdingungsunterlagen (erste Iteration) erstellen Bestätigung der Verdingungsunterlagen durch Auswahlgremium Wettbewerblicher Dialog Ankündigung Versendung der Vergabeunterlagen Abgabefrist für Teilnahmeanträge (8 Anträge) Prüfung der Teilnahmeanträge Auswahl der Dialogteilnehmer (Bull, CRAY, HP, IBM, SGI) Erste Dialogphase (3 Verhandlungsrunden mit 5 Teilnehmern) Schärfung der Leistungsbeschreibung durch LRZ Erstellung der Angebote durch Firmen Auswertung der Angebote Auswahl der Shortlist (2 Bieter: IBM, SGI) Zweite Dialogphase (3 Verhandlungsrunden mit 2 Teilnehmern) Finale Leistungsbeschreibung vom LRZ erstellt endgültige Angebotserstellung durch Firmen Rechnerauswahl Sitzung der Auswahlkommission (Entscheidung für IBM) Vertraggestaltung Frist GWB §101a Vertragsgestaltung und -verhandlungen Vertragsunterschrift 73 Datum/Vom Feb 09 Mrz 09 Mrz 09 Mai 09 Jun 09 Jul 09 Bis Dez 09 Mrz 09 Dez 09 Dez 09 Mai 09 Mai 09 Mai 09 Mai 09 Jan 10 Jan 10 Dez 09 Dez 09 Jan 09 Mai 10 Dez 09 Dez 09 Mai 10 Dez 10 Jan 09 Feb 10 Feb 10 Feb 10 Feb 10 Feb 10 09.03.2010 Mar 10 Jun 10 Jun 10 Jul 10 28.07.2010 Aug 10 Sep 10 Sep 10 Nov 10 10.11.2010 15.11.2010 15.11.2010 20.11.2010 13.12.2010 Nov 10 Jul 10 Jul 10 Nov 10 Okt 10 13.12.2010 20.11.2010 12.12.2010 Tabelle 26: Beschaffungsvorgang für den nächsten Höchstleistungsrechner SuperMUC Mit dem SuperMUC wird die bewährte Linie der auf vollwertigen Prozessoren basierenden, universell einsetzbaren Höchstleistungsrechner am LRZ konsequent fortgesetzt. SuperMUC wird den jetzigen, 2006 in Betrieb genommenen „HLRB II“ ersetzen und erneut den Sprung an die technologische Spitze schaffen. Mit 3 Petaflop/s Spitzenrechenleistung, 320 Terabyte Hauptspeicher und 12 Petabyte Hintergrundspeicher wird SuperMUC zu den leistungsfähigsten Universalrechnern der Welt gehören, wenn er Mitte 2012 in Betrieb geht. Die Architektur des SuperMUC lässt trotz der imposanten Zahl von mehr als 110.000 Prozessorkernen einen stabilen Dauerbetrieb und sehr gute Skalierung erwarten. Über das Gauß Zentrum für Supercomputing (GCS) können Wissenschaftler in Bayern, Deutschland und darüber hinaus den neuen Höchstleistungsrechner bruchlos und ohne Änderung an den bisherigen Programmierkonzepten nutzen. Über die Infrastruktur PRACE (Partnership for Advanced Computing in Europe) eröffnet SuperMUC weitere neue Möglichkeiten für Wissenschaftler in 21 europäischen Mitgliedsstaaten. Revolutionär ist das neue Kühlkonzept. Die aktiven Komponenten wie z.B. Prozessoren und Memory werden unmittelbar mit Wasser gekühlt, das über vierzig Grad warm sein darf. Diese „Hochtemperatur- 74 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) flüssigkeitskühlung“ und eine hochinnovative Systemsoftware zur energieeffizienten Leistungssteuerung ermöglichen es, den Anstieg des Energieaufwands und damit der Betriebskosten so gering wie möglich zu halten und darüber hinaus alle LRZ-Gebäude mit der Abwärme des Rechners zu heizen. „SuperMUC“ steht für unerreichte Energieeffizienz im Sinne des Green Computing und für Spitzenleistung in der Rechenkapazität durch massive Parallelität der universell einsetzbaren Multicore-Prozessoren. Abbildung 38: Prof. Arndt Bode (LRZ) und Martin Jetter (IBM) mit einem Prototypen für ein Bauteil des SuperMUC. Die Kupferrohre zur Zu- und Abführung der Kühlflüssigkeit sind klar zu erkennen. Die Investitions- und Betriebskosten für fünf bis sechs Jahre einschließlich der Stromkosten für den SuperMUC werden 83 Mio. Euro betragen, die das Land Bayern und der Bund zur Hälfte finanzieren, ebenso wie die 50 Mio. Euro für die bereits laufende Gebäudeerweiterung des LRZ. Darüber hinaus fördert Bayern weitere begleitende Projekte wie z.B. das Bayerische Kompetenznetz für WissenschaftlichTechnisches Höchstleistungsrechnen KONWIHR mit seinen mehr als 25 überregionalen Anwendungen. Wissenschaftsminister Dr. Wolfgang Heubisch bezeichnete den SuperMUC als Investition in die Zukunft: „Leistungsfähige Rechner und Software sind heute der Schlüssel für wissenschaftliche und technologische Konkurrenzfähigkeit. Das Leibniz-Rechenzentrum in Garching wird mit dem neuen Höchstleistungsrechner zum Vorreiter einer energieoptimierten Computertechnik.“ 2.4 Software und User Support im Bereich Hochleistungsrechnen 2.4.1 Software für Linux-Cluster und Höchstleistungsrechner Im Software-Portfolio erfolgten Aktualisierungen und Erweiterungen; aus dem Bereich der Quantenchemie sind neue Releases von NAMD, CASTEP, Gamess, Gaussian, Molpro, NWChem, Amber, CP2K und VASP sowie zusätzliche Pakete wie Abinit, ACESS oder Schrödinger zu nennen. Im Bereich der Entwicklungssoftware sind Verbesserungen bei der Fortran 2003 und OpenMP 3.0 Unterstützung (Intel Compiler) sowie der direktivengesteuerten Programmierung von Beschleunigerkarten (PGI Compiler) und neuere Versionen der Werkzeuge zur Fehlersuche und -behebung (Totalview, Forcheck, Valgrind) eingeführt worden. Die MPI Implementierung der Firma Intel wurde im Hinblick auf die Skalierbarkeit erheblich verbessert und dient auch als Grundlage für eine erste Implementierung des im neuen Fortran 2008 Standard integrierten parallelen PGAS-Programmiermodells „Coarrays“. Jahresbericht 2010 des Leibniz-Rechenzentrums 75 2.4.2 Supportanfragen Die deutlich gesteigerte Anzahl von Nutzern und der große Job-Durchsatz am HLRB II und am LinuxCluster haben zu einer weiteren Steigerung von Supportanfragen geführt, die nur mittels des Troubleticket-System gezielt abgearbeitet werden können (siehe Tabelle 27). Diese Möglichkeit der Kontaktaufnahme wurde von den Benutzern sehr gut angenommen und hat die Kontaktaufnahme via Email fast komplett ersetzt. Die deutlich gestiegene Anzahl von Anfragen, teilweise von recht unerfahrenen Benutzern führt zu einer deutlich gesteigerten Arbeitsbelastung der Mitarbeiter, vor allem, da diese Anfragen unvermittelt in den Arbeitsablauf eindringen. Da die Supportgruppe für den HLRB und das Linux-Cluster der größte Nutzer des Troubleticket-Systems am LRZ ist, hat sie auch als erste das neue Incident Managementsystem IeT ITSM eingeführt. 2008 2009 2010 574 625 838 Tabelle 27: Anzahl Troubletickets im Bereich Hochleistungsrechnen 2.4.3 Einführung des neuen Incidenttools Im September wurde der Pilotbetrieb des neuen ITSM Tools von IeT Solutions im Rahmen des Incident Managements für das Linux-Cluster und kurze Zeit später auch für den HLRB gestartet. Das neue Servicedesk-Tool bietet dem Anwender deutlich mehr Möglichkeiten mit dem LRZ zu interagieren und den Zustand eines Incidents einzusehen. Zahlreiche Probleme und Konfigurationswünsche mussten hierzu vom ITSM Team gelöst werden. 2.4.4 Benutzerverwaltung Die Workflows für Benutzerverwaltung und Antragstellung am Linux-Cluster und HLRB konnten weiter verbessert und automatisiert werden. Durch das am LRZ nun eingeführte Single Identity Management ist jetzt ein leichterer Zugriff auf Benutzerdaten und die Validierung von Benutzern für verschiedene Dienste möglich. So wurden das HLRB- und Linux-Web-Antragsformular neu generiert und bereits vorhandene Informationen können bei der Bearbeitung zur Erleichterung für den Master-User eingeblendet werden. 2.4.5 Kurse und Ausbildung Das Aus- und Weiterbildungsangebot konnte auch im Berichtsjahr erheblich erweitert werden. Der hohe Wissensstand und die Güte der Kurse am LRZ drückt sich auch dadurch aus, dass Dr. Bader aus der Gruppe Hochleistungsrechnen im Fortran-Standardisierungskommittee WG5 mitarbeitet und auf der Supercomputing-Konferenz in New Orleans zu ersten Mal mit einem Tutorial zum Thema PGAS-Sprachen (Partitioned Global Address Space) vertreten war. Außerdem wurde Herr Bader zu einem Vortrag über PGAS Konzepte in Fortran und UPC am IDRIS in Frankreich eingeladen. Es zeigt sich aber auch, dass das Kursangebot mit der jetzigen Personalkapazität nicht mehr weiter ausgebaut werden kann, obwohl es gerade in der jetzigen Umbruchzeit mit vielen neuen Ansätzen (neuen Programmiersprachen, Multi- und Manycores, GPGPUs) sehr viele Themen zur Ausbildung gäbe. Das LRZ wird hier deshalb versuchen, in Zusammenarbeit mit Firmen und anderen Rechenzentren die Attraktivität seines Kursangebotes weiter aufrecht zu erhalten. 2.4.5.1 Programmiersprachen und Programmentwicklung Großen Zuspruch fanden ein neuer Fortran-Grundlagenkurs sowie die bereits etablierte Fortgeschrittenenveranstaltung, die jetzt als jeweils einwöchige Blockveranstaltung regelmäßig durchgeführt werden. In Zusammenarbeit mit dem RRZE fand eine einwöchige Einführung in die wissenschaftliche Programmierung mit C++ statt. Für die inzwischen auch zunehmend im wissenschaftlichen Bereich genutzte Entwicklungsumgebung „Eclipse“ gab es eine eintägige Veranstaltung, die in Zukunft durch eine Einführung in die Nutzung dieser Software im Bereich des parallelen Programmierens (Eclipse PTP) ergänzt werden soll. Die Integration von Parallelität in klassischen Programmiersprachen im Rahmen des „Partitioned 76 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) Global Address Space“ (PGAS) Konzeptes wurde in einer eintägigen Veranstaltung mit den Themen coarray Fortran (CAF) und unified parallel C (UPC) behandelt. Der Kurs „Eclipse: C/C++ programming (with a slight Fortran touch)“ vermittelte sowohl erste Schritte in Eclipse für C, C++ und FORTRAN als auch im Grid computing, denn in den Übungen wurden Grid Zertifikate (SLCS) und Grid middleware (gsissh-Term mit VNC für remote visualization) für den Zugang verwendet. 2.4.5.2 Parallelisierung und Optimierung Der traditionell jährlich stattfindende Workshop zum parallelen Programmieren und Optimieren (abwechselnd in München und Erlangen) wurden neu strukturiert, und fortgeschrittene Themen wurden in eine separate Veranstaltung ausgegliedert. Sehr gut besucht war der in Zusammenarbeit von HLRS sowie den Universitäten Kassel und Lübeck am LRZ durchgeführte Workshop zur Programmierung mit MPI, OpenMP und parallelen Bibliotheken sowie angewandter linearer Algebra für iterative Verfahren. Etliche Veranstaltungen wurden auch in Zusammenarbeit mit Firmen durchgeführt, beispielsweise mit Intel eine Schulung zu Multicore und zum neuen parallelen Programmiermodell „Array Building Blocks“. Außerdem fand eine Reihe von eintägigen Veranstaltungen mit Fokus auf spezielle Tools zur PerformanceAnalyse und zu Debugging statt; dies erfolgte in Zusammenarbeit mit den Tool-Entwicklern aus dem Forschungszentrum Jülich bzw. der Firma Allinea. Das wachsende Interesse an der Nutzung von Graphikkarten zur Beschleunigung von Algorithmen kam in einer hohen Teilnehmerzahl bei einer Veranstaltung zum Thema GPGPU („General Purpose Graphics Processing Unit“) zum Ausdruck. 2.4.5.3 Fluid-Dynamik Die Community der CFD-Anwender um das Open-Source-Programm OpenFOAM hat sich auf einer vom LRZ organisierten Veranstaltung getroffen und ihre Projekte vorgestellt. OpenFOAM entwickelt sich immer mehr zu einer wichtigen Applikation am LRZ und es werden vom LRZ Anstrengungen unternommen, diese Applikation auf neuartige Architekturen zu portieren. 2.4.5.4 Life Sciences und Visualisierung In Kursen zu Molecular Modelling gab es eine Einführung in die Simulation von Molekülen mit unterschiedlichen Software-Paketen auf dem Supercomputer am LRZ (Maestro, Desmond, VMD, NAMD, Gromacs). Dies beinhaltete auch eine Einführung in die Remote Visualisation Services am LRZ; außerdem werden Hands-on Sessions mit Beispielanwendungen gegeben. Der Kurs konzentrierte sich auf Biomoleküle und Ziele der Life-Science-Community. Eine weitere Veranstaltung gab es zum parallelen Programmieren und Visualisierung mit der statistischen Programmierumgebung R. Im Kurs "Wissenschaftliche 3D-Animation mit Blender" lernten die Kursteilnehmer, selbst hochwertige Filme zur Darstellung ihrer wissenschaftlichen Arbeit zu erstellen. Weiter zu erwähnen sind: Eine allgemeine Einführung in die Nutzung der Cluster- und Visualisierungssysteme am LRZ sowie die Behandlung spezieller Themen aus dem Bereich Visualisierung in Zusammenarbeit mit dem Rechenzentrum der Max-Planck-Gesellschaft. 2.5 Öffentlichkeitsarbeit 2.5.1 Supercomputing Konferenzen in Hamburg und New Orleans Für den Auftritt auf den Supercomputing-Konferenzen ISC10 in Hamburg und SC10 in New Orleans wurde ein neuer Messestand entworfen, dessen herausragende Neuerung ein geteiltes Display mit vier großen HD-Monitoren darstellt. Das Display wird mit Informationen, Filmen, Animation oder Simulationen beschickt, die alle Bereiche des LRZ vorstellen und zudem einen Ausblick auf den Neubau und den SuperMUC bietet. Und natürlich führt auch wieder Frankie (eine vom LRZ für Schulungszwecke weiterentwickelte virtuelle Figur) durch das LRZ, dabei wird auf dem Display auch ein virtuelles 3DLaboratorium gezeigt, durch das sich Messebesucher frei bewegen können. In der virtuellen Welt werden die verschiedenen Anwendungsgebiete des Höchstleistungsrechnens anschaulich gezeigt. Auf den Messeveranstaltungen in Hamburg und New Orleans zeigte das LRZ auch Live-Demonstrationen aus dem Bereich der Molekularen Simulation zu Remote Visualisation und Computational Steering mit einem Force-Feedback System, das aus Komponenten zusammengestellt wurde, die quer über den Atlantik verbunden waren. Das Force-Feedback-System vermittelt dem Anwender einen Eindruck von Kräften, z.B. Jahresbericht 2010 des Leibniz-Rechenzentrums 77 innerhalb von Molekülen oder mechanischen Strukturen. Als Rechenserver wurde der HLRB II benutzt, die Remote Visualisierung wurde im GVS-Cluster des LRZ berechnet und die 3D-Displayausgabe und die Force-Feedback-Steuerung konnte in New Orleans am Messestand interaktiv von den Messebesuchern bedient werden. 2.5.2 Wissenschaft im Dialog/Tag der offenen Tür Am Tag der Offenen Tür wurde die im Haus entwickelte 3D-Präsentation "Frankie goes to LRZ", die schon auf der Ars Electronica in Linz 2009 gezeigt wurde, erheblich erweitert und auf der mobilen 3DStereo-Projektionsanlage des LRZ vorgeführt. Frankie ist ein kleines „elektronisches Flughörnchen“, das in einer simulierten Welt verschiedene virtuelle Orte besucht, an denen Aktivitäten und Ergebnisse am LRZ, wie zum Beispiel Molekülsimulationen, in unterhaltsamer Weise dargestellt werden. Ein Schülerpraktikant hat diese Simulation noch um Einsichten in den Rechnerwürfel und um ein virtuelles Labor erweitern können. Die Resonanz beim Publikum war hervorragend, was sich auch in einer Veröffentlichung in der Zeitschrift "Aviso" des Bayerischen Staatministeriums für Wissenschaft und Kunst niedergeschlagen hat. In diesem Zusammenhang ist auch der Vortrag bei der Vortragsreihe der Sprecher der BAdW zu nennen: „Was Wissenschaftler aus Computerspielen machen (können)“. 2.5.3 Berichtsband Viel Arbeit erforderte die redaktionelle Fertigstellung, die drucktechnische Aufbereitung und Veröffentlichung des 780-seitigen Berichtsbandes "High Performance Computing in Science and Engineering" der die Ergebnisse des Ende 2009 durchgeführten "HLRB and KONWIHR Review Workshops" darstellt: S. Wagner, M. Steinmetz, A. Bode, M. M. Müller (Editors): "High Performance Computing in Science and Engineering, Garching/Munich 2009", Transactions of the Fourth Joint HLRB and KONWIHR Review and Results Workshop 780 p., Hardcover, ISBN 978-3-64213871-3, 2010. Dieses Buch stellt ausgewählte Ergebnisse dar, die am gegenwärtigen Höchstleistungsrechner in Bayern erzielt wurden. Die abgedeckten Forschungsbereiche umfassen die Bereiche Informatik, Fluiddynamik, Astrophysik, Hochenergiephysik, Geo-Wissenschaften, Festkörperphysik, Chemie und Biowissenschaften. Das Buch liefert einen Überblick über das breite Anwendungsspektrum von Problemen, die eine Nutzung von Höchstleistungsrechnern erfordern. Jede Projektbeschreibung umfasst Informationen über den jeweiligen wissenschaftlichen Hintergrund, die erzielten Resultate und die eingesetzt numerischen Methoden. Das Buch bietet auch Einblicke in die erreichte Rechenleistung, in die Skalierbarkeit der Anwendungen und welche Verbesserungen bei den eingesetzten Algorithmen erreicht werden konnten. 2.5.4 InSiDe und Quartl InSiDe (Innovatives Supercomputing in Deutschland) ist die Zeitschrift des Gauss Centre for Supercomputing (GCS). Das LRZ hat zu den beiden Heften des Jahrgangs Nutzerartikel, Projekt- und Systembeschreibungen beigetragen. Die Zeitschrift wird an zahlreiche Institutionen und Personen, sowie die Nutzer der Höchstleistungsrechner verschickt. Ferner wurden Beträge für das Quartl, das Mitteilungsblatt von KONWIHR und der Bavarian Graduate School of Computational Engineering (BGCE) verfasst. 78 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) Online-Ausgaben sind verfügbar unter: http://inside.hlrs.de/htm/editions.htm bzw. http://www5.in.tum.de/wiki/index.php/Quartl 2.5.5 Sonstige Aktivitäten im Umfeld des Hochleistungsrechnens 19.01.2010 Besuch einer chinesischen Delegation 20.01.2010 DGI Monitoring Task Force 26.01.2010 Besuch einer Delegation der Universität Innsbruck 03.02.2010 Microsoft Uni Roadshow 2010 10.02.2010 DEISA WP 3,4,6,8 All Hands Meeting 19.02.2010 GSCS Meeting in Bonn zu Öffentlichkeitsarbeit 24.02.2010 Vortrag Prof Wettig Regensburg: QPACE - A massively parall supercomputer based on Power XCell 8i processors and network FPGAs 01.03.2010 02.03.2010 PRACE Prototype and Language Workshop 03.03.2010 Stratos-Treffen 12.03.2010 Führung durch Rechnergebäude für Verband Deutscher Ingenieurinnen 19.03.2010 NGI-DE Meeting 22.04.2010 Girls‘ Day 2010 05.05.2010 Prospect Management Board Meeting 17.05.2010 18.05.2010 DRIHM (Distributed Research Infrastructure for HydroMeteorology) Workshop 31.05.2010 03.06.2010 International Supercomputing Conference 2010, Hamburg Informationsstand 07.06.2010 Besuch Minoru Nomura, Affiliated Fellow, Science and Technology Foresight Center (STFC), National Institute of Science and Technology Policy (NISTEP), Mnistry of Education, Culture, Sports, Science and Technology, Japan. 29.06.2010 – 30.06.2010 DEISA Review Rehearsal 01.07.2010 Brooking Institut, President Metropolitan, Policy Program Bruce Katz, Washington DC 12.07.2010 KONWIHR Review Workshop 16.07.2010 Besuch einer Delegation Huawei Research Unit, China Jahresbericht 2010 des Leibniz-Rechenzentrums 30.07.2010 OpenFoam Anwendertreffen 02.08.2010 04.08.2010 DRIHM Proposal Meeting 30.08.2010 31.08.2010 PRACE 1IP Kickoff-Meeting 27.09.2010 28.09.2010 DGSI" (D-Grid Scheduler Interoperability) Plenar Meeting 08.10.2010 Dr. Kusnezov, National Security Science and Technology, Washington DC 08.10.2010 Besuch einer Delegation der University of Aizu, Japan 13.10.2010 PROSPECT e.V. Mitgliederversammlung 14.10.2010 Exascale Meeting 18.10.2010 Richtfest Gebäudeerweiterung (Minister Herrmann) 18.10.2010 19.10.2010 IGE Kickoff Meeting 25.10.2010 Besuch des Russischen Staatsministers für Kommunikation und Massenmedien Igor Shchegolev 08.11.2010 Besuch einer irakischen Delegation 13.11.2010 19.11.2010 Supercomputing 2010 Conference New Orleans Informationsstand, Tutorial: Introduction to PGAS (UPC and CAF) and Hybrid for Multicore Programming (R.Bader) 06.12.2010 08.12.2010 Besuch einer chinesischen Delegation 07.12.2010 Besuch des European Institute for Urban Affairs (Prof. Evans Liverpool) 07.12.2010 Stratos Management Board Meeting & General Assembly 13.12.2010 Unterzeichnung SuperMUC Vertrag und Pressekonferenz 2.6 79 Projekte und Kooperationen 2.6.1 PRACE Innerhalb des PRACE Software-Arbeitspakets widmete sich das LRZ vorrangig der Evaluierung der Performance und Produktivität paralleler Programmiersprachen. Die Untersuchungsergebnisse zu RapidMind wurden in einem Artikel veröffentlicht, die umfassende Produktivitätsstudie zu zwölf Programmiersprachen wurde als wissenschaftliches Poster auf der ISC10 angenommen. Frau Christadler stellte die Ergebnisse der Studie in mehreren Vorträgen vor, unter anderem bei der Internationalen SupercomputingKonferenz in Hamburg ("PRACE: Open Dialog with European Tier-0 Users"). Zum Thema "New Languages & Future Technology Prototypes" lud das LRZ Anfang März mehr als 60 Teilnehmer zu einem PRACE Workshop ein. Das Booklet des Events fasst alle Vorträge zusammen. Im August waren dann mehr als 120 PRACE Mitarbeiter aus 20 verschiedenen Nationen am LRZ zu Gast, als die PRACE First Implementation Phase (das EU-Projekt PRACE-1IP) gestartet wurde. Auch hier übernimmt das LRZ wieder die Leitung des "Future Technology“ Arbeitspakets; außerdem zeichnet es verantwortlich für die Koordinierung der Subtasks zum Thema "Programming Techniques for High Performance Applications". 80 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) Unter Leitung des LRZ lud die PRACE advisory group for Strategic Technologies (STRATOS) auf der ISC10 in Hamburg 15 HPC-Technologiefirmen ein, PRACE eine Aktualisierung der entsprechenden Produktroadmaps zu geben. Diese Informationen dienen unter anderem als Grundlage für die im PRACE1IP-Projekt zu definierenden HPC-Technologieprototypen. STRATOS war außerdem aktiv an der Organisation des 2. European Workshop on Supercomputing Centre Infrastructure im Oktober 2010 in Dourdan, Frankreich beteiligt. In dieser Veranstaltung wurden den eingeladenen Vertretern von europäischen HPC-Zentren die aktuellen Entwicklungen zur Steigerung der Energie- und Kühlungseffizienz von Rechenzentren aufgezeigt. Im Rahmen eines Vortrages stellte Herbert Huber den LRZ-Erweiterungsbau sowie die Arbeiten des LRZ zur Steigerung der Kühlungseffizienz und deren geplante Umsetzung im Erweiterungsbau vor. Arndt Bode ist der deutsche Vertreter im PRACE Council, dem Leitungsgremium von PRACE. 2.6.2 DEISA2 LRZ-Mitarbeiter nahmen an DEISA2 Technical Meetings in Amsterdam, Barcelona, Bologna, Brüssel, Helsinki, Paris und Stuttgart, an DEISA Training Sessions in London und Edinburgh, dem DEISA Symposium in Amsterdam, sowie an zahlreichen DEISA-Videokonferenzen teil und beteiligten sich aktiv an Diskussionen in über 20 DEISA-Mailinglisten. DEISA2 läuft bis April 2011. Abbildung 39 zeigt die Teilnehmer an diesem Projekt. Abbildung 39: Teilnehmer am DEISA2 Projekt. Mit gestrichelten Linien sind die vier assoziierten Partner CSCS (Schweiz), CCRT/CEA (Frankreich), KTH (Schweden) und JSCC (Russland) gekennzeichnet. Quelle: http://www.deisa.eu/ Das LRZ beteiligt sich dabei insbesondere an den Service Activities „Technologies“, „Application Enabling“ und „Operations“ sowie einer Joint Research Activity „Integrated DEISA Development Environment“. Das LRZ betreibt für DEISA neben der Rechen-Ressource HLRB II auch deren Anbindung an das dedizierte DEISA-Netzwerk, einen Client für das gemeinsame Dateisystem GPFS, die Middlewares Globus und UNICORE für den Benutzerzugang, sowie Dienste zur Benutzerverwaltung, Budgetierung, und Funktionsüberwachung der Benutzerdienste. Mit der zunehmenden Nutzung der DEISA-Infrastruktur spielt die Dienstgüte in DEISA eine immer größere Rolle. In 2010 wurden mehrere Maßnahmen unternommen, um dieser wachsenden Bedeutung ge- Jahresbericht 2010 des Leibniz-Rechenzentrums 81 recht zu werden. Um eine stärkere Kontrolle der Service-Qualität in der DEISA Infrastruktur zu gewährleisten und um sicherzustellen, dass auftretende Schwierigkeiten zeitnah gelöst werden, wurde ein Trouble Ticket-System verwendet. Im Rahmen der Verbesserung der Service-Qualität wurden DEISA-Dienste (z.B. accounting, MyProxy, Unicore6) auf virtuelle Maschinen umgezogen und mit Hilfe des MonitoringTools Nagios überwacht. Das Monitoring-Werkzeug Inca wird erfolgreich für die Versionsprüfung des DEISA Common Production Environment (DCPE), für die Funktionsüberwachung der Middleware sowie für die Konsistenzprüfung der Benutzerdaten eingesetzt. Die zentralen Inca-Komponenten werden für ganz DEISA am LRZ betrieben. Zahlreiche Updates und Änderungen der Infrastruktur wurden durchgeführt. Dazu zählen die Upgrades zu den neuesten Versionen, die Integration neuer DEISA Ressourcen, die Implementation einer Schnittstelle zwischen Inca und dem DEISA Trouble Ticket System sowie die Weiterentwicklung von Nutzungs- und Verfügbarkeitsreports. Inca führt regelmäßig mehr als 1.000 Tests auf 19 Ressourcen durch. Um die DEISA Inca Infrastruktur stetig zu verbessen, wurden die Inca Reporter für die Überwachung des General Parallel File Systems (GPFS) in Produktion genommen. Um eine zeitnahe Behandlung von Problemen und Änderungswünschen zu gewährleisten, pflegt das LRZ einen engen Kontakt mit dem Inca Entwickler-Team am San Diego Supercomputing Center (SDSC). Wie sich herausgestellt hat, ist eine frühzeitige Information von Administratoren und Benutzern über zukünftige Dienstausfälle durch Wartungen, Anpassungen, Erweiterungen, etc. sehr wichtig. Nur so können die von diesen Diensten abhängigen Personen angemessen darauf reagieren und z.B. auf andere Systeme ausweichen. Zur Automatisierung dieser Informationsmechanismen erarbeitete die Arbeitsgruppe DMOS, die vom LRZ geleitet wird, ein Konzept und begann mit der Implementierung des DMOS Systems. DMOS stellt ein einfach zu bedienendes graphisches Benutzerinterface zur Verfügung, das Benutzern aktuell in Wartung befindliche Systeme anzeigt und Administratoren einen einfachen update der Wartungsinformationen erlaubt. Da DMOS im Hintergrund eine SQL Datenbank benutzt, können Wartungsdaten leicht importiert und zu anderen Systemen, wie z.B Inca, exportiert werden. Nach der Produktivführung von DMOS wird ein Adaptor für Inca entwickelt werden, sodass zukünftig Wartungen mit der feinen Granularität des Services-Levels (bisher konnten nur ganze Systeme als „in Wartung“ angezeigt werden) in Inca angekündigt werden können. Das LRZ leitete die Untersuchung des neuesten Globus Releases GT5 auf seine Eignung zum Produktionseinsatz in DEISA. Das LRZ führte für DEISA-Benutzer Globus-Schulungen in Edinburgh und in London durch. Außerdem beteiligt sich das LRZ an den Aktivitäten im Bereich von Remote Visualization, Cloud-Computing und Virtualisierung sowie zur Evaluierung von Monitoring-Tools. Viel zusätzliche Funktionalität wurde in das PTP Framework eingebaut. Die in 2009 entdeckten Sicherheitslöcher konnten geschlossen werden. Unterstützung für das DEISA Common Production Environment (DCPE) wurde eingebaut; UNICORE und das Performance-Analyse tool Paraver wurden eingebunden und getestet. Im Rahmen des WP9, „Enhancing Scalability“, wurde anhand des Quanten-Chromodynamic-Codes BQCD die Skalierbarkeit und Performanz eines Hybrid-Codes untersucht. Dazu wurden mehrere DEISAMaschinen wie IBM BlueGene/P, CRAY und SGI Altix verwendet. Zusätzlich wurden in 2010 Beschleunigerkarten (GPGPUs) auf Ihre Eignung untersucht und mit den Ergebnissen vom Vorjahr verglichen, um ihre Auswirkungen auf Perfomance und Skalierbarkeit zu verstehen. Die Grid- und HPC-Enabling Arbeiten für die Projekte aus dem aktuellen DECI-6-Call werden erstmals von allen DEISA Sites mit dem in 2009 vom LRZ entwickelten und in DEISA etablierten EnablingArbeitsablauf verfolgt und gemanagt. Die HPC-Applikationen der Projekte AirFloPS, CatTIO2, COSUF, DiParTs, DNArecog, GlobUS, MeMGenA und PaRAdiSE wurden mit Home-Site LRZ in DEISA akzeptiert und vom LRZ betreut. Zusätzlich wurden für das Projekt DyBHo, mit Home-Site BSC und Execution-Site LRZ, die Portierungs- und Enablingarbeiten übernommen. Im Rahmen der DEISA Extreme Computing Initiative (DECI) wurden 12 Projekte am LRZ betreut. Für den DECI-Call 2010 wurden über das LRZ 11 Projekte eingereicht, von denen 8 akzeptiert und betreut wurden. Die Koordinierung der führenden europäischen Höchstleistungsrechenzentren zur gemeinsamen Abwicklung der ehrgeizigen Ziele einer verteilten europäischen Höchstleistungs-Rechnerinfrastruktur erfordert regelmäßige Management-Treffen des DEISA-Exekutivkomitees. Diese fanden als Telefonkonferenzen statt. Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) 82 2.6.3 PROSPECT e.V. PROSPECT ist ein im Umfeld von PRACE gegründeter Verein zur Förderung des Höchstleistungsrechnens unter Einbeziehung von Wissenschaft, Wirtschaft und Herstellerfirmen. Der Verein wurde gemeinsam vom Barcelona Supercomputing Centre, dem Forschungszentrum Jülich und dem LRZ gegründet und umfasst inzwischen europaweit über fünfzig institutionelle Mitglieder. Arndt Bode vertritt das LRZ im Vorstand des Vereins. Der Fokus der Arbeiten in PROSPECT lag im Berichtsjahr auf den Themen „European OFS“ und „European Technology Platform (ETP) for HPC“. Für die Verbreitung und Weiterentwicklung von Open Source Dateisystemen in Europa (u. A. Lustre) sowie die Berücksichtigung von speziellen Belangen europäischer Nutzer und Hersteller soll eine European Cooperative Society (SCE) for OFS gegründet werden. Das LRZ ist durch Herrn Biardzki im Lenkungsausschuss der geplanten "European OFS Cooperative SCE" vertreten. Viel Engagement von PROSPECT e.V. Mitgliedern floss in strategische Überlegungen zur Gründung einer ETP für HPC, welche zukünftig die Belange von europäischen HPC-Nutzern bei der EU entsprechend vertreten soll. 2.6.4 KONWIHR 2.6.4.1 OMI4papps Im Rahmen des durch das Bayerische Staatsministerium für Wissenschaft, Forschung und Kunst geförderten Kompetenznetzwerkes für Hoch- und Höchstleistungsrechnen in Bayern (KONWIHR-II, Sprecher: Arndt Bode) erfolgten am LRZ innerhalb des Projektes „OMI4papps: Optimierung, Modellierung und Implementierung hoch skalierbarer Anwendungen“ folgende Aktivitäten: • Analyse der Performance und Anwendbarkeit neuer Programmiersprachen/-paradigmen für hochparallele Systeme • Beurteilung von neuen Hardware-Architekturen, insbesondere von Beschleuniger-Systemen mit CELL Prozessoren, Grafikkarten und Intels neuem Knights Ferry Chip • Evaluierung der Entwicklungsumgebungen RapidMind, HMPP ("Hybrid Multicore Parallel Programming Workbench“) und des PGI Accelerator Compilers, die eine einfache Programmierung von GPGPUs ermöglichen • Beta-Test von Intels neuer datenparalleler Programmiersprache "Intel Array Building Blocks" (ArBB) • Arbeiten zur synthetischen Performance-Modellierung wissenschaftlicher Applikationen • Erweiterung der Benchmarksuite des LRZ • Erweiterung des Kursangebots des LRZ im Bereich neuer Programmiersprachen und GPGPUProgrammierung. Im Juni fand der KONWIHR Review-Workshop statt, bei dem OMI4papps um ein weiteres Jahr verlängert werden konnte. 2.6.4.2 KONWIHR Software Initiative Im Rahmen der KONWIHR Software Initiative wurden vom LRZ drei Projekte unterstützt. Ziele der Initiative war es, neue Benutzer an das Hochleistungsrechnen heranzuführen. Das LRZ unterstützte die Benutzer hierbei bei der parallelen Implementierung von Submodulen aus dem Bioconductor Paket für verschiedene Architekturen wie SMP, MPP und GPGPU. Die Pakete umfassen Sequence Alignment (global und lokal) und teilweise überlappendes Alignment von DNA- und Protein-Sequenzen. Ein weiteres Projekt beschäftigte sich mit der Implementierung von Entscheidungsbäumen auf verschiedenen parallelen Architekturen für genom-weite Studien. Das dritte Projekt erforschte die Implementierung von Kreuz-Validierungs- und Normalisationsalgorithmen für hoch-dimensionale Micro-Array-Datensätze. Hierbei wurden rechenintensive Klassifikationsalgorithmen auf mehrere hundert Prozessoren skaliert. Jahresbericht 2010 des Leibniz-Rechenzentrums 83 2.6.5 ISAR Innerhalb des BMBF-Projektes ISAR (Integrierte System- und Anwendungsanalyse für massivparallele Rechner) wurde durch das LRZ der Prototyp eines Monitoring-Tools (PerSyst Monitoring) installiert. Mit dem Tool lassen sich Engpässe auf Systemebene, wie z. B. Jobs mit schlechter Performance, detektieren. Für die Implementierung von PerSyst Monitoring wurden das Agentensystems, die Properties sowie die Suchstrategien von Periscope (innerhalb von ISAR weiterentwickeltes automatisches LeistungsanalyseTool auf Anwenderebene der TUM) an die systemweite Leistungsanalyse angepasst. Wesentlich bei der Implementierung war die Gewährleistung der weiteren Nutzung der von den Administratoren und Benutzern am LRZ eingesetzten Anwendungen, die auf den bisherigen Monitoring-Tools basieren. Für die Abspeicherung der gemessenen Daten sowie der berechneten Eigenschaften in einer MySQL-Datenbank wurde vom LRZ adäquate Hardware bereitgestellt. Die graphische Darstellung der Ergebnisse realisiert der GridMonitor der Firma ParTec, die ein Industriepartner innerhalb des ISAR-Projektes ist. Eine Vorstellung von PerSyst Monitoring erfolgte innerhalb des Status-Treffens der Gauß-Allianz „Competence in High Performance Computing“ (CiHPC) in Schwetzingen (22.-24. Juli 2010). 2.6.6 EU Projekt Scalalife Im März 2010 wurde der Antrag für das Projekt Scalalife im Rahmen des FP7 Calls der EU genehmigt. Das Projekt soll die Grundlage für eine e-Infrastruktur im Bereich Life Science in der EU schaffen. Das LRZ hat hierbei die Leadership-Rolle für ein Workpackage übernommen und wird Dienste entwickeln, die anspruchsvolle Hochdurchsatzrechnungen von numerischen Simulationen auf europäischer Ebene ermöglichen. Speziell ist das LRZ für die Installation und die Validierung der Software zuständig und soll Benutzer an Maschinen der Petaflop-Klassen heranführen. Das Projekt hat eine Laufzeit von drei Jahren. 2.6.7 Beteiligung an Workshops Im Rahmen des Jülich Blue Gene/P Extreme Scaling Workshop 2010 (22.-24.3.) konnte ein Mitarbeiter das komplette Blue Gene/P System für BQCD-Tests benutzen und hat erreicht, dass das Quantenchromodynamikprogramm BQCD auf 294.912 Cores skalierte. Im Herbst 2010 wurde ein Projekt bei den "Grands Challenges CINES 2010" in Frankreich submittiert. Im Rahmen von Benchmark-Läufen auf dem neuen dortigen ICE Rechner wurde das Projekt akzeptiert und die Ergebnisse sind veröffentlicht („Combining MPI with OpenMP Parallelism in Large Scale QCD Simulations“). Auf einem Workshop in Leogang/Österreich zum Thema "Understanding the Parallel Behavior of Modern Parallel CFD Applications" berichtete das LRZ über die Analyse des Skalierungsverhaltens und über eine Verbesserung des Mehrgitterverfahrens in OpenFOAM, einer modernen und weit verbreiteten Open Source CFD Anwendung. Zusammen mit den Jülicher Kollegen wurde im Frühjahr der „5th VI-HPS Tuning Workshop” organisiert; Thema des Workshops waren Tools zur Skalierungs- und Parallelisierungsanalyse, wie Scalasca, VampirNG und Marmot. 2.7 Tätigkeiten im Server-Betrieb Der Hauptanteil der Tätigkeiten im Bereich der Server-Dienste beruhte auch im Jahr 2010 auf der Aufrechterhaltung eines stabilen Betriebs. Trotz steigender Serverzahlen sind auch in diesem Jahr keine nennenswerten Dienstunterbrechungen zu vermelden. 2.7.1 Linux-Serversysteme Zur Aufrechterhaltung eines stabilen Betriebs von Linux-Systemen bewährt sich nach wie vor der für das Leibniz-Rechenzentrum entwickelte Software-Installations- und Update-Mechanismus. Die Eigenentwicklung bietet den Vorteil, zeitnah auf individuelle Anforderungen reagieren zu können. Gerade im Bereich der Linux-Server gleicht kaum eine Installation der anderen. 84 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) Tagtäglich geschehen dynamische Veränderungen der LRZ-Dienste. Parallel dazu sind zum Betrieb aktueller Dienstsoftware Upgrades auf neuere Betriebssysteme notwendig. Wenn ältere Versionen nicht mehr vom Distributor unterstützt werden, betrifft der Betriebssystem-Upgrade zahlreiche Server. Die zugrunde liegende physische Hardware besteht aus verschiedensten Servermodellen. Deren Vielfalt ergibt sich nicht nur durch unterschiedliche Ansprüche beim Einkauf, sondern auch aufgrund Überlappung der jeweiligen Nutzungsdauer, teils über vier Generationen, d.h. Beschaffungsphasen hinweg. Erst durch die in 2009 erfolgte Beschaffung von Server-Blades als Grundlage für den VirtualisierungsCluster, der ab Mitte 2010 in Produktionsbetrieb übergeführt wird, entsteht ein gewisses Maß an Homogenisierung. Somit existieren Administrationsvorteile analog zu den Pools gleicher Hardware im Bereich des Linux-Clusters, des HLRB II oder z.B. der Linux-Desktops bei den Mitarbeiter-Arbeitsplätzen. Die Zeitvorteile durch Homogenisierung werden allerdings bei gleichbleibendem Personalstand durch die rapide steigenden Zuwachszahlen an Linux-Servern nicht nur egalisiert, sondern ins Gegenteil verschoben. Das Jahr 2010 ist deshalb geprägt von der Planung und teilweisen Einführung notwendiger Prozesse zur Inbetriebnahme und Verwaltung von Linux-Servern und der Konkretisierung des sog. Dienstleistungskatalogs inklusive Aufstellung einer Verhaltensrichtlinie (Policy) für Linux-Nutzer. Ein wichtiges Beispiel ist die, bereits Ende 2009 angekündigte Einführung automatischer Linux-KernelUpdates. Letztere ziehen einen Server-Reboot und somit eine zumindest kurzzeitige Dienstunterbrechung nach sich. Auf Wunsch kann eine Vorwarnzeit (in Tagen) eingerichtet werden. Seit 1. Juni 2010 liegt die Verantwortung beim Dienstadministrator, wenn Kernel-Updates ausgesetzt werden sollen. Eine individuelle Absprache zwischen Dienst- und Systemadministrator, die zuvor für jeden einzelnen Server getroffen werden musste, entfällt. Zur Dokumentation dient das Webinterface des LRZmonitor. In gewohnter Weise lassen sich sämtliche Routinen – auch für den Kernel-Update – halbautomatisch, d.h. bequem durch manuellen Aufruf starten. Parallel zum Ausbau der virtuellen Infrastruktur bleibt ein gewisser Grundbedarf an physischer Hardware erhalten. Hierzu zählen z.B. Dienste, die die virtuelle Umgebung managen, deren Aufstellungsort abseits der virtuellen Infrastruktur liegt, die einen hohen Anspruch auf Autonomie besitzen oder eine hohe Bandbreite benötigen. Aus den genannten Gründen wurden im Dezember 2010 insgesamt 18 Server von der Fa. DELL eingekauft. Neben 2 Modellen mit der Bezeichnung DELL PowerEdge R710 (2 HE), geplant als OracleDatenbank-Server, wurden 16 Modelle mit der Bezeichnung DELL PowerEdge R610 (1 HE) beschafft. Mit einer Ausnahme von 96 GByte RAM für den LRZ-Accounting-Dienst, sind alle übrigen Server mit 24 GByte RAM bestückt. Während für die R710-Modelle aus Oracle-Lizenz-Gründen nur eine CPU verbaut ist, besitzen alle anderen Server jeweils zwei 6-Core-CPUs von Intel. Mit aktiviertem Hyperthreading ergeben sich somit 24-fach SMP-Systeme. Das Einsatzgebiet der neuen R610-Server ist die Auslagerung als DNS- und DHCP-Server zur TUM und LMU in die Innenstadt, sowie die Verbringung nach Weihenstephan. Weitere zwei Server werden aus Homogenitätsgründen für DNS-/DHCP und als Testmaschine LRZ-intern genutzt. Sieben R610-Server (Accounting, Secomat, Snort-IDS usw.) dienen dem künftigen Netzmonitoring und besitzen deshalb eine zusätzlich eingebaute Karte mit 10-GbE-Dual-Ports für LC-Verkabelung. Zwei R610-Server unterstützen die VoIP-Telefonanlage, zwei sind als zentrale Basis für das künftige LRZMonitoring eingeplant. 2.7.1.1 Virtualisierung am LRZ Die stetige Virtualisierung physischer Systeme setzte sich auch im Jahr 2010 fort. Gegen Ende des Jahres bestand noch für etwa 76 physische Server mit Betriebssystem SuSE-Linux Virtualisierungspotential. Jahresbericht 2010 des Leibniz-Rechenzentrums Hauptgruppe SGI Altix Linux-Cluster Grid Server HSS Server BSB + BVB Server Server Basisdienste Kurs-Cluster MitarbeiterArbeitsplätze 85 Untergruppe Hlrb2 Div Ice Lx64a Lx64e Lx64i Lx64s Lxe Lxlcg Lcg Grid Hss Bsb Bvb Misc Net Mail Web Sql Edir Dat Cons Gmm Ext Kurs Beschreibung Höchstleistungsrechner HLR-Test- u. Spezialsysteme ICE-Testsystem Opteron-Clusterknoten EM64T-Clusterknoten Itanium-Clusterknoten Cluster-Management LMU Physik-Cluster LCG-Server-Blades LCG-Manage- u. DCache-Knoten Grid-Dienste Hochschulstart.DE-Dienst BSB-Dienste BVB-Dienste Verschiedene Dienste Netzdienste Mail-Server Web-Server Datenbank-Server e-Directory-Dienste Daten- und Archiv-Dienste Konsol- und Leitwartenserver Grafik- und Multimedia-Dienste Server-Hosting Kurs-Clusterknoten User Büro- und Telearbeitsplätze Gesamtanteile Virtualisierungsanteil 7% 2/27 ≈ 0% 0/6 ≈ 0% 0/66 ≈ 0% 0/360 ≈ 0% 0/345 ≈ 0% 0/3 ≈ 75% 28/37 ≈ 7% 1/14 ≈ 0% 0/27 ≈ 17% 12/67 ≈ 92% 60/65 ≈ 90% 77/85 ≈ 46% 30/65 ≈ 22/22 ≈ 100% 72% 48/66 ≈ 36% 20/55 ≈ 48% 17/35 ≈ 41% 21/51 ≈ 77% 14/18 ≈ 85% 53/62 ≈ 12% 10/83 ≈ 3% 1/33 ≈ 22% 4/18 ≈ 68% 17/25 ≈ 57% 12/21 ≈ Erreichte Zielsetzung 2/2 ≈ 100% 28/28 ≈ 100% 1/1 ≈ 100% 12/12 ≈ 100% 92% 60/65 ≈ 77/77 ≈ 100% 30/30 ≈ 100% 22/22 ≈ 100% 94% 48/51 ≈ 86% 20/23 ≈ 48% 17/35 ≈ 44% 21/47 ≈ 14/14 ≈ 100% 85% 53/62 ≈ 10/10 ≈ 100% 1/1 ≈ 100% 50% 4/8 ≈ 68% 17/25 ≈ 12/12 ≈ 100% 4% 4/4 ≈ 100% 4/91 ≈ 453/1747 ≈ 26% 453/529 ≈ 86% Tabelle 28: Anteil virtueller gegenüber physischer Linux-Systeme Ende 2010 Nachdem im Vorjahr mit der Beschaffung einer größeren Infrastruktur der Grundstein für Virtualisierung am LRZ gelegt worden war, stand im Jahr 2010 das Thema Hosting virtueller Maschinen im Vordergrund. Ziel des Vorhabens ist es, neben der Virtualisierung von LRZ-internen Systemen, die bereits zu massiven Einsparungen an physischen Servern führte, auch anderen Großnutzern die Möglichkeit zu geben, virtuelle Maschinen gegen Gebühr in der „LRZ-Cloud“ zu betreiben. Unter diesem Aspekt wurde das vorhandene VMware-Cluster von 32 auf nunmehr 64 Knoten verdoppelt, so dass mittlerweile 4,6 TB Hauptspeicher und 512 Rechenkerne für Virtualisierungsprojekte zur Verfügung stehen. Mit dem Projekt „Hochschulstart.de“ konnte ein weiterer großer Kunde für den Virtualisierungsdienst gewonnen werden und ein zusätzliches, separiertes Cluster mit 28 Systemen aufgebaut werden. Aktuell betreibt das LRZ auf diesen Clustern bereits über 800 VMs – Tendenz stark steigend. Neben den Erweiterungen der Hardware, die schon allein aufgrund der hohen LRZ-internen Virtualisierungsquote notwendig wurde, lag der Focus im Jahre 2010 auf dem Design von Prozessen zum Betrieb des geplanten Hosting-Szenarios sowie ersten prototypischen Implementierungen eines Webshops und eines automatisierten Verfahrens zur Bereitstellung von bestellten virtuellen Maschinen. Der Webshop wurde von Mitgliedern der ITSM- und Virtualisierungs-Gruppen des LRZ in Zusammenarbeit mit iET Solutions geplant und wird zurzeit von iET Solutions, dem Hersteller der im letzten Jahr erworbenen ITSM-Suite, implementiert. Dieses Projekt erweist sich aufgrund der noch nicht implementierten CMDB (Konfigurations-Management-Datenbank) sowie diversen Designeinschränkungen seitens der ITSM Suite als etwas kompliziert und langwierig, so dass mit funktionalen Ergebnissen frühestens im ersten Quartal 2011 gerechnet werden kann. Gut voran kam hingegen ein selbst entwickelter Algorithmus zur automatischen Provisionierung von virtuellen Maschinen. Der Algorithmus ermöglicht es, bestellte virtuelle Maschinen aus einer Datenbank abzufragen, eine entsprechende virtuelle Maschine nach den Vorgaben des Bestellers auf dem Cluster zu instanziieren und diese durch ein ebenfalls vollautomatisiertes Installationsverfahren mit einem gewünschten Betriebssystem zu versehen. Zu einem funktionierenden Gesamtsystem, das als Dienst des LRZs nach den Vorgaben des ISO/IEC 20000 Standards betrieben werden soll, fehlt jedoch noch die endgültige Anbindung an die CMDB, welche zu diesem Zweck momentan um diverse Funktionalitäten wie etwa IP-Adressverwaltung und den genannten Webshop erweitert wird. 86 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) Zwei weitere Aspekte, die im laufenden Jahr fast zwangsläufig im Kontext des Hostingprojekts behandelt werden mussten, sind die Themen Monitoring und Security. Da die Verfügbarkeit einer virtualisierten Umgebung aufgrund der vielen involvierten Subdienste, wie zum Beispiel physische Server, Netz und Storage, neben der eigentlichen Virtualisierungsschicht auch stark von diesen Komponenten abhängt, wird ein Dienste-übergreifendes Monitoring notwendig, welches aktuell im Rahmen von zwei Bachelorarbeiten implementiert wird. Weiterhin wurden neue Firewall-Lösungen für virtualisierte Infrastrukturen evaluiert, um die gehosteten Maschinen zuverlässig voneinander isolieren zu können sowie ein erstes Konzept zur Realisierung eines sicheren und mandantenfähigen Management-Portals im Web erarbeitet. Abbildung 40: Entwicklung und Nutzung der LRZ-Virtualisierungsumgebung 2.7.1.2 PCs unter Linux als Mitarbeiter-Arbeitsplätze Im Bereich der Mitarbeiter-Arbeitsplätze gab es 2010 wenige Änderungen. Ab April 2010 fand der Upgrade des verwendeten Betriebssystems „Novell/SuSE Linux Enterprise Desktop“ von Version 10 ServicePack 2 auf ServicePack 3, kurz bezeichnet als „SLED-10.3“, statt. Ende 2010 wurde wegen zu hektischer Upgrade Zyklen der Umstieg auf die neueste Version „openSUSE 11.3“ vorbereitet. Ende Dezember begann die Verteilung der neuen OpenSource-Software auf die Mitarbeiter-Arbeitsplätze. Neben der Softwareumstellung werden sukzessive veraltete PCs der Modellreihe „DELL OptiPlex GX620“ durch neue „DELL OptiPlex 980“ ersetzt, von denen Mitte 2010 insgesamt 25 Stück für den Einsatz als Linux-Arbeitsplatz beschafft wurden. Jahresbericht 2010 des Leibniz-Rechenzentrums 2.7.1.3 87 Zuwachs von Linux-Hosts im Leibniz-Rechenzentrum 1800 1700 SGI Altix 1600 Linux-Cluster 1500 Mitarbeiter-Arbeitsplätze Kurs-Cluster 1400 BSB + BVB Server 1300 Grid Server 1200 HSS Server 1100 Server Basisdienste 1000 Virtuelle Hosts 900 800 700 600 500 400 300 200 100 0 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 Abbildung 41: Anzahl der Linux-Hosts im Leibniz-Rechenzentrum 2.7.1.4 Betriebsüberwachung Im Bereich der Betriebsüberwachung gab es 2010 wenig nennenswerte Änderungen gegenüber dem Vorjahr. Erwähnenswert ist die Einführung eines weiteren sog. Überwachungssatelliten (siehe zur Begriffsklärung den Jahresbericht 2009) im Rahmen des Hochschulstart.DE-Projekts. Auf diesem kommt die lizenzpflichtige Monitoring-Software „up.time“ zum Einsatz. Im Herbst 2010 fand für mehrere Mitarbeiter eine hausinterne Schulung zur Bedienung von „Tivoli Netcool/OMNIbus“ statt. Die Umstellung von „HP OpenView“ auf „Tivoli Netcool/OMNIbus“ verzögert sich aufgrund unerwartet hohen Personalaufwands zur Kundenbetreuung für das Linux-Server-Hosting. 2.8 Aktivitäten im Bereich „Verteilte Ressourcen“ Die Arbeiten im Bereich Grid-Computing erfordern ein breit gefächertes Know-how und werden deshalb von den Abteilungen Kommunikationsnetze, Hochleistungssysteme und Benutzernahe Dienste und Systeme gemeinsam durchgeführt. Als abteilungsübergreifende Einrichtung war und ist der Arbeitskreis Grid Computing (AK-Grid) maßgeblich an der Koordinierung der verschiedenen Grid-Projekte (D-Grid, DEISA-2, PRACE, LCG Tier-2, EGI, IGE, LRZ-Grid, Grid Aktivitäten an LMU und TUM) innerhalb des LRZ und im Münchner Raum beteiligt, hilft Synergien auszunutzen und Doppelarbeit zu vermeiden. Darüber hinaus widmete sich der AK-Grid in 2010 verstärkt dem Thema „Cloud-Computing“. Bis zu 10% der HLRB II-Rechenleistung sowie ein nicht unerheblicher Teil der Rechenleistung unseres Linux Clusters werden über Grid-Middleware von den Wissenschaftlern in Deutschland und Europa abgerufen. Das LRZ ist aktiv an den nationalen und internationalen Grid-Projekten „Initiative for Globus in Europe – IGE“, „European Grid Initiative - Integrated Sustainable Pan-European Infrastructure for Researchers in 88 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) Europe – EGI-InSPIRE“, „Distributed European Infrastructure for Supercomputing Applications DEISA2“, „Partnership for Advanced Computing in Europe, 1st Implementation Phase - PRACE-1IP“, den D-Grid-Projekten DGI2, SLA4D-Grid sowie DGSI, LHC-Grid (LCG) und „e-Infrastructure Reflection Group Support Programme 3 (e-IRGSP3)" beteiligt. Dabei hat das LRZ bei IGE erstmalig die Führungsrolle in einem europäischen Projekt übernommen. Im Folgenden beleuchten wir einige der in den Grid-Projekten durchgeführten Arbeiten ausführlicher. 2.8.1 Initiative for Globus in Europe (IGE) Die Gruppe VER initiierte 2010 das EU-Proposal „Initiative for Globus in Europe (IGE)“, um die Belange der europäischen Benutzer stärker in dieser führenden Grid-Middleware zu repräsentieren. Dazu integriert IGE zehn europäische Partner sowie die University of Chicago, die die zentrale Globus Codebasis pflegt. IGE will hauptsächlich koordinierend eingreifen und die europäischen Wünsche bündeln und abstimmen, um sie dann mit einer gewichtigen Stimme gegenüber den anderen Globus-Entwicklern vorzutragen. Durch IGE soll Globus, das sich in Europa einer breiten Benutzerschaft erfreut, bisher aber keine europäische Lobby hatte, in die europäischen Grid-Projekte, allen voran die European Grid Initiative (EGI), getragen werden. Durch Zentralisierung von Funktionen wie Test, Zertifizierung, Training, Support, etc., bei IGE kann Europa durch Synergieeffekte den Aufwand verringern und den Service für die Benutzer verbessern. Die wichtigsten Ziele des Projekts sind: • Koordination europäischer Globus Aktivitäten • Europäischen Input gebündelt an die Globus Alliance liefern • Für Europa wichtige Erweiterungen sollen in den Globus Quellcode einfliessen • Adaptoren für in Europa häufig benutzte Stapelverarbeitungssysteme wie LL, NQS2, ... bereitstellen • Als Globus-Dienstleister für europäischen Grids wie DEISA, PRACE und EGI arbeiten • Die Softwarequalität der Globus Middleware beurteilen • Verbesserung von Standardisierung, Training und Dokumentation von Globus • Ausrichten der Globus Europe Konferenz und des europäischen Globus Community Forums • Bereitstellung eines Spiegelservers für globus.org in Europa zur Redundanzerhöhung • Aufsetzen eines europäischen Globus metrics, um den strengen europäischen Datenschutzrichtlinien zu genügen • Unterstützung für Interoperabilität von Grid Middleware (BES, SAML, JSDL, LCAS, etc.) • Bereitstellung einer Web-Präsenz: http://www.ige-project.eu/ • Erstellen binärer Distributionen für die in Europa wichtigen Betriebssysteme AIX, SuSE, Debian, Fedora, etc. Die „Initiative for Globus in Europe – IGE“, begann offiziell am 1. Oktober 2010 und startete kurz darauf mit einem Kick-Off Treffen am LRZ. Sie stellt für das internationale Globus Projekt den Brückenkopf in Europa dar. IGE liefert die Globus Middleware für die europäischen Grid Infrastrukturen wie EGI, DEISA, PRACE, etc., und bietet neben Benutzerunterstützung und Training auch Anpassungen von Globus an europäische Bedürfnisse an. Dieses Projekt stärkt die Rolle Europas und natürlich auch des LRZ in Globus, dem weltweit führenden Middleware-Projekt. Auf der jährlich stattfindenden GridKa Summer School in Karlsruhe wurde das vom LRZ im Rahmen von IGE organisierte Globus-Training zum besten Training gewählt. 2.8.2 D-Grid: Förderung „e-Science und vernetztes Wissensmanagement“ des BMBF Im Rahmen von D-Grid nahm das LRZ 2010 an vielen Workshops und Treffen teil. In den kommenden Jahren wird das D-Grid Teil eines größeren, europäischen Verbunds, der European Grid Initiative (EGI) dort vertreten durch NGI-DE (National Grid Initiative - Deutschland). Jahresbericht 2010 des Leibniz-Rechenzentrums 2.8.2.1 89 D-Grid Integrationsprojekt (DGI) Als Rechenzentrum, und damit als Ressourcenanbieter, war das LRZ vorrangig am sogenannten D-Grid Integrationsprojekt (DGI, Laufzeit Jan. 2008 bis Dez. 2010) beteiligt. Aufgrund langjähriger guter Kontakte zu HPC-Benutzern aus Astro- und Hochenergiephysik trat das LRZ aber auch als assoziierter Partner der Astrophysik- und der Hochenergiephysik-Community auf und beteiligte sich an deren Arbeitstreffen. Außerdem ist zur Vertretung der Globus-Ressourcen-Anbieter ein Mitarbeiter des LRZ im Technical Advisory Board (TAB) des D-Grid vertreten. Das LRZ stellt im verteilten Kompetenzzentrum Middleware (Fachgebiet 1) vielfältiges Know-how für die Unterstützung von Benutzern und Ressourcenanbietern bezüglich Globus bereit. Auf den Produktionssystemen des LRZs wurde Globus von GT4.0.8 auf GT5.0 angehoben. Aufgrund der stürmischen Entwicklung des Globus Toolkits wurde im D-Grid beschlossen, die Version GT4.2 zu überspringen und direkt auf GT5 zu migrieren. Für einen Übergangszeitraum von 6 bis 12 Monaten sollen im D-Grid beide Globus Versionen parallel betrieben werden, da sie nicht 100% kompatibel sind. Nach Ende der Übergangsphase soll dann vollständig auf GT5 migriert werden. Ein schwerwiegender Fehler in GT5, der durch Tests des LRZs offensichtlich wurde, verzögerte jedoch die Einführung von GT5. Im Rahmen des DGI-Fachgebiets 2-3 hat das LRZ Ressourcen für D-Grid angeschafft und betrieben und zentrale Dienste bereitgestellt. Die im Rahmen der D-Grid-Sonderinvestitionen im Herbst 2008 angeschafften Serversysteme (zwei Serversysteme Sunfire X4600) zur Remote-Visualisierung sowie die dazu notwendige Software (AVS, Amira/Avizo, IDL) wurden für das D-Grid betrieben. Das LRZ hat die Ressourcen, die im Rahmen früherer Sonderinvestitionen beschafft wurden, weiterbetrieben und für das DGrid verfügbar gemacht. Im Jahr 2010 wurden auf diesen Ressourcen fast 3,4 Mio. Jobs submittiert, die ca. 5,8 Mio. CPUh verbraucht haben. Der Speicherplatz im dCache-Pool belief sich auf ca. 500 TByte. Als zentrale Dienste für D-Grid hat das LRZ Grid-Monitoring mittels der Werkzeuge MDS, WebMDS, GridCSM, D-MON und Inca sowie den zentralen MyProxy-Server zur Authentisierung der Nutzer betrieben. Es wurde intensiver Globus-Support für alle Communities, allen voran die Astro-Community, geleistet. Da der Förderzeitraum für DGI-2 Ende 2010 endete, wurde im Herbst zusammen mit den NGI-DE Partnern ein Antrag für eine zwei-jährige Anschlussförderung beim BMBF eingereicht. 2.8.2.2 DGSI Das D-Grid-Gap-Projekt „D-Grid Scheduler Interoperability“ (DGSI) konzipiert und entwickelt eine Interoperabilitätsschicht für Scheduling in Service Grids, die es Benutzern einer Community erlaubt, Arbeitslast auf Ressourcen einer anderen Community zu verlagern. Im September 2010 richtete das LRZ ein All-Hands-Meeting von DGSI am LRZ aus. LRZ-Mitarbeiter beteiligten sich an unzähligen Telefonkonferenzen und brachten den LRZ Standpunkt ein. Das LRZ ist als Leiter von Task 4 für die „Anbindung lokaler Resource Management-Systeme“ verantwortlich. Im Rahmen dieses Tasks stetzte das LRZ ein Testbed mit GT4.0.8 und einer SGE Instanz auf. Es wurden Interfaces zu den in Task 3 entwickelten Komponenten implementiert, sodass nun eine einheitliche Verbindung auch zu verschiedenen Batch Systemen möglich ist. Das LRZ ist an insgesamt drei Arbeitspunkten im Projekt beteiligt und hat an mehreren Projektberichten mitgearbeitet. 2.8.2.3 SLA4D-GRID Das D-Grid-Projekt “Service Level Agreements for D-Grid” (SLA4D-GRID) entwirft und realisiert eine Service Level Agreement-Schicht (SLA-Schicht) für das D-Grid. Diese Schicht zur Vereinbarung einer festgelegten Dienstgüte bietet einzelnen Benutzern, ganzen D-Grid Communities, sowie den Anbietern von D-Grid-Ressourcen die Gewährleistung der Ressourcennutzung unter wirtschaftlichen Bedingungen. In 2010 gab es drei Projekttreffen, an denen sich auch das LRZ beteiligte; ein Treffen wurde vom LRZ ausgerichtet und im Anschluss an die an der LMU stattfindende OGF-28 Konferenz in den Räumen der LMU in München abgehalten. Das LRZ promotete D-MON, eine LRZ Eigenentwicklung im MonitoringBereich, und lieferte ein Konzeptpapier, das die mögliche Verwendung von D-MON in SLA4D-GRID aufzeigt sowie Auswahlkriterien für ein Monitoringsystem bereitstellt. Vom LRZ wurde ein Testbed mit sechs Servern aufgesetzt. Für Globus, UNICORE und gLite steht jeweils ein Server zur Verfügung. Gemeinsam für alle Middlewares gibt es einen Speicher-Server, einen Monitoring-Server und einen Batch- 90 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) Server. Die Installation des Speicher-Servers mit GridFTP erleichterten Installationspakete von IGE (siehe Abschnitt 2.8.1). 2.8.3 EGI-InSPIRE Mit der Beteiligung an EGI-InSPIRE, das am 1. Mai startete, spielt das LRZ nun auch eine wesentliche Rolle in der zweiten großen europäischen e-Infrastruktur: EGI. Zusammen mit der Beteiligung an PRACE-1IP (ab 1.7. 2010) und DEISA2 fällt damit dem LRZ eine wichtige Funktion für die Integration der Infrastrukturen zu, an der auch in 2010 mit Hochdruck gearbeitet wurde. Im Projekt EGI-InSPIRE beteiligt sich das LRZ in den Arbeitspaketen zum Entwurf der notwendigen Policies und zur Definition der Grid-Management-Infrastruktur auf europäischer Ebene. Es arbeitet mit am verlässlichen Betrieb der Grid-Dienste, die von der deutschen Grid-Infrastruktur der EGI zur Verfügung gestellt werden. Darüber hinaus leistet das LRZ den europaweiten 2nd-Level-Support für das Globus Toolkit im Rahmen der Deployed Middleware Support Unit (DMSU). 2.8.4 MAPPER Das in 2010 neu gestartete EU-Projekt MAPPER (Multiscale Applications on European e-Infrastructures, http://www.mapper-project.eu/) konzentriert sich darauf, die für die Forschung immer wichtiger werdenden multi-scale Systeme, die mehrere wissenschaftliche Gebiete (etwa Fluiddynamik, Strukturmechanik und Chemie der Verbrennungsvorgänge) involvieren, effizient auf die europäischen Infrastrukturen wie EGI und PRACE abzubilden. Diese multidisziplinären, multi-scale Systeme erfordern zu ihrer Simulation höchste Rechenleistung. MAPPER wird Algorithmen, Software und Services für diese Unterfangen entwickeln und die besonderen Anforderungen (wie etwa advance reservation und co-scheduling) mit einer gewichtigen Stimme in die Infrastrukturen hineintragen. Das LRZ ist hier als Partner der LMU, einem der MAPPER-Partner, beteiligt und wird Hardware und Software beisteuern sowie das Projekt umfassend unterstützen; so ist z.B. das MAPPER All Hands Meeting für 2011 am LRZ geplant. 2.8.5 e-Infrastructure Reflection Group Support Programme 3 (e-IRGSP3) Die e-Infrastructure Reflection Group (e-IRG) ist ein Beratergremium der EU, das Empfehlungen zu Best Practices für europäische e-Infrastrukturen ausspricht. Das Gremium setzt sich aus jeweils zwei Delegierten der Regierungen aller EU-Staaten zusammen. Es erstellt Weißbücher, Fahrpläne und Empfehlungen und analysiert die zukünftigen Grundlagen der europäischen Wissensgesellschaft. Dieses Beratergremium wird durch das auf drei Jahre angelegte Projekt „e-Infrastructure Reflection Group Support Programme 3 (e-IRGSP3)" in seiner Arbeit unterstützt. Das LRZ leitet in diesem Zusammenhang das Arbeitspaket "Policy Support", das unter anderem die bestehenden Policies analysiert und die Erstellung der Policy-Dokumente (Weißbücher, Fahrpläne, etc.) vorbereitet, koordiniert und publiziert. Da das Projekt erst im Dezember startete, fanden 2010 neben einem Kickoff-Meeting nur erste koordinierende Tätigkeiten statt. 2.8.6 Tier-2-Zentrum des Large Hadron Collider Computing Grids (LCG) Das derzeit weltgrößte Teilchenphysikexperiment „Large Hadron Collider“ am CERN steigerte in 2010 die Energie der Teilchenkollisionen. Bei den Experimenten der bedeutenden Wissenschaftsprojekte am CERN entstehen gewaltige Mengen an Daten im Petabyte-Bereich. Für die Auswertung wurde von Anfang an auf verteilte Ressourcen gesetzt. Heute sind dafür weltweit hunderte Cluster in einem Grid – dem LHC Computing Grid (LCG) – vernetzt. Das LRZ betreibt dabei zusammen mit dem MCSC-Partner RZG und den Hochenergiephysikern aus dem Münchner Raum ein Tier-2-Zentrum (siehe Abbildung 42). Speicher- und Rechenknoten des Tier-2 Zentrums wurden im Rechnerwürfel des LRZs installiert. Den Betrieb bis zur Vermittlungsschicht, der Middleware gLite, übernimmt das LRZ, die Middleware und die darüber liegende Experiment-Software wird von den Physikern der LMU betreut. Derzeit stehen am LRZ für die Speicherung der Experimentdaten und Auswertungsergebnissen 915 Terabyte (TB) zur Verfügung. Durch die Absicherung als RAID beträgt die Nettokapazität 723 TB, die über die dCache- Jahresbericht 2010 des Leibniz-Rechenzentrums 91 Speicherverwaltung bereitgestellt werden. Die LCG-Rechenknoten sind in den LRZ-Linux-Cluster integriert. Dadurch können Kapazitätsengpässe sowohl bei LCG-Aufgaben als auch bei LRZ-Aufgaben umgangen und insgesamt alle Ressourcen besser ausgelastet werden. Im Moment verwaltet das LRZ LCGRechenknoten mit 1.828 Cores. Das LRZ stellt dem LCG-Projekt auch virtuelle Maschinen zur Verfügung. Dabei werden die speziellen LCG-Anforderungen – etwa bezüglich des Betriebssystems „Scientific Linux“ – unterstützt. Abbildung 42: Tier-Struktur des LHC Computing Grids. 2.8.7 LRZ-Projekt „Eclipse4Grid“ Das interne LRZ-Projekt „Eclipse4Grid“ hat sich zum Ziel gesetzt, das Software-EntwicklungsFramework „Eclipse“ von IBM für Grid-Anwendungen geeignet zu erweitern. In Kooperation mit dem DEISA-Arbeitspaket 8 wurde die Erweiterung PTP untersucht. Darüber hinaus wurden die Erweiterungen unter die Lupe genommen, die im Rahmen des gEclipse-Projekts entstanden sind. Zusammen mit dem ISAR-Projekt wurde am 1. Oktober 2010 der PTP Workshop „Eclipse: C/C++ programming (with a slight Fortran touch)“ gehalten. Ein Abschlussworkshop mit dem Titel „Parallel Tools Platform (PTP): Eclipse based IDE for parallel application development, debugging and profiling“ ist für März 2011 geplant. Das Projekt lief Ende 2010 erfolgreich aus. 2.8.8 Cloud-Computing Während beim Grid-Computing der Hauptaspekt die föderale Nutzung von auf die Partner verteilten Ressourcen ist, richtet sich das Cloud-Computing vornehmlich auf die Virtualisierung von Ressourcen. Diese Ressourcen sind nicht mehr unbedingt weiträumig verteilt, sondern oft bei einem kommerziellen Anbieter geclustert. So bieten Amazon, Google, aber auch die Deutsche Telekom Cloud Ressourcen gegen Entgelt an. Da dem Benutzer jeweils virtuelle Maschinen unter verschiedenen (Linux) Betriebssystemen angeboten werden, ist die genaue Beschaffenheit der zugrundeliegenden Hardware nur mehr zweitrangig. Durch die Virtualisierung wird auch der beim Nutzer ansonsten oft erhebliche Portierungsaufwand drastisch verringert – idealerweise bis auf null, denn der Benutzer kann ein ihm genehmes Betriebssystem auswählen. 92 Entwicklungen und Tätigkeiten im Bereich der Hochleistungssysteme (HLS) Im Rahmen des AK-Grid haben die Mitglieder verschiedene Cloud-Computing Anbieter getestet und in Vorträgen die Ergebnisse einander vorgestellt. So wurde die Elastic Computing Cloud (ECC) von Amazon auf Ihre Eignung für das LCG getestet: prinzipiell ist die ECC dafür geeignet, jedoch sind derzeit die auf „echter“ Hardware basierten Tier-2 Zentren (von denen eines auch am LRZ betrieben wird, siehe Abschnitt 2.8.3) noch deutlich kostengünstiger, als das Cloud-Computing bei Amazon. Es wurden auch Experimente mit den Angeboten von Google und der Telekom vorgeführt. Der AK verfolgte auch Bestrebungen der Open Cloud Computing Interface working group des OGF, um die derzeit noch proprietären Interfaces der verschiedenen kommerziellen Anbieter zu vereinheitlichen und deren Clouds interoperabel zu machen. Die freien Pakete NIMBUS und OpenNebula zum Aufbau einer Cloud wurden praktisch untersucht, jedoch sind beide noch nicht reif für den Produktionseinsatz. Im nächsten Jahr soll am LRZ prototypisch eine Cloud aufgesetzt und ausgewählten Benutzern zum Test angeboten werden. 2.8.9 Projektanträge 7. EU-Forschungsrahmenprogramm „e-Infrastrukturen“ Für die Ausschreibung „FP7-INFRASTRUCTURES-2011-2“ des 7. Forschungs-Rahmenprogramms der EU beteiligte sich das LRZ an vielen Projekten. Die Projekte mit Beteiligung der Gruppe VER werden im Folgenden aufgezählt. Eine Entscheidung über die Genehmigung dieser Projekte fällt voraussichtlich im Frühjahr 2011. Die Gruppe „Verteilte Ressourcen“ war an den folgenden EU-Projektanträgen im FP7-Call beteiligt: • Partnership for Advanced Computing in Europe - First Implementation Phase Project (PRACE-2IP (Konsortialführung FZ Jülich) • My e-World (M-eW, Konsortialführung NCF, Den Haag) • Virtual Earthquake and Seismology Research Community in Europe (VERCE, Konsortialführung CNRS-INSU, Paris), Wiederholungsantrag • Intelligent Application-Oriented Scheduling Framework (IANOS, ATOS Origin Spanien), Wiederholungsantrag • Distributed Research Infrastructure for Hydro-Meteorology (DRIHM, Universität Genua), Wiederholungsantrag 2.8.10 Betrieb der Grid-Infrastruktur Der Regelbetrieb der Grid-Dienste wurde durch die Mitarbeiter der Gruppe „Verteilte Ressourcen“ betreut und ausgebaut. Derzeit betreut die Gruppe etwa 70 Server, auf denen ca. 40 Dienste in Produktionsund Testbetrieb laufen. Bei den seit Anfang 2010 in Produktion befindlichen Systemen lag die Verfügbarkeitsquote bei 99.968%. Um die Ausfallsicherheit der Dienste weiter zu erhöhen, wurde fortgefahren, sie von physikalischer Hardware auf virtuelle Maschinen aus dem LRZ VMware-Pool zu migrieren. Außerdem wurde die automatische Überwachung der Maschinen und Dienste deutlich erweitert, sowie regelmäßige Kernel-Updates und Security-Checks durchgeführt. Die lokale Grid-Benutzerverwaltung GUA (Grid User Administration) wurde vollständig mit LRZ SIM integriert. Benutzer aus D-Grid VOs (virtuelle Organisationen) und DEISA Projekten erhalten nun automatisch Zugang zum Linux Cluster bzw. zum Höchstleistungsrechner. Die Zahl der Grid-Accounts stabilisiert sich bei ca. 1.500 (1.409 Grid-Accounts in 2010, im Vorjahr waren es 1.569). Etwa 5% der HLRB II-Rechenleistung sowie ein Teil der Rechenleistung unseres Linux Clusters werden über GridMiddleware von den Wissenschaftlern abgerufen. Die LRZ Grid Registration Authority, die auch die Rolle der Grid Registration Authority der LMU, der TUM und der Universität der Bundeswehr einnimmt, hat auch in 2010 wieder die Mitarbeiter und Studenten der drei großen Münchner Universitäten bei der Grid-Nutzung unterstützt. Insgesamt wurden 2010 72 User- und 52 Server-Zertifikate ausgestellt. 2.8.11 Sonstige Grid-Aktivitäten Am LRZ wurde im Rahmen der Einführungsveranstaltungen Grid Computing mit Übungen für die Teilnehmer vorgestellt und traf auf große Resonanz. Die Grid-Zugänge über gsi-ssh stehen nun gleichberechtigt neben ssh mit Passwort in unseren Dokumentationsseiten für alle Benutzer. Dazu trug auch der Short Jahresbericht 2010 des Leibniz-Rechenzentrums 93 Lived Credential Service (SLCS) des DFN bei, der mit dem Identity provider (IdP) des LRZ gekoppelt ist und so allen LRZ Benutzern ohne weitere Formalitäten erlaubt, jederzeit ein Grid Zertifikat (der Schlüssel zum Grid computing) zu erhalten. Neben der durch IGE in besonderem Maß hervortretenden Expertise im Bereich Globus Toolkit war das LRZ auch mit der D-Grid-Entwicklung D-MON zum VO-basierten Monitoring auf europäischer Ebene stark vertreten. Dies zeigte sich u.a. in der Prämierung eines D-MON-Posters auf dem 1. EGI Technical Forum in Amsterdam mit dem Best Poster Award. Und last but not least wurde unser LRZ-Grid-Portal (http://www.grid.lrz.de/), mit dem sich das LRZ seinen Kunden im Grid-Bereich präsentiert, regelmäßig aktualisiert und entwickelte sich zu einem festen Anlaufpunkt für wichtige Informationen aus dem Grid-Umfeld für Benutzer aus der ganzen Welt. 2.9 Managed Hosting für Hochschulstart.de Die „Stiftung für Hochschulzulassung“ (Stiftung öffentlichen Rechts) ist die Nachfolgerin der Zentralstelle für die Vergabe von Studienplätzen. Im Auftrag der Kultusministerkonferenz wird die Stiftung ab 2011/12 ein bundesweites, zentrales „Dialogorientiertes Verfahren“ für die Vergabe von Studienplätzen für alle deutschen Hochschulen etablieren. Über eine neue Web-Applikation, die von der T-Systems Multimedia Systems GmbH erstellt wurde, können sich Bewerber an mehrere Hochschulen bewerben und die Hochschulen können effizient eine Bewerberauswahl treffen und zusagen. Das LRZ wurde von der Stiftung beauftragt, den Infrastrukturbetrieb und das Managed Hosting für die neue Applikation durchzuführen. Die Vorbereitungsarbeiten haben bereits im September 2010 begonnen, die Hosting-Vereinbarung läuft zunächst bis zum 31.03.2012. Mit dem Management der Applikation selbst wurde die T-Systems MMS beauftragt. Jahresbericht 2010 des Leibniz-Rechenzentrums 95 3 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 3.1 Betrieb des Kommunikationsnetzes Das Münchner Wissenschaftsnetz (MWN) verbindet vor allem Standorte der Ludwig-MaximiliansUniversität München (LMU), der Technischen Universität München (TUM), der Bayerischen Akademie der Wissenschaften (BAdW), der Hochschule München (HM) und der Hochschule WeihenstephanTriesdorf miteinander. Es wird aber auch von anderen wissenschaftlichen Einrichtungen (u. a. MaxPlanck-Gesellschaft, Fraunhofer-Gesellschaft, Kunst-Hochschulen, Museen) mit genutzt. Diese Standorte sind insbesondere über die gesamte Münchner Region (i. W. Münchner Stadtgebiet, Garching, Großhadern/Martinsried und Weihenstephan) verteilt, es gibt aber auch weitere Standorte in Bayern. Derzeit sind an das MWN mehr als 510 als Unterbezirke bezeichnete Gebäudegruppen in mehr als 50 Arealen angebunden (siehe Abbildung 43) und es werden mehr als 79.500 Systeme versorgt. Die Lage von Standorten, die außerhalb des Münchner Stadtgebietes liegen, ist in der Abbildung nicht maßstabsgetreu dargestellt, sondern lediglich schematisch (in Himmelsrichtung) angedeutet. Die Größe der zu versorgenden Areale ist sehr unterschiedlich; sie reicht von einem einzelnen Gebäude bis zu einem gesamten „Campusbereich“ (z.B. Garching, Weihenstephan) mit mehr als 30 Gebäuden und mehr als 12.000 angeschlossenen Endgeräten. Derzeit sind bereits über 50 Studentenwohnheime mit insgesamt knapp 12.000 Wohnheimplätzen am MWN angeschlossen. Abbildung 43: Lage der Standorte im MWN 96 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes Abbildung 44: Standorte und Verbindungen im MWN Jahresbericht 2010 des Leibniz-Rechenzentrums Abbildung 44: (Fortsetzung) Standorte und Verbindungen im MWN 97 98 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes Die Areale des MWN werden zu Dokumentationszwecken auch mit Kürzeln aus 1 oder 2 Zeichen (Unterbezirke) benannt (eine Liste der Unterbezirke findet sich im MWN-Netzkonzept; http://www.lrz.de/services/netz/mwn-netzkonzept/MWN-Netzkonzept-2010.pdf). Das LRZ ist für das gesamte Backbone-Netz und einen Großteil der angeschlossenen Institutsnetze zuständig. Eine Ausnahme bilden die internen Netze der Medizinischen Fakultäten der Münchner Universitäten (u. a. Rechts der Isar (TUM), Großhadern und Innenstadt-Kliniken (LMU)) sowie der Informatik der TUM. Sie werden von den jeweiligen Rechenzentren der Fakultäten selbst betrieben und betreut. Das LRZ ist jedoch für die Anbindung dieser Netze an das MWN zuständig. Das MWN ist mehrstufig realisiert: • Das Backbone-Netz verbindet mittels Routern die einzelnen (Hochschul-)Standorte (Areale) und Gebäude innerhalb der Areale. • Innerhalb eines Gebäudes dient das Gebäudenetz mittels Switches zur Verbindung der einzelnen Rechner und der Bildung von Institutsnetzen. • Eine Sonderstellung nimmt das Rechenzentrumsnetz ein, das die zentralen Rechner im Rechnerwürfel des LRZ miteinander verbindet. Etwas genauer lässt sich diese Realisierung wie folgt beschreiben: • Die Router werden über das Backbone-Netz miteinander verbunden und bilden den inneren Kern des MWN. Die Verbindungsstrecken des Backbone-Netzes sind je nach Nutzungsgrad verschieden ausgeführt. Im Normalfall sind die Strecken Glasfaserverbindungen, die von der Deutschen Telekom und M-net langfristig angemietet sind. Auf den Glasfaserstrecken wird mit 10 Gbit/s übertragen. Die Verbindung der Strecken übernehmen fünf Backbone-Router, die untereinander aus Redundanzgründen mehrere Ringe bilden. Netze mit einer geringen Zahl von Endgeräten werden überwiegend mit SDSL-Verbindungen (bis zu 10 Mbit/s) von M-net oder WLANVerbindungen auf Basis von IEEE 802.11a oder g (bis 54 Mbit/s) angebunden. • Die Switches eines Gebäudes oder einer Gebäudegruppe werden mittels Glasfaser zum allergrößten Teil mit 1 Gbit/s, aber auch mit 10 Gbit/s an die Router herangeführt. • In den Gebäuden geschieht die Anbindung von Datenendgeräten über Ethernet. Die Anbindung wird entweder über „Twisted-Pair“-Kupferkabel (100/1000 Mbit/s) und Lichtwellenleiter (100 Mbit/s oder zum Teil 1000 Mbit/s) oder zu einem sehr geringen Teil noch über Koaxial-Kabel (10 Mbit/s) realisiert. Server-Rechner werden fast immer mit 1 Gbit/s angeschlossen. • Die zentralen Rechner im LRZ (der Bundeshöchstleistungsrechner HLRB II, die Linux-Cluster, die Server des Backup- und Archivsystems und die zahlreichen Server-Systeme) sind untereinander größtenteils mit 10 Gbit/s mittels Switches verbunden. Diese Netzstruktur der zentralen Rechner ist über einen Router (10 Gbit/s) mit dem MWN-Backbone verbunden. • Im MWN wird ausschließlich das Protokoll TCP/IP benutzt. Abbildung 44 zeigt die für das Backbone-Netz verwendeten Strecken, deren Übertragungsgeschwindigkeiten und Endpunkte. Hieraus lässt sich die Ausdehnung des Netzes ablesen. 3.1.1 Backbone-Netz Aus Abbildung 45 ist die Struktur des Backbone-Netzes ersichtlich. Den Kern des Backbones bilden Cisco Catalyst 6509 Switch/Router, die untereinander mit 10 GBit/s verbunden sind. Die Anbindung der Standorte erfolgt über LWL (Lichtwellenleiter). Das LRZ selbst ist über einen virtuellen Router (bestehend aus zwei 6509) an das Backbone angebunden. Alle Telekom-Glasfasern enden im zentralen Netzraum des TUM-Stammgeländes. Die M-net Glasfasern enden im zentralen Netzraum des LMUStammgeländes. Das Router-Backbone bildet mehrere Zyklen, die der Redundanz dienen. Bis auf die Router in Weihenstephan und an der Hochschule München haben alle eine mindestens doppelte Anbindung an das Backbone. Die Router unterhalten sich über Punkt-zu-Punkt Verbindungen mittels OSPF (Open Shortest Path First). Der Verkehr fließt von der Quelle zum Ziel über die Leitungen mit der kleinsten „Hop“Anzahl (Weg, der über die wenigsten Router führt). Jahresbericht 2010 des Leibniz-Rechenzentrums 99 Abbildung 45: Das MWN-Backbone-Netz Ausnahmen von dieser generellen Regel bilden der über „Policy-Based-Routing“ geführte Verkehr, der in einem eigenen VLAN (Virtual LAN) fließt, und spezielle VLANs, die über das gesamte MWN gezogen wurden. Dies ist nötig, um die besonderen Anforderungen von MWN-Mitnutzern (MPG-Institute, Staatsbibliothek usw.) zu erfüllen. Auch die Internet-Anbindung ist redundant ausgelegt. Es gibt zwei Anbindungen an das X-WiN und eine an M-net. Dabei ist die Hierachie so gewählt, dass die höchste Priorität die Internet-Anbindung 1 (siehe Abbildung 45) hat. Fällt diese aus, wird zur Internet-Anbindung 2 gewechselt. Erst wenn diese auch ausfällt, wird der Weg über M-net gewählt. Die Umschaltung zwischen den Internet-Anbindungen wird automatisch über ein Routing-Protokoll (BGP, Border Gateway Protocol) gesteuert. 3.1.2 Gebäude-Netze In den Gebäuden existiert grundsätzlich eine strukturierte Verkabelung bestehend aus Kupferkabeln (Kategorie 5/6, TP) oder Multimode-Lichtwellenleiter-Kabeln (50/125µ). Zu einem sehr geringen Anteil ist jedoch in sehr wenigen, noch zu sanierenden Gebäuden, immer noch Ethernet-Koax-Kabel (yellow cable) verlegt, wobei sich durch Sanierungsmaßnahmen der Umfang auch in diesem Jahr weiter verringert hat. Als aktive Komponenten zur Verbindung mit den Endgeräten werden (Layer-2-)Switches eingesetzt. Ende 2008 wurde eine Switch-Auswahl durchgeführt, bei der Switches der Firma HP Procurve gewonnen haben, da diese für die Anforderungen im MWN am besten geeignet sind. Derzeit sind vor allem Switches der Serien HP ProCurve 4200 und 5400 im Einsatz. Andere stackable HP-Switches vom Typ HP ProCurve 2610 sind in kleineren Netzanschlussbereichen, vom Typ HP ProCurve 2910 für Serveranschlüsse bei Instituten und im Rechnerwürfel des LRZ in Betrieb. Auch im Jahr 2010 wurden weitere HP ProCurve-Switches der Serien 4200 und 5400 aufgebaut. Kennzeichen dieser Netzkomponenten sind 10GE und anspruchsvolle Features wie QoS und Meshing. Alle diese Geräte sind modular aufgebaut und bieten über einzubauende Schnittstellenkarten Anschluss von bis zu 288 Geräten. Die Switches der Serien HP ProCurve 4000 und 2524 sind die derzeit ältesten Komponenten; sie wurden in 2010 bis auf 6 Geräte durch neuere Switches ersetzt. Für 2011 und die folgenden Jahre ist eine Ersetzung der nächstältesten 100 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes Switch-Generation (HP ProCurve 4100) geplant, die z.T. bereits seit neun Jahren im Einsatz sind und hinsichtlich ihrer Leistungsfähigkeit und Funktionalität nicht mehr den heutigen Anforderungen entsprechen. Für diese Ersetzung wurde im Jahr 2010 ein Großgeräteantrag gestellt, der Ende des Jahres genehmigt wurde. Zum Jahresende 2010 wurden vom LRZ insgesamt 1126 Switches betrieben. Einen Vergleich zu den Vorjahren zeigt Tabelle 29: Anzahl Switches davon HP-Switches davon Cisco-Switches davon 3Com-Switches Anzahl TP-Ports Anzahl Glasfaser-Ports Ende 2010 Ende 2009 Ende 2008 Ende 2007 Ende 2006 1126 990 914 843 780 1125 989 914 843 738 1 67.040 6.842 1 60.363 6.493 53.591 6.245 47.212 5.302 42 42.050 5.110 Tabelle 29: Switches im Jahresvergleich Die Verteilung nach Switchtypen ist im Abschnitt 7.3.2 zu finden. 3.1.3 Rechenzentrumsnetz Das LRZ-Rechnergebäude besteht in Bezug auf das Datennetz im Wesentlichen aus drei verschiedenen Bereichen: dem Daten- und Archiv-Raum (DAR), in dem sich das Backup- und Archiv-System befindet, dem Netz- und Server-Raum (NSR), der den zentralen Mittelpunkt des Netzes, das Linux-Cluster sowie die Server mit den diversen Netzdiensten (Mail, Web usw.) beherbergt, sowie dem Höchleistungsrechnerraum (HRR). Das Datennetz in diesen drei Räumen ist den unterschiedlichen Anforderungen der Rechnerlandschaft angepasst und ist wie folgt aufgebaut: DAR-Raum: Im Wesentlichen besteht das Netz in diesem Raum aus sieben Switches, die auf Grund der hohen Bandbreite, die das Backup- und Archiv-System benötigt, mit jeweils 10 Gbit/s bzw. 2 ∙ 10 Gbit/s an den zentralen Routern im NSR-Raum angeschlossen sind. Die älteren Backup-Server sind an diesen Switches mit jeweils 1 oder 2 Gbit/s (Trunk) angeschlossen, die neuen, in den Jahren 2009 und 2010 beschafften Server des LABS-Systems, mit 10 Gbit/s. NSR-Raum: Die Netzstruktur in diesem Raum besteht aus zwei Ebenen. Die erste Ebene bilden zwei Router, über die die LRZ-Gebäude mit dem MWN-Backbone verbunden sind, und zwei Core-Switches HP E8212, die mit jeweils 2 ∙ 10 Gbit/s an den Routern angeschlossen sind. Jeder dieser beiden zentralen Switches ist redundant aufgebaut mit zwei Management- und zwei Switch-Fabric-Modulen. Hinter den Core-Switches befinden sich ca. 80 Edge-Switches, die in die einzelnen Server-Racks eingebaut sind und die in der Regel mit jeweils 1 Gbit/s mit den Core-Switches verbunden sind, in einigen Fällen auch mit 10 Gbit/s. Die Server selbst sind in der Regel mit 1 Gbit/s an den Edge-Switches angeschlossen, wobei aus Redundanzgründen die Server teilweise an zwei verschiedenen Switches angebunden sind, so dass die Verfügbarkeit dieser Server auch bei einem Ausfall eines Switches erhalten bleibt. Eine Sonderstellung im NSR-Raum bildet das Linux-Cluster, das über eine eigene Infrastruktur mit dem Nexus7000 von Cisco und 34 daran angeschlossenen Edge-Switches verfügt. Am Nexus7000 sind sowohl die Edge-Switches als auch 150 Server direkt mit jeweils 10 Gbit/s angebunden. Um die Ausfallsicherheit weiter zu erhöhen, wurde Anfang 2010 zwischen den zentralen Komponenten (Router, Core-Switches und Edge-Switches für die VMware-Server) das Spanning-Tree-Protokoll aktiviert, so dass bei einem Ausfall einer Leitung oder einer Komponente der Datenverkehr ohne Unterbrechung weiterläuft. In diesen Spanning-TreeVerbund wurden Ende 2010 auch die beiden Switches mit aufgenommen, an die die Server des Hochschulstart-Projekts (vgl. Abschnitt 2.9) angeschlossen sind. HRR-Raum: Der im Jahr 2006 installierte Bundeshöchstleistungrechner besteht aus insgesamt 16 Knoten, wobei jeder Knoten über zwei 10-Gbit-Netzwerkkarten verfügt. Diese Knoten sind mit jeweils einem Interface an zwei unterschiedlichen Routern angeschlossen. Einer dieser Router ist mit dem MWN verbunden, der andere verfügt über einen eigenen 10-Gbit-Anschluss an das WiN und wird ausschließlich für Jahresbericht 2010 des Leibniz-Rechenzentrums 101 die Verbindung zu anderen Höchstleistungsrechnern im Rahmen des DEISA-Projektes verwendet. Neben den beiden Routern befinden sich auch noch einige Switches im HRR-Raum, die für die interne Vernetzung des Höchstleistungsrechners (CXFS-Dateisystem, Management) verwendet werden. Abbildung 46: Struktur des Rechenzentrumsnetzes 3.1.4 Wellenlängenmultiplexer Das LRZ setzt seit 1997 Wellenlängenmultiplexer (Wavelength-Division-Multiplexer, WDM) auf den angemieteten Glasfaserleitungen der lokalen Provider (Telekom und M-net) ein. Hierdurch lassen sich auf Leitungsebene getrennte Strukturen aufbauen. WDM-Systeme werden derzeit im MWN dazu verwendet, um die verfügbaren Glasfaserleitungen parallel zum Produktionsnetz für folgende Dienste zu nutzen: Kopplung von Nebenstellenanlagen (TK-Kopplung) Realisierung von standortübergreifenden Intranets (z.B. Max-Planck-Gesellchaft, Verwaltung) Realisierung von Testnetzen parallel (ATM-Pilotprojekte, Fiber-Channel-Kopplung von Speichernetzen usw.) Im MWN werden aktuell auf 10 Verbindungen WDM-Systeme eingesetzt (siehe Tabelle 30). Die WDMs, die bisher für die Verbindung der verschiedenen Standorte der medizinischen Fakultät der TUM (Klinikum Rechts der Isar, Klinikum am Biederstein, Poliklinik für Präventive und Rehabilitative Sportmedizin und Schwabinger Krankenhaus) verwendet wurden, wurden im Jahr 2010 außer Betrieb genommen. Das medizinische Intranet zwischen den vier Standorten, das bisher über eigene WDMKanäle bewerkstelligt wurde, wird nun durch MPLS-Verbindungen über das MWN-Backbone realisiert. Die Telefonanlagen sowie deren abgesetzten Telefonanlagenteile der Technischen Universität und der Ludwig-Maximilians-Universität werden zum größten Teil mittels IP, d.h. über das Standardprotokoll im MWN, miteinander gekoppelt. 102 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes Verbindung WDM-Typ Zweck TU-Nordgelände – LMU-Stammgelände MRV LambdaDriver 800 Verbindung der Backbone-Router (1 x 10 Gbit/s) ATM-Testnetz Erlangen -- IRT (1 x 2,4 Gbit/s (OC48)) TU-Nordgelände – Garching MRV LambdaDriver 800 Verbindung der Backbone-Router (1 x 10 Gbit/s) Intranet der Max-Planck-Gesellschaft (1 x 10 Gbit/s) TU-Nordgelände – Großhadern MRV LambdaDriver 800 Verbindung der Backbone-Router (1 x 10 Gbit/s) Intranet der Max-Planck-Gesellschaft (1 x 10 Gbit/s) LMU-Stammgelände – Martiusstraße 4 Pan Dacom T-3009-LC (passiver WDM) Anbindung des Gebäudes Martiusstr. 4 ans MWN (1 x 1 Gbit/s) Intranet der LMU-Verwaltung ( 1 x 1 Gbit/s) Fiber-Channel-Kopplung der LMUVerwaltung ( 2 x 4 Gbit/s) FH-München – 7 externe Standorte ADVA FSP1 Anbindung zur Zentrale in der Lothstraße 34 von folgenden Standorten: Pasing, Am Stadtpark 20 Lothstr. 21 Schachenmeierstr. 35 Karlstr. 6 Infanteriestr. 13 Dachauer Str. 98b TK-Anlagen-Kopplung Intranet der FH-Verwaltung Tabelle 30: WDM-Verbindungen 3.1.5 WLAN (Wireless LAN) Die seit dem Jahr 2000 eingerichteten Zugangsmöglichkeiten über WLAN wurden 2010 weiter ausgebaut. Ende Dezember 2010 waren 1.462 (Vorjahr 1.324) WLAN Accesspoints in 221 (221) Gebäuden installiert. Die Accesspoints sind vor allem in öffentlichen Bereichen wie Hörsälen, Seminarräumen, Bibliotheken und Foyers installiert. Das Angebot erfreut sich steigender Beliebtheit, zeitweise waren mehr als 4.500 gleichzeitig aktive Verbindungen aufgebaut. Insgesamt wurden fast 150.000 (148.658) verschiedene Geräte (MAC-Adressen) registriert, dabei am Tag über 15.000 (15.605 am 8.12.2010). Die am stärksten frequentierten Accesspoints waren mit bis zu 105 gleichzeitigen Verbindungen belegt. Bei Veranstaltungen lag der Wert noch höher. Um diesen Ansturm aufzufangen wurden gezielt einzelne, stark frequentierte Accesspoints (21 MSM310) durch die nächste Geräte-Generation (MSM422) ersetzt. Jahresbericht 2010 des Leibniz-Rechenzentrums 103 Abbildung 47: Anzahl aktiver WLAN-Verbindungen (5-Minuten-Mittel) Abbildung 48: Entwicklung der Belegung über das Jahr 2010 (Tagesmittel) In den Abbildungen zeigt der blaue bzw. dunklere Bereich den Anteil von Verbindungen mit IEEE 802.11g (54 Mbit/s). Als Zugangskomponenten werden Accesspoints der Typen MSM310 (CN320), MSM320 (CN330) und MSM422 (MAP625) der Firma HP (ehemals Colubris) eingesetzt. Mit den MSM422 werden auch Verbindungen mit IEEE 802.11n im 5GHz-Band angeboten, mit denen Geschwindigkeiten bis zu 300Mbit/s erreicht werden können. Im Laufe des Jahre 2010 wurden folgende Bereiche neu mit WLAN ausgestattet: HSWT Weihenstephan Gebäude 4373 HSWT Weihenstephan Gebäude 4377 HSWT Weihenstephan, Geb. 4173 HSWT Weihenstephan Geb. 4176 HSWT Weihenstephan Staudengarten, Geb. 4374 HM Dachauer Str. 98b, Bau E HM Schachenmeierstr. 35, Bau S LMU Großhadern, Wasserchemie, Verfügungsbau LMU Leopoldstraße 11a LMU Martinsried, Bio 2 LMU Schönfeldstr. 13 LMU Winzerer Str. 45 Monumenta Germaniae Historica in der Bay. Staatsbibliothek Monumenta Germaniae Historica, Kaulbachstr. 19 TUM Gabelsberger Str. 39 TUM Garching IAS TUM Karlstr. 45 TUM Leopoldstr. 139 TUM Nordgelände N2 104 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes TUM Nordgelände N3 TUM Schragenhofstr. 31 TUM Weihenstephan Botanik, Gebäude 218 TUM Weihenstephan Phytopathologie, Dürnast Geb. 232 TUM ZHS Geb. 2304 Zoologische Staatssammlung Im Laufe des Jahres 2010 wurde in folgenden Bereichen das WLAN wegen Umzug der Institute bzw. Aufgabe des Gebäudes abgebaut: LMU Georgenstr. 7 LMU Geschwister-Scholl-Platz 1, Philosophie LMU Schellingstraße 10 TUM Weihenstephan Gemüsebau Geb. 4201 Folgende Areale waren Ende des Jahres 2010 mit WLAN versorgt: (nur zum geringen Teil flächendeckend): Akademie der Bildenden Künste Bayerische Akademie der Wissenschaften Bayerische Staatsbibliothek Deutsches Museum Exzellenzcluster Universe HSWT Weihenstephan Bioinformatik, Altes Bauamt HSWT Weihenstephan Forstwirtschaft HSWT Weihenstephan Landpflege, Kustermannhalle HSWT Weihenstephan Löwentorgebäude HSWT Weihenstephan Pappelallee HSWT Weihenstephan Geb. 4172 HSWT Weihenstephan Gebäude 4373 HSWT Weihenstephan Gebäude 4377 HSWT Weihenstephan, Geb. 4173 HSWT Weihenstephan Bibliothek HSWT Weihenstephan Geb. 4176 HSWT Weihenstephan Staudengarten, Geb. 4374 HSWT Weihenstephan Landtechnik, Geb. 4383 HSWT Triesdorf, 4 Gebäude HM Dachauer Str. 98 HM Dachauer Str. 98b, Bau E HM Lothstr. 34 HM Infanteriestr. 14 HM Lothstr. 13 Mensa und Bibliothek HM Karlstr. 6 HM Lothstr. 21 HM Pasing, Am Stadtpark 20 HM Schachenmeierstr. 35, Bau S Internationales Begegnungszentrum, Amalienstr. 38 Hochschule für Philosophie Hochschule für Fernsehen und Film, Frankenthalerstr. 23 LRZ Garching Jahresbericht 2010 des Leibniz-Rechenzentrums LMU Akademiestr. 1 LMU Amalienstr. 17 LMU Amalienstr. 54 LMU Amalienstr. 83 LMU Edmund Rumpler Str. 9 LMU Edmund-Rumpler-Str. 13 LMU Frauenlobstr. 7a LMU Garching, Beschleuniger-Laboratorium LMU Garching, Physik-Departement Coulombwall LMU Georgenstr. 11 LMU Geschwister-Scholl-Platz 1 LMU Geschwister-Scholl-Platz 1, Adalberttrakt LMU Geschwister-Scholl-Platz 1, Bücherturm LMU Geschwister-Scholl-Platz 1, Hauptgebäude LMU Geschwister-Scholl-Platz 1, Segafredocafe LMU Giselastraße 10 LMU Großhadern, Chemie/Pharmazie LMU Großhadern, Genzentrum LMU Großhadern, Wasserchemie, Verfügungsbau LMU Hohenstaufenstr. 1 LMU Königinstraße 12 LMU Königinstraße 16 LMU Kaulbachstr. 37 LMU Kaulbachstr. 45 LMU Kaulbachstr. 51a LMU Katharina-von-Bora-Straße 10 LMU Konradstraße 6 LMU Leopoldstraße 3 LMU Leopoldstraße 11a LMU Leopoldstraße 13, Haus 1, Geb. 0601 LMU Leopoldstraße 13, Haus 2, Geb. 0602 LMU Leopoldstraße 13, Haus 3, Geb. 0603 LMU Ludwigstr. 14 LMU Ludwigstr. 25 LMU Ludwigstr. 27 LMU Ludwigstr. 28 LMU Ludwigstr. 29 LMU Ludwigstr. 31 LMU Ludwigstr. 33 LMU Luisenstr. 37 LMU Martinsried, Bio 2 LMU Martinsried, Biozentrum LMU Martinsried Mensa LMU Martiusstr. 4 LMU Menzinger Straße 67 LMU Oberschleißheim, Klauentierklinik 105 106 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes LMU Oberschleißheim, Schleicherbau LMU Oberschleißheim, Versuchsgut St. Hubertus LMU Oberschleißheim, Vogelklinik LMU Oettingenstr. 67 LMU Oettingenstraße 67 Baracke LMU Prof. Huber Platz 2, Geb. 420 LMU Vestibülbau (Prof. Huber Platz), Geb. 421 LMU Vestibülbau Turm (Außenbereich), Geb. 421 LMU Richard-Wagner Str. 10 LMU Schönfeldstr. 13 LMU Schackstr. 4 LMU Schellingstraße 3 Rückgebäude LMU Schellingstraße 3 Vordergebäude LMU Schellingstraße 4 LMU Schellingstraße 5 LMU Schellingstraße 7 LMU Schellingstraße 9 LMU Schellingstraße 12 LMU Seestr. 13 LMU Sternwarte Laplacestr. 16 LMU Sternwarte Scheinerstr. 1 LMU Theresienstraße 37 LMU Theresienstraße 39 LMU Theresienstraße 41 LMU Veterinärstraße 1 LMU Veterinärstraße 5 LMU Veterinärstraße 13 LMU Winzerer Str. 45 LMU ZAAR Destouchesstr. 68 LMU Zentnerstr. 31 Monumenta Germaniae Historica in der Bay. Staatsbibliothek Monumenta Germaniae Historica, Kaulbachstr. 19 Musikhochschule Arcisstr. 12 Musikhochschule Barer Str. 34 Musikhochschule Gasteig Musikhochschule Luisenstr. 37a Olympisches Dorf Mensa Pinakotheken Freifläche Nord TUM Barer Str. 21 TUM Deutsches Museum TUM Eichenau TUM Gabelsberger Str. 39 TUM Gabelsberger Str. 45 TUM Gabelsberger Str. 49 TUM Garching Chemiegebäude TUM Garching Exzellenzcluster Universe Jahresbericht 2010 des Leibniz-Rechenzentrums TUM Garching IAS TUM Garching Maschinenbau TUM Garching Medizintechnik TUM Garching Mensa TUM Garching Physikdepartment TUM Garching Physikdepartment II TUM Garching Physikdepartment E18 Neutronenhütte TUM Garching Umformtechnik und Gießereiwesen TUM Garching Wassergütewirtschaft TUM Iffeldorf Limnologische Station TUM Karlstr. 45 TUM Katholische Hochschulgemeinde TUM Klinikum rechts der Isar Teilbibliothek TUM Klinikum rechts der Isar Hörsäle TUM Klinikum rechts der Isar Lern- und Trainingszentrum TUM Leopoldstr. 139 TUM Lothstraße 17 TUM Mensa TUM Nordgelände N1 TUM Nordgelände N2 TUM Nordgelände N3 TUM Nordgelände N4 TUM Nordgelände N5 TUM Nordgelände N8 TUM Nymphenburger Str. 39 TUM Obernach Versuchsanstalt für Wasserbau TUM Pasing Grundbau und Bodenmechanik TUM Richard-Wagner Str. 18 TUM Schellingstraße 33 TUM Schragenhofstr. 31 TUM Stammgelände Präsidialbereich TUM Stammgelände TUM Stammgelände Audimax TUM Stammgelände Cafeteria TUM Stammgelände Architekturfakultät TUM Stammgelände Architekturmuseum TUM Stammgelände Bauinformatik TUM Stammgelände Fak. Bauingenieurwesen TUM Stammgelände Bauklimatik und Haustechnik TUM Stammgelände Betriebswirtschaft TUM Stammgelände Bibliothek TUM Stammgelände Bildnerisches Gestalten TUM Stammgelände Datenverarbeitung TUM Stammgelände Datenverarbeitung Eikon-Turm TUM Stammgelände Entwurfsautomatisierung TUM Stammgelände Fachschaft Architektur 107 108 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes TUM Stammgelände Geodäsie TUM Stammgelände Hydraulik und Gewässerkunde TUM Stammgelände Kommunikationsnetze TUM Stammgelände LMU Geographie TUM Stammgelände STARTmunich e.V. TUM Stammgelände Theresianum TUM Stammgelände Wasserbau + Wasserwirtschaft TUM Stammgelände Wirtschaftswissenschaften TUM Versuchsgut Grünschwaige TUM Weihenstephan Altes Molkereigebäude TUM Weihenstephan Bibliotheksgebäude TUM Weihenstephan Biologie der Lebensmittel TUM Weihenstephan Biowissenschaften TUM Weihenstephan Bodenkunde, Gebäude 4217 TUM Weihenstephan Botanik, Gebäude 218 TUM Weihenstephan Botanik, Geb. 219 TUM Weihenstephan Braufakultät, Gebäude 4112 TUM Weihenstephan Chemie + Biochemie, Geb. 4212 TUM Weihenstephan Dürnast, Geb. 4235 TUM Weihenstephan Ernährungslehre Geb. 4107 TUM Weihenstephan Fischbiologie TUM Weihenstephan FML Geb. 4124 TUM Weihenstephan Forstbau Geb. 4277 TUM Weihenstephan Geb. 4101 TUM Weihenstephan Geb. 4109 TUM Weihenstephan Freigelände zu 4214 TUM Weihenstephan Geb. 4215 TUM Weihenstephan Genetik Geb. 4223 TUM Weihenstephan Grünlandlehre, Gebäude 4105 TUM Weihenstephan Hörsaalgebäude, Geb. 4102 TUM Weihenstephan Landtechnik, Geb. 4210 TUM Weihenstephan Lebensmittelchemie Geb. 4298 TUM Weihenstephan Lebensmitteltechnikum Geb. 4213 TUM Weihenstephan Lebensmittel Verfahrenstechnik Geb. 4126 TUM Weihenstephan Mensa, Geb. 4216 TUM Weihenstephan Physik, Geb. 4212 TUM Weihenstephan Phytopathologie, Dürnast Geb. 232 TUM Weihenstephan Tierernährung Geb. 4308 TUM Weihenstephan Tierwissenschaften TUM Weihenstephan Geb. 4111 TUM Weihenstephan Geb 4113 TUM Weihenstephan Hörsaalgebäude, Geb. 4214 TUM Winzerer Str. 45 TUM ZHS BFTS TUM ZHS Geb. 2301 TUM ZHS Geb. 2303 Jahresbericht 2010 des Leibniz-Rechenzentrums 109 TUM ZHS Geb. 2304 TUM ZHS Geb. 2305 TUM ZHS Geb. 2306 Walther-Meißner Institut Wissenschaftszentrum Straubing Zentralinstitut für Kunstgeschichte, Katharina-von-Bora-Straße 10 Zoologische Staatssammlung 3.1.6 Wesentliche Netzänderungen im Jahr 2010 Im Jahr 2010 gab es folgende in chronologischer Reihenfolge aufgeführte wesentliche Netzveränderungen: 08.01.2010 Anschluss des Fraunhofer Instituts für Sichere Informationstechnologie (SIT) am Business Campus in Garching mit 1 Gbit/s 04.02.2010 Anschluss der TU-Mathematik im Business-Campus in Garching mit 1 Gbit/s (gemeinsam genutzter Anschluss mit Fraunhofer SIT) 10.02.2010 Anschluss des TUM Exzellenzzentrums in Garching mit 1 Gbit/s 18.02.2010 Anschluss des Studentenwohnheims Gregorianum mittels aDSL mit 18 Mbit/s 26.02.2010 Bandbreitenerhöhung für die Hochschule für Musik und Theater im Gasteig auf 100 Mbit/s 03.03.2010 Anschluss des TUM Gebäudes Karlstr. 45 mit 1 Gbit/s 18.03.2010 Anschluss des TUM Gebäudes 4115 in Weihenstephan über das Gebäude 4102 (Bibliothek) 28.04.2010 Anbindung der Container an der Triton-Hütte des Beschleunigerlabors in Garching 25.05.2010 Umzug des Zentrum für Arbeitsbeziehungen und Arbeitsrecht (ZAAR) von der Infanteriestr. 8 in die Destouchestr. 68 17.06.2010 Anschluss des TUM Gebäudes Guerickestr. 25 mit 1 Gbit/s 05.07.2010 Anschluss des Studentenwohnheims Türkenstr. 58 mit 1 Gbit/s 15.07.2010 Anschluss des LMU Gebäudes Fraunhoferstr. 12 in Planegg mit 1 Gbit/s 16.07.2010 Anbindung der Container der TUM Fischbiologie in Weihenstephan über eine Funkbrücke 15.08.2010 Anschluss des Studentenwohnheims Student Living Center (SLC) Haus II und Haus III über privat verlegte Glasfasern 17.08.2010 Upgrade der Anbindung des Gebäudes FCP-A am Genzentrum in Martinsried auf 10 Gbit/s 07.09.2010 Upgrade der Anbindung LMU Gebäude Amalienstr. 54 auf 10 Gbit/s 14.10.2010 Abbau einer Funkbrücke und Anbindung über privat verlegte Glasfaser; Gebäude 4123 in Weihenstephan 29.10.2010 Anschluss des LMU Gebäudes Schönfeldstr. 13 über eine privat verlegte Glasfaser mit 1 Gbit/s 29.10.2010 Anschluss des Kinderhauses am Campus Garching über eine privat verlegte Glasfaser mit 1 Gbit/s 18.11.2010 Redundante Anbindung des Zentrum für Nanotechnologie und Nanomaterialien in Garching über eine privat verlegte Glasfaser Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 110 25.11.2010 Anschluss des TUM Institute für Advanced Studies (IAS) in Garching mit 1 Gbit/s 20.12.2010 Anschluss des Physik Untergrundlabors in Garching über eine privat verlegte Glasfaser 3.1.7 Netzausbau (Verkabelung) Mit NIP (Netzinvestitionsprogramm in Bayern) wurde zwar eine flächendeckende Vernetzung erreicht, diese ist jedoch an der TUM in München und Garching noch zu einem geringen Teil in Koax ausgeführt. Bis Ende 2008 sollte diese Koax-Verkabelung durch eine strukturierte Verkabelung (Kupfer oder Glasfaser) ersetzt werden. Das Ziel wurde aber nicht erreicht, da einige Gebäude noch auf eine endgültige Generalsanierung warten bzw. es unklar ist, wie sie später genutzt werden. 3.1.7.1 TU München Im Bereich der TU München (ohne Weihenstephan) konnten die im Folgenden aufgeführten Gebäude im Jahr 2010 mit einer strukturierten Verkabelung versehen werden. Innenstadt Schragenhofstrasse 31 (Motorenlabor) Derzeit gibt es noch Koax in Bau 0503, 0106 (N6) und 5402 (CH2), das aber im Rahmen anderer Maßnahmen ersetzt werden soll. 3.1.7.2 LMU Im Bereich der LMU München sind alle Gebäude mit einer strukturierten Verkabelung versehen. Es gibt jedoch teilweise Defizite in der Verwendung der installierten Medien (nur 4-drahtiger Anschluss [Cablesharing] oder Installation von Kategorie 5-Kabeln bzw. Anschlusskomponenten). Dies betrifft 28 Gebäude (NIP V). Die Kosten in Höhe von 18,4 Mio. € wurden vom Landtag genehmigt. Im Rahmen des Konjunkturprogramms werden im ersten Bauabschnitt sechs Standorte bis August 2011 nachgerüstet werden: M-Bogenhausen Universitäts-Sternwarte (Neuverkabelung bereits 2009 abgeschlossen) M-Lehel Oettingenstr. 67 (Informatik, Kommunikationswissenschaft usw.) M-Schwabing Leopoldstr. 13 Haus 1 – 3 (Psychologie+Pädagogik) M-Maxvorstadt Theresienstr. 37 (Physik, Meteorologie) M-Maxvorstadt Theresienstr. 39 (Mathematik) M-Maxvorstadt Theresienstr. 41 (Geo- und Umweltwissenschaften) Die verbleibenden 22 Gebäude werden voraussichtlich ab 2012 im Rahmen des zweiten Bauabschnittes der NIP V-Maßnahme mit einer Verkabelung der Kategorie 6a modernisiert. 3.1.7.3 Weihenstephan (TU München) Im Campus Weihenstephan der TU München sind alle Gebäude mit einer strukturierten Verkabelung versehen, entweder Kupfer (Kategorie 6-Kabel) oder Glasfaser (multimode). 3.1.7.4 LWL-Netze auf den Campus-Geländen Auf dem Campusgelände TUM-Stamm/Nordgelände, LMU-Stammgelände, TUM-Garching, TUMWeihenstephan und LMU Großhadern/Martinsried sind privat verlegte Glasfaserstrecken installiert, die teilweise schon über 15 Jahre existieren. Hier muss in den nächsten Jahren nachgerüstet werden, da bei einem Teil der Strecken die heute benötigten Glasfasertypen (OM3, Monomode) nicht vorhanden sind, diese aber aufgrund der gestiegenen Übertragungsraten notwendig sind. 3.1.8 Anbindung Studentenwohnheime Das LRZ ermöglicht Wohnheimen eine feste Anbindung über Standleitung, DSL-Technik oder WLAN an das MWN und damit an das Internet. Die Kosten der Anbindung hat der Heimträger zu übernehmen, Jahresbericht 2010 des Leibniz-Rechenzentrums 111 für die Netznutzung werden aber keine Gebühren verlangt. Zum Jahresende 2010 sind 12.503 Wohnheimplätze (im Jahr 2009: 12.302) in 59 (56) Heimen an das MWN angeschlossen, davon 24 (20) über eine Glasfaserleitung (LWL) mit 100 MBit/s, 15 Heime über Funkstrecken, 10 (11) Heime über DSL und 10 Heime über 100 MBit/s Laserlinks. Die nachfolgende Tabelle zeigt die Wohnheime, die Ende 2010 am MWN angeschlossen sind: Name Adresse Träger Plätze Anschluss Studentenstadt Freimann Christoph-ProbstStraße 10 Studentenwerk 2440 LWL zu MPI Freimann Studentenviertel auf dem Oberwiesenfeld Helene-Mayer-Ring 9 Studentenwerk 1801 LWL zu ZHS Kreittmayrstraße Kreittmayrstraße 14 Studentenwerk Adelheidstraße (mit Deutschkurse für Ausländer) Adelheidstraße 13 Studentenwerk John-Mott-Haus Theo-Prosel-Weg 16 CVJM München e.V. Oberschleißheim Oberschleißheim Am Schäferanger 9-15 Studentenwerk 171 LWL zu Rinderklinik Georg-Lanzenstiel-Haus Kieferngartenstraße 12 Verein evangelischer Studentenwohnheime 135 Ökumenisches Studentenheim Steinickeweg 4 Verein evangelischer Studentenwohnheime 70 Funk zu TUM-Uhrenturm Hugo-Maser-Haus Arcisstr. 31 Verein evangelischer Studentenwohnheime 70 Funk zu TUM-Uhrenturm Studentenwohnheim Geschwister Scholl Steinickeweg 7 Studentenwohnheim Geschwister Scholl e.V. 227 SDSL M-net 2 MBit, Linux-Router St. Albertus Magnus Haus Avenariusstraße 15 (Pasing) St. Albertus Magnus-Stiftung (Kath.) 108 SDSL M-net Wohnheimsiedlung Maßmannplatz Hess-Straße 77 Wohnheimsiedlung Maßmannplatz e.V. 124 Funk zu HM Dachauerstraße Jakob Balde Haus Theresienstraße 100 Studienseminar NeuburgDonau 110 LWL zu TUM Internationales Haus Adelheidstraße 17 Studentenwerk Hedwig Dransfeld Allee Hedwig Dransfeld Allee 7 Studentenwerk 100 100 MBit/s Laserlink Stettenkaserne Schwere Reiter Str. 35 Studentenwerk SDSL M-net für Uniradio 244 100 MBit/s Laserlink zur FH in der Dachauerstraße Heidemannstraße Paul-Hindemith-Allee 4 Studentenwerk 310 100 MBit/s Laserlink Felsennelkenanger Felsennelkenanger 7-21 Studentenwerk 545 100 MBit/s Richtfunk zur Studentenstadt, von dort per LWL zu MPI Heiglhofstraße Heiglhofstraße 64/66 Studentenwerk 415 100 MBit/s Laserlink mit integriertem 2 MBit-Funk-Backup Sauerbruchstraße Sauerbruchstraße Studentenwerk 259 100 MBit-Laserlink mit integriertem 2 MBit-Funk-Backup Garching I Garching Jochbergweg 1-7 Studentenwerk 110 100 MBit-Laserlink zu TU-Feuerwehr Garching II Garching Enzianstraße 1, 3 Studentenwerk 112 Dominohaus Garching Unterer Strassäcker 21 Dominobau Maschinenwesen Garching Studentenwerk 45 Funk zu FH (Erzgießereistr. 14) 374 Laser zu FH Dachauerstraße 60 Funk zu Winzererstr. 93 Funk zu Studentenstadt, LWL zu MPI (IMC) über Adelheidstr. 13 angeschlossen 100 MBit-Laserlink zu TUHeizkraftwerk 82 LWL zu TU-Heizkraftwerk 4 SpeedVDSL Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 112 Ehemalige Hausmeisterwohnung 97 LWL zu Theresienstraße Intern mit Funk vernetzt Türkenstraße Türkenstraße 58 Studentenwerk Weihenstephan II Giggenhauser Str. 25 85354 Freising Studentenwerk 226 LWL über Weihenstephan IV Lange Point (Weihenstephan III) Lange Point 1-35 85354 Freising Studentenwerk 382 LWL zu FH Heizhaus Weihenstephan IV Giggenhauserstraße 2733 Studentenwerk 239 LWL zur Telefonzentrale Vöttinger Straße (Weihenstephan I) Vöttinger Straße 49 85354 Freising Studentenwerk 122 LWL zu alter DVS Roncallicolleg (+ KHG) Nymphenburger Str. 99 Roncalli-Colleg Prof. Fuchtmann 125 Funk zur FH Schachenmeierstraße BLLV-Wohnheim Cimbernstraße 68 Bayerischer Lehrer- und Lehrerinnenverband (BLLV) 160 SDSL M-net Stiftung Maximilianeum Max-Planck-Str. 1 Stiftung Maximilianeum 26 Funk zu KH Rechts der Isar Studentenheim "Paulinum" Rambergstraße 6 80799 München Studentenwohnheim Paulinum e.V. (Kath.) 58 Funk zu TUM-Uhrenturm Albertia, Ottonia, Erwinia Gabelsbergerstr. 24 Stud.-Verbindungen Albertia, Ottonia, Erwinia 25 Funk zu Richard Wagner Str. 18 Wohnheim Richard WagnerStr. 16 Richard-Wagner-Str. 16 Ingeborg van-Calker Stiftung 40 LWL zu Richard Wagner Str. 18 Hochschulhaus Garching Enzianstr. 5 Evangelische Studentenwohnheime 65 Funk zu TU-Feuerwehr Spanisches Kolleg Dachauerstraße 145 Katholische Kirche 35 Funk 802.11a zur HM Chiemgaustraße Traunsteiner Straße 1-13 Studentenwerk Am Anger I Unterer Anger 2 Orden der Armen Schulschwestern 50 M-net SDSL Am Anger II Unterer Anger 17 Orden der Armen Schulschwestern 83 M-net SDSL Wohnheim Stiftsbogen Schröfelhofstraße 4 Studentenwerk Priesterseminar St. Johannes der Täufer Georgenstraße 14 Katholisches Ordinariat 28 Funk zu Georgenstraße 11 Magdalena-Lindt-Heim Kaulbachstr. 25 Ev. Waisenhausverein 93 LWL zu Staatsbibliothek Marie-Antonie-Haus Kaulbachstr. 49 Studentenwerk 94 LWL zu Ludwigstr. 28 Student Living Center 1 Freisinger Landstraße 47 Garching Fa. Melampus 93 LWL zu TUM Heizhaus Student Living Center 2 Freisinger Landstr. 47a Garching Fa. Melampus 107 LWL zu TUM Heizhaus Student Living Center 3 Freisinger Landstr. 45a Garching Fa. Melampus 72 LWL zu TUM Heizhaus Studentenwohnanlage Biederstein Biedersteiner Str. 24-30a Studentenwerk 163 LWL zu Amalienstr. 17 Newman-Haus Kaulbachstr. 29 Newman-Verein Sophie-Barat-Haus Franz-Josef-Str. 4 Katholisches Ordinariat 100 LWL zu Ordinariat Johann-Michael-Sailer-Haus Preysingstr. 83d Katholisches Ordinariat 26 LWL zu Ordinariat Heinrich-Groh-Str. Heinrich-Groh-Str. 17 Studentenwerk 59 LML über Amalienstr. 17 Moosacher Straße Moosacher Str. 81 Studentenwerk 160 100 MBit/s Laserlink Josef-Wirth-Weg 19 Josef-Wirth-Weg 19 Studentenwerk 190 100 MBit/s Laserlink Gästeappartment Barer Str. 34 Hochschule für 348 Telekom-LWL zu TUM 580 LWL zu Campus Großhadern 68 Funk über Kaulbachstr. 29 1 ADSL mit VPN-Tunnel Jahresbericht 2010 des Leibniz-Rechenzentrums Musikhochschule 113 Musik und Theater Oskar von Miller Forum Oskar von Miller Ring 25 Oskar von Miller Forum 80 LWL über Amalienstr. 17 Herzogliches Georgianum Prof. Huber Platz 1 Erzdiözese München-Freising 44 DSL, intern WLAN Rosenheim I Marienberger Str. 36-38 Rosenheim Studentenwerk 113 über Tunnel und Natomat Rosenheim II Westendorfer Str. 47a-m Rosenheim Studentenwerk 342 über Tunnel und Natomat 59 Wohnheime 3.2 Summe insgesamt 12.503 Dienste Neben der physischen und technischen Infrastruktur werden innerhalb des MWN auch viele unterstützende Dienste angeboten und betrieben. Neben dem Übergang ins globale Internet und verschiedenen Zugangsmöglichkeiten aus anderen Netzen ins MWN (z.B. über VPN, UMTS) werden auch mobile Nutzer im MWN mittels WLAN angebunden. Für Veranstaltungen und Konferenzen gibt es Konzepte, um einen Zugang ins Internet oder ins MWN zu realisieren. Der reisende Wissenschaftler wird durch eduroam, und einem damit verbundenen, sehr einfachem Zugang zum Netz unterstützt. Daneben werden Basisdienste wie Domain Name System (DNS), Dynamic Host Configuration Protocol (DHCP), Service Load Balancer (SLB), Proxies und Zeitschriftenzugänge sowie die nächste Generation des IP-Protokolls (IPv6) angeboten. Außerdem betreibt das LRZ eine Voice over IP (VoIP) Anlage für die Telefonie. Diese unterstützenden Netzdienste werden im Folgenden vorgestellt. 3.2.1 Wählzugänge (Modem/ISDN) Die Anzahl der Wählverbindungen hat sich im Laufe des Jahres 2010 weiter verringert. Die Anzahl der Telekom-Kunden ging auf ca. 80 (2009: 160) zurück, die der M-net-Kunden stagnierte bei ca. 70. Abbildung 49 zeigt für das zweite Halbjahr 2010 die maximale Anzahl gleichzeitig aktiver Verbindungen pro Woche, aufgeschlüsselt nach den jeweiligen Rufnummern. Abbildung 49: Maximale Anzahl von Verbindungen pro Rufnummer des zweiten Halbjahres 2010 Der Wochenüberblick zeigt bei den M-net-Verbindungen das Ansteigen werktags um 18 Uhr (vgl. Abbildung 50). Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 114 Abbildung 50: Verteilung der Modem/ISDN-Verbindungen im Wochenüberblick Über Radiuszonen können einzelne Institutionen für ihre Beschäftigten bzw. Studierenden die Berechtigung für den Wählzugang und andere Netzdienste wie VPN oder Eduroam selbst verwalten. Zum Jahresende 2010 waren 55 Radiuszonen konfiguriert. Eine Auflistung der Radiuszonen zeigt Tabelle 31: Zonenbezeichnung aci.ch.tum ads.mwn.de binfo.wzw.tum.de bl.lmu bsbmuenchen campus.lmu.de cicum.lmu cip.informatik.lmu cipmath.lmu eduroam.mwn.de edv.agrar.tum fhm.de fhforst.tum frm2.tum fsei.tum fsmpi.tum hm.edu ibe.lmu ikom.tum info.tum lkn.tum lmu.de lmupsychologie lpr.tum lrz.de math.lmu math.tum med.lmu med.lmu.de Institut Lehrstuhl für Anorganische Chemie TUM Kennungen im MWN-ADS Genome oriented Bioinformatics Beschleunigerlabor der TU und der LMU München Bayerische Staatsbibliothek Internet und virtuelle Hochschule (LMU) Department Chemie LMU Institut für Informatik der LMU Mathematisches Institut LMU Eduroam-Nutzer Datenverarbeitungsstelle der TU in Weihenstephan Hochschule München Hochschule Weihenstephan-Triesdorf Forstwissenschaftliche Fakultät Forschungsreaktor Fachschaft Elektro- & Informationstechnik Fachschaften MPI Hochschule München Institut für medizinische Informationsverarbeitung, BioFachschaft Elektro- & Informationstechnik Informatik TUM Lehrstuhl für Kommunikationsnetze Verwaltung LMU Depart für Psychologie Lehrstuhl für Prozessrechner LRZ-Mitarbeiter Mathematisches Institut LMU Zentrum Mathematik TU München Medizin der LMU, Großhadern Medizin der LMU, Großhadern Jahresbericht 2010 des Leibniz-Rechenzentrums meteo.lmu mytum.de org.chemie.tum phy.lmu physik.lmu.de radius.wzw.tum rcs.tum regent.tum rz.fhm staff.fhm studext studlmu tec.agrar.tum tphys.lmu tum.de usm usm.lmu vm08.fhm wzw.tum zi.lmu zikgwpa zv.tum 115 Meteorologisches Institut LMU Mitarbeiter und Studenten der TUM Institut für Organische Chemie und Biochemie Lehrstuhl Fakultät für Physik der LMU Fakultät für Physik der LMU Informationstechnologie Weihenstephan (ITW) Lehrstuhl für Realzeit-Computersysteme Lehrstuhl für Rechnergestütztes Entwerfen Rechenzentrum der FH München (Studenten) Rechenzentrum der FH München (Mitarbeiter) Studentenrechner LRZ (andere) Studentenrechner LRZ (LMU) Institut für Landtechnik Weihenstephan Institut Theoretische Physik LMU Mitarbeiter und Studenten der TUM LMU Sternwarte LMU Sternwarte Fachbereich 08, FH München Informations-Technologie Weihenstephan Zoologisches Institut der LMU Zentralinstitut für Kunstgeschichte Zentrale Verwaltung TUM Tabelle 31: Radiuszonen im MWN 3.2.2 VPN Im MWN werden Virtual-Private-Networks in folgenden Szenarien eingesetzt: • Zugang über vom LRZ betreute WLANs. • Zugang über öffentliche Anschlussdosen für mobile Rechner. • Zugang zu internen MWN-Diensten (z.B. Online-Zeitschriftenangebot der Universitätsbibliotheken) für Bewohner von Studentenwohnheimen. • Zugang zu internen MWN-Diensten über das Internet. 3.2.2.1 Technik Die VPN-Hardware besteht aus vier Appliances vom Typ „Adaptive Security Appliances ASA5540“ und einer Appliance vom Typ „VPN-Concentrator 3030“ der Firma Cisco. Der VPN-Concentrator 3030 dient für die Anbindung von externen Einrichtungen außerhalb des MWN über IPsec LAN-to-LAN Tunnel. Die vier ASA-Appliances sind zu einem VPN-Cluster zusammengefasst. Dieser VPN-Cluster wird von IPsec-Clients unter der Adresse ipsec.lrz.de, von SSL-VPN-Clients unter der Adresse asa-cluster.lrz.de angesprochen. Die Nutzer werden beim Anmelden mit der am geringsten ausgelasteten Appliance verbunden. Der VPN-Concentrator 3030 ist über zwei 100 MBit/s Anschlüsse (öffentlich und privat) angeschlossen. Die vier ASA5540 sind jeweils mit 1GBit/s angeschlossen. Die verfügbare Bandbreite für verschlüsselte Verbindungen (AES/3DES) beträgt 50 MBit/s beim VPN-Concentrator 3030 und 350 MBit/s pro ASA5540. Authentifizierung, Autorisierung der Nutzer sowie Accounting werden über das RADIUSProtokoll abgehandelt. 3.2.2.2 VPN-Software Berechtigte Nutzer können die aktuellen Versionen der VPN-Software vom Web- oder VPN-Server des LRZ herunterladen. Für Linux und Mac OS X stehen neben den Cisco-IPsec und AnyConnect-Client der „Open Source“ VPN-Client vpnc (IPsec) und openconnect (SSL-VPN) zur Verfügung, der erfahrenen Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 116 Nutzern erweiterte Möglichkeiten bietet. Diese Clients sind inzwischen in den Standarddistributionen wie z.B. Debian, SuSE und Ubuntu enthalten. 3.2.2.3 Telearbeitsplätze von LRZ-Mitarbeitern Mitarbeiter nutzen die internen Ressourcen des LRZ während ihrer Arbeit zu Hause. Dazu erhalten sie einen VPN-Router, an den sie Rechner und VoIP-Telefon anschließen können. Der VPN-Router ist so konfiguriert, dass er automatisch eine Verbindung zum VPN-Server im LRZ aufbaut. Über diese Verbindung, einen verschlüsselten IPsec LAN-to-LAN Tunnel, wird ein Subnetz mit der Subnetzmaske 255.255.255.248 geroutet. Damit stehen sechs IP-Adressen für Router, Rechner, ggf. Laptop und IPTelefon zur Verfügung. Bei dem VPN-Router handelt es sich um das Modell WRV54G von Linksys. Das Telefon ist an der VoIP-Telefonanlage des LRZ angeschlossen und so konfiguriert, dass der Mitarbeiter am Heimarbeitsplatz mit der gleichen Telefonnummer wie an seinem Arbeitsplatz am LRZ erreichbar ist. 3.2.2.4 Entwicklung des Datenverkehrs über die VPN-Server Im Monat November, dem Monat mit dem höchsten Datenaufkommen, stieg der Durchsatz im Vergleich zum Vorjahr um 45%. In Spitzenzeiten waren bis zu 3200 Nutzer parallel angemeldet, täglich wurden bis zu 30.000 Verbindungen aufgebaut. Der im Jahr 2009 eingeführte SSL-VPN Client (Cisco AnyConnect) hat inwischen einen Anteil von 30% aller Verbindungen erreicht. Folgende Aufteilung nach Betriebsystemen ergab sich bei den IPsec-Verbindungen (Referenzmonat November): Linux 8%, iOS 15%, Mac OS X 29%, Windows 49%. Bei den SSL-VPN Verbindungen ist eine Aufschlüsselung nach Betriebsystemen nicht möglich. Jahr Ausgehend Eingehend Gesamt 2005 0,7 3,2 3,9 2006 1,7 6,2 7,9 2007 3,1 11,4 14,5 2008 3,8 12,7 16,5 2009 4,6 20,7 25,3 2010 8,0 28,8 36,7 Tabelle 32: Datenverkehr in Terabytes über die VPN-Server im Referenzmonat November 40 30 20 Ausgehend Eingehend Gesamt 10 0 2005 2006 2007 2008 2009 2010 Abbildung 51: Datenverkehr in Terabytes über die VPN-Server im Referenzmonat November Jahresbericht 2010 des Leibniz-Rechenzentrums 117 3500 3000 2500 2000 1500 1000 500 0 31.12 31.01 28.02 31.03 30.04 31.05 30.06 31.07 31.08 30.09 31.10 30.11 31.12 Abbildung 52: Anzahl der gleichzeitig an den VPN-Servern angemeldeten Nutzer 40,000 35,000 30,000 Eingehend Ausgehend Summe 25,000 20,000 15,000 10,000 5,000 0,000 Abbildung 53: Monatliches Datenvolumen der VPN-Server in Gigabyte im Jahr 2010 3.2.3 DFN-Roaming Das LRZ nimmt seit Anfang 2005 am DFN-Roaming-Dienst des DFN (Deutsches Forschungsnetz) Vereins teil. Damit ist es den Wissenschaftlern möglich, mittels einer vorhandenen Kennung ihrer HeimatHochschule einen einfachen Zugang ins Internet zu erhalten, wenn sie sich im Bereich des MWN aufhalten. Als Zugangspunkte dienen die vorhandenen WLAN-Accesspoints (an praktisch allen Standorten). In der erweiterten Form mit der SSID 'eduroam' statt '802.1X' ist nicht nur das Roaming innerhalb Deutschlands, sondern auch in vielen Länden Europas und in Australien möglich. Auch in den USA beginnen sich die ersten Universitäten zu beteiligen. Die SSIDs 'eduroam' und '802.1X' werden auf fast allen Accesspoints im MWN zur Verfügung gestellt. Nur an 2 Standorten mit je einem Accesspoint, die über DSL-Leitungen angeschlossen sind, war es aus technischen Gründen nicht möglich, das DFN-Roaming anzubieten. Neben der bisher im Bereich des MWN obligaten Methode TTLS/PAP wurde 2010 auch die Authentifizierung über PEAP/ MSCHAPv2 ermöglicht. Dies wurde erforderlich, da Windows 7 Systeme diesen Dienst nur mit kostenpflichtiger Zusatzsoftware TTLS/PAP nutzen können. Außerdem wurde der von vielen Systemen bisher benutzte Client (SecureW2) nicht mehr kostenfrei angeboten. Aus diesen Gründen 118 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes wurde ein eigenes Windows-basiertes Directory für Eduroam mit Anbindung an das IdentityManagement-System des LRZ eingerichtet. Mittels PEAP können nun Systeme mit Windows 7 und viele Smartphones Eduroam ohne zusätzliche kostenpflichtige Software nutzen. Das nachfolgende Bild zeigt die Benutzungs-Statistik für das 802.1X/eduroam. Abbildung 54: Anzahl der Eduroam-Nutzer im Jahr 2010 3.2.4 Unterstützung von Veranstaltungen Das LRZ richtet für Veranstaltungen im Münchner Wissenschaftsnetz (MWN) bei Bedarf ein spezielles Netz ein, damit die Tagungsteilnehmer das Netz ohne besondere Authentifizierung nutzen können. Hierbei wird davon ausgegangen, dass die Nutzer dieses Netzes nicht unbedingt aus dem Kreise der Münchner Hochschulen stammen, sondern auch Firmen u. dgl. das Internet und das MWN ohne spezielle Vorkehrungen (ohne VPN-Client-Installation, ohne Validierung) nutzen sollen. Eine Anmeldung und die bei frei zugänglichen Netzanschlüssen ansonsten obligatorische Verwendung eines VPN-Zugangs werden hier nicht gefordert. Diese „offene" Konfiguration bleibt auf den Zeitraum und den Ort der Veranstaltung begrenzt. Der Zugang ist drahtlos (WLAN nach IEEE 802.11b/g/n) möglich. Nur in Ausnahmefällen werden feste Netzanschlussdosen (100 Mbit/s LAN) zur Verfügung gestellt. Für Geräte, die keine eingebaute Funkschnittstelle haben, werden vom LRZ Wireless-Client-Bridges (WCB) bereitgestellt. Die Realisierbarkeit des Dienstes hängt aber von der vorhandenen Infrastruktur ab, nicht in allen Gebäuden und Räumen ist eine solche Möglichkeit gegeben. Allerdings ist dies meistens der Fall. Der Zugang wird seit 2006 bevorzugt per WLAN zur Verfügung gestellt. Der Netzname (SSID) ist dabei ´con´. Es wird keine Verschlüsselung verwendet, um Probleme mit der Weitergabe und Einstellung der Schlüssel zu vermeiden. Für länger dauernde Kurse oder auf Wunsch des Veranstalters werden aber auch verschlüsselte Netze eingerichtet. Für reisende Wissenschaftler gibt es außerdem die Möglichkeit, sich mittels eduroam (vgl. Abschnitt 3.2.3) mit der Kennung ihrer Heimat-Universität im Netz anzumelden und verschlüsselt zu kommunzieren. In den letzten Jahren wird dieser Dienst vermehrt auch bei Veranstaltungen genutzt. Das heißt, diese sichere Art der Kommunikation setzt sich immer mehr durch. 2010 wurden 215 Veranstaltungen unterstützt (42 mehr als im Vorjahr). Jahresbericht 2010 des Leibniz-Rechenzentrums 119 Datum Veranstaltung Datum Veranstaltung 10.06.2010-11.06.2010 10JahreVHB-2010 02.08.2010-03.08.2010 IPComm-2010 25.11.2010-26.11.2010 10_Jahre_VHB 03.12.2010-05.12.2010 ISARMUN-2010 19.06.2010-24.06.2010 22-IKOM-2010 28.10.2010-31.10.2010 ISMA-2010 22.07.2010-23.07.2010 ADG-2010 04.03.2010-05.03.2010 ISO20K-Maerz2010 11.10.2010-13.10.2010 ASCENS-2010 12.07.2010,25.07.2010-28.07.2010 ISSAC-2010 23.11.2010 Abschlusskolloquium_SFB453-2010 23.02.2010-24.02.2010 IVK2010 13.04.2010-16.04.2010 Adipositas-2010 02.07.2010 Ideenboerse-LfP-2010 20.09.2010 Agrarwissenschaftliches_Symposium-2010 14.06.2010 ImmerSence-Juni2010 05.10.2010-09.10.2010 Alpenforum-2010 20.07.2010 InKoMBio-2010 15.02.2010-17.02.2010 Annex54-2010 21.10.2010 Infoblox-Meeting 02.11.2010 Apple_on_Campus-Event2010 03.12.2010-05.12.2010 Integration_hoergeschaedigter_Kinder-Dez2010 25.11.2010-26.11.2010 Architektur-Konferenz-Dez2010 14.04.2010-15.04.2010 Intel_Round_Tabelle-April2010 18.11.2010 Autodesk-Nov2010 22.03.2010-23.03.2010 Interact-2010 23.09.2010 BRZL-AK-2010 11.05.2010 International_Day_HM-2010 15.04.2010 BULL-April2010 29.11.2010-03.12.2010 Internationale-Woche-TUM-2010 18.11.2010-19.11.2010 Biofilm-Nov2010 24.11.2010 Internationaler_Tag-NOV2010 15.04.2010-19.04.2010 Bright-2010 22.08.2010-29.08.2010 Isotopeschool-08-2010 02.12.2010 Britische-Hochschulmesse-2010 04.10.2010-08.10.2010 Iterative-Gleichungssystemloeser-und-Parallelisierung 21.05.2010 Bull-05-2010 01.12.2010 JOBcon-Finance-2010 10.06.2010 CC-Fachtagung-FK07-2010 07.05.2010 KIT-Mai2010 15.03.2010 CISCO-Besprechung 21.09.2010,23.09.2010-24.09.2010 Kanzlertagung-WZW-2010 12.10.2010-13.10.2010 COIN-Okt-2010 17.11.2010 KinderUni-2010 18.03.2010-19.03.2010 COST_Action_D41-2010 11.02.2010-22.02.2010 Klimagerechtes_Bauen-2010 21.10.2010-23.10.2010 CRC-Symposium-2010 07.09.2010 LERU-2010 16.08.2010 Chemistry-meets-Biology-2010 26.07.2010-27.07.2010,29.07.2010-30.07.2010 LSR-SummerSchool-2010 06.12.2010 Chinese-Delegation-Dez2010 17.11.2010,21.11.2010 Landesastenkonferenz-Nov2010 02.06.2010 Cisco_Ironport-Juni2010 14.10.2010-15.10.2010 Largecells_Kickoff_Meeting-Okt2010 04.02.2010 Cloud_Computing_LRZ-2010 18.11.2010 Leading-Entrepreneurs-Nov2010 13.10.2010-14.10.2010 CoTeSys-Workshop-Okt2010 23.06.2010 Lehrerfortbildung-Informatik-2010 09.07.2010 Concrete-Causation-2010 02.07.2010,03.07.2010 MHS-2010 26.04.2010-27.04.2010 CoteSys-Course-April2010 16.03.2010-17.03.2010 MMK-2010 12.03.2010 Courses_in_English-2010 16.03.2010 MMK-20109 09.02.2010-11.02.2010 DEISA-Meeting-Feb2010 05.10.2010 MMS-2010 29.06.2010 30.06.2010 DEISA2_Review-Juni2010 09.07.2010 Marketing-Symposium-2010 10.05.2010 11.05.2010 DES-2010 14.05.2010-16.05.2010 Marokkanischer_Verein-2010 13.04.2010-16.04.2010 DFG-FOR538-April2010 04.11.2010-05.11.2010 Megacities-2010 05.03.2010 DFG-Schwerpunkt-05.03.2010 17.03.2010 Menschliche_Zuverlaessigkeit-2010 07.07.2010-09.07.2010 DFG-Tagung-IMETUM-Juni-2010 26.11.2010 Mentor_meets_Mentee-Nov2010 07.10.2010-09.10.2010 DG-GT-Meeting-2010 09.03.2010-12.03.2010 Metabolomics_and_More-2010 27.09.2010-28.09.2010 DGSI-Sept2010 03.02.2010 Microsoft-Roadshow-2010 04.11.2010-07.11.2010 DPT-2010 04.02.2010-05.02.2010 Mittelstandssymposium-2010 04.08.2010-05.08.2010 DRIHM-Proposal-Meeting-2010 30.04.2010 Moodle-2010 17.05.2010-18.05.2010 DRIHMS-MAI-2010 06.12.2010 Moskau-Delegation 25.02.2010,03.03.2010-05.03.2010 DZT-2010 18.05.2010-19.05.2010 Muenchener_Unternehmenstag-2010 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 120 23.02.2010-24.02.2010 Design_und_Elektronik-2010 19.10.2010-20.10.2010 NIXU-Workshop-2010 02.09.2010-03.09.2010 Double-Chooz-Experiment-2010 30.03.2010 Nanocem-2010 07.05.2010-09.05.2010 DrupalDevDays-2010 05.10.2010 Netzneutralitaet-Okt-2010 23.08.2010-27.08.2010 EARLI_SIG_14-2010 14.10.2010-16.10.2010 Niere-2010 04.05.2010-05.05.2010 EFSA-2010 08.03.2010-09.03.2010 OASE-Projektmeeting-Maerz2010 17.12.2010 EGI-InSPIRE-PMB-2010 14.03.2010-20.03.2010 OGF28-2010 14.10.2010-16.10.2010 EGU_Fall-2010 04.10.2010-06.10.2010 Oekolandbau-Okt-2010 06.09.2010-09.09.2010 EHEDG-Seminar-Sept2010 04.12.2010-05.12.2010 Open-HW_SW-Event 07.10.2010-09.10.2010 ELOA-2010 02.12.2010 PDF_und_Geodaten_II-2010 13.09.2010 EPS-EWG-2010 15.01.2010 PERC-2010 24.06.2010 ERC-2010 30.08.2010-31.08.2010 PRACE-Kickoff-Mtg-2010 28.09.2010-02.10.2010 ESF-COST-A32-2010 01.03.2010-02.03.2010 PRACE_Workshop-Maerz2010 12.04.2010-13.04.2010 ETG-Workshop-2010 05.05.2010 PROSPECT-Mai2010 26.11.2010-27.11.2010 EU-Project-FP7-Nov2010 13.10.2010 PROSPECT-Okt2010 14.10.2010 EXASCALE-Meeting-Okt2010 20.12.2010 PROSPECT_STRATOS-2010 27.10.2010 EXPO-Wege-ins-Ausland-Okt2010 20.09.2010-24.09.2010 PWA-Workshop-2010 26.08.2010-27.08.2010 EcoMove-AUG2010 15.10.2010 PWiB-2010 14.09.2010-15.09.2010 EcoMove-SEPT2010 06.12.2010 ParTec-MSU-Dez2010 14.09.2010-17.09.2010 Economics_of_Food-2010 11.05.2010 Personalmesse-AUDIT-2010 08.10.2010-09.10.2010 Ernmed-2010 18.05.2010 Personalmesse-CONSULTING-2010 27.09.2010-01.10.2010 ExMar-2010 05.05.2010 Personalmesse-MEDIEN-2010 18.06.2010 Exascale-FS-2010 12.05.2010 Personalmesse-RECHT-2010 18.05.2010 FET-MAI-2010 11.03.2010-25.03.2010 Pervasive_Health-2010 27.09.2010 FH-RZ-Leiter-Sept2010 06.10.2010-07.10.2010 PhiBot10-2010 27.11.2010 FIRST_LEGO_League-November2010 13.12.2010 Pressekonferenz-SuperMUC-2010 12.04.2010-16.04.2010 FOG-April2010 06.10.2010 Produktionskongress-2010 17.07.2010-18.07.2010 FUH-psy2-ss10-2010 24.02.2010-26.02.2010 Reprotagung-2010 13.08.2010-15.08.2010 FernUni-2010-Bod 23.04.2010-24.04.2010 Roboticswettbewerb-April_2010 14.10.2010-16.10.2010 FernUni-2010-PsyE 22.02.2010-26.02.2010 SENSORIA-Feb2010 08.04.2010-10.04.2010 FernUni-EL-2010 08.10.2010 SFB453-Okt2010 12.06.2010 FernUni-Neve-Mai2010 01.03.2010-03.03.2010 SFB607-2010 31.05.2010-02.06.2010 Firmenkontaktgespraech-LMU-2010 03.03.2010 STRATOS-Meeting-Maerz2010 24.03.2010-25.03.2010 Forstlicher-Unternehmertag-2010 11.05.2010 Sophos-Tag-Mai2010 26.04.2010-27.04.2010 Forum_der_Lehre-2010 05.10.2010 Spiegelausschuss-2010 05.10.2010-08.10.2010 Freiflaechenworkshop-Okt-2010 04.10.2010,11.10.2010-14.10.2010 Stat-Woche-M2010 15.10.2010 Fundraisingtag_Muenchen-2010 07.12.2010 Stratos-Management-Board-Dez2010 16.06.2010-17.06.2010 G-Node-Symposium-2010 27.10.2010 Studienfinanzierung-2010 05.03.2010-12.03.2010 GDM-2010 20.03.2010 Studieninformationstag-2010 04.10.2010-06.10.2010 GEARS-2010 16.10.2010 Studieninfotag-Okt2010 06.07.2010 GI-Herausgebertreffen-2010 19.11.2010-22.11.2010 Studieren-Down-Under-2010 18.03.2010-19.03.2010 GMA-ELearning-2010 26.07.2010-06.08.2010 Summer-School-2010 15.03.2010-17.03.2010 GPZ2010 18.05.2010 SuperMUC-SGI-2010 20.05.2010 GROW-2010 10.03.2010-16.03.2010 THIS-Maerz2010 27.09.2010-29.09.2010 Ganga-Developer-Sept2010 08.07.2010-09.07.2010 TIME-Meeting-2010 09.12.2010-10.12.2010 Geist-Gehirn-Maschine-2010 28.10.2010-29.10.2010 Technologieseminar-Okt-2010 Jahresbericht 2010 des Leibniz-Rechenzentrums 121 04.11.2010-05.11.2010 Geodaesie-Nov-2010 24.03.2010 Telekom_Stiftung-2010 10.03.2010-11.03.2010 Geoinformationssysteme-2010 19.03.2010 TextGrid-2010 05.08.2010-07.08.2010 GlobalHands-2010 17.05.2010-20.05.2010 Thermoacoustics-Mai-2010 25.06.2010 Governance-Network-2010 10.06.2010 Unternehmertag-2010 29.11.2010-01.12.2010 Gradewood-2010 04.06.2010-07.06.2010 VDE-Fallstudien-2010 08.04.2010-10.04.2010 HETDEX-2010 01.05.2010-02.05.2010 VDI-Aktiven-Treffen-2010 14.07.2010 HP-Networking-Day-2010 14.10.2010-15.10.2010 VERCE-Okt-2010 21.04.2010 HP-Procurve-Manager-April2010 11.03.2010,15.03.2010,17.03.2010-19.03.2010 Vertragsverhandlungen-SuperMUC-2010 02.11.2010-03.11.2010 HoKo-2010 08.10.2010,12.10.2010-13.10.2010 Vorkurs-Physik-Herbst2010 22.10.2010 IAS-Symposium-Okt2010 07.10.2010-08.10.2010 WMHT-2010 29.11.2010-03.12.2010 IATUL-Tagung-NOV2010 22.02.2010-24.02.2010 WS_Vegetationsoekologie-Feb2010 01.06.2010 ICS-Symposium-Juni2010 22.10.2010-26.10.2010 Wissenschaftstage-Okt-2010 28.06.2010-01.07.2010 ICTON-2010 06.12.2010-10.12.2010 Workshop_Fluorescence_Imaging-2010 23.06.2010 IFO-Jahresversammlung-2010 19.02.2010 ZHS-Alumni-Feb2010 23.07.2010-31.07.2010 IFTR-2010 10.11.2010-11.11.2010 ZKI_IT-Strategietagung-2010 18.10.2010-19.10.2010 IGE-KickOff-Meeting-Okt2010 15.04.2010-17.04.2010 Ziel-Seminar-Apr2010 26.11.2010 IGSSE_Meeting-Nov2010 18.02.2010-20.02.2010 Ziel-Seminar-Feb2010 20.01.2010 IKOM_Bau-2010 29.09.2010-30.09.2010 excelence-day-Sep-2010 05.05.2010 IKOM_Life_Science-2010 14.01.2010 Interne Sitzung (VER:_GSISSH-Vorführung) 11.10.2010-13.10.2010 IMAPS_Konferenz-2010_ 14.04.2010-16.04.2010 mfk2010 Tabelle 33: Liste der unterstützten Veranstaltungen im Jahr 2010 Auch im Jahr 2010 wurden für die Unterstützung der Konferenzen teilweise schon vorhandene Access Points gegen neuere ausgetauscht, um den erhöhten Bedarf abdecken zu können. Damit können Konferenz-Teilnehmer mit neueren Laptops Transfer-Raten bis zu 300 Mbit/s erreichen und geben dadurch den Funkkanal schneller wieder für andere Teilnehmer frei. Außerdem wurden öfters Access Points anlässlich einer Veranstaltung neu aufgebaut, die ansonsten erst zu einem späteren Zeitpunkt eingerichtet worden wären. Eine Verteilung der Konferenzen auf die einzelnen Monate zeigt die Statistik in Abbildung 55. Erwartungsgemäß werden die Hörsäle vor allem in vorlesungsfreien Zeiten für Konferenzen genutzt. Abbildung 55: Konferenzen im Verlauf des Jahres 2010 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 122 3.2.5 Internet-Zugang Der Zugang zum weltweiten Internet wird über das Deutsche Wissenschaftsnetz (WiN) realisiert. Im Jahr 2010 war das MWN technisch mit einer 10 Gbit/s-Schnittstelle am WiN angeschlossen. Derzeit ist ein zweistufiges Ausfallkonzept mit Backups für den Internetzugang umgesetzt (s.u). Die monatliche Nutzung (übertragene Datenmenge) des WiN-Anschlusses seit Juni 1996 zeigt Abbildung 56 Abbildung 56: Entwicklung der Nutzung des WiN-Anschlusses des MWN (in GByte/s) Die Steigerungsraten - bezogen auf die jeweils im Vorjahr transportierte Datenmenge - sind in Abbildung 57 graphisch dargestellt. Seit dem Jahr 1999 hat die Datenmenge auf die 100-fache Menge zugenommen. 1,0 1,0 2001 2002 1,4 1,4 2003 2004 1,5 2005 1,7 1,9 1,9 1,6 1,4 2006 2007 2008 2009 2010 Abbildung 57: Steigerungsraten beim übertragenen Datenvolumen Seit September 2003 ist der WiN-Anschluss vertragstechnisch ein so genannter Clusteranschluss, bei dem die vom MWN versorgten teilnehmenden Institutionen als eigenständige Partner mit eigenem Tarif bezogen auf den eingehenden Datenverkehr aufgefasst werden. Zu diesem Zweck wurden die laufenden Mes- Jahresbericht 2010 des Leibniz-Rechenzentrums 123 sungen kumuliert, um eine Verteilung des Datenverkehrs zu bekommen. Die prozentuale Verteilung des Datenvolumens am WiN-Zugang (Messzeitraum November 2010) zeigt Tabelle 34. Institution LRZ und BAdW TUM LMU Hochschule München Sonstige Hochschule Weihenstephan Gate Total Bytes % 78,1 8,7 8 1,6 2,5 0,9 0,2 Tabelle 34: Prozentuale Verteilung des Datenverkehrs am WiN-Zugang Die prozentuale Verteilung des gesamten Verkehrs gegenüber Werten des Vorjahres hat beim LRZ um 7% zugenommen. In etwa im gleichen Verhältnis hat der Verkehr bei der TUM abgenommen. Die technische Realisierung der Anbindung des MWN an das Internet zeigt Abbildung 58: Abbildung 58: Anbindung des MWN an das Internet Der Standardzugang zum Internet ist über das vom DFN betriebene Wissenschaftsnetz (WiN) realisiert. Der WiN-Anschluss des LRZ erfolgt über das IPP (Max-Planck-Institut für Plasmaphysik) in Garching mit einer Anschlußbandbreite von 10 Gbit/s. Dort wurde vom DFN der zugehörige WiN-Kernnetz-Router installiert. Derzeit ist ein zweistufiges Ausfallkonzept für den Internetzugang umgesetzt. 1. Falls die Hauptleitung zwischen LRZ und IPP oder eines der entsprechenden Interfaces an den beiden Routern ausfallen sollte, wird automatisch auf den Backup-Link zwischen Maschinenwesen und IPP umgeschaltet. Durch diese Backup-Verbindung entstehen keine zusätzlichen Kosten. 2. Sollten beide Leitungen oder aber der Kernnetzrouter des DFN in Garching ausfallen, wird ohne merkliche Unterbrechungen für den Benutzer auf eine über M-net realisierte Backup-Verbindung umgeschaltet. Die Backup-Verbindung zum Internet wird über eine LWL-Strecke mit 1 Gbit/s Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 124 zum nächsten Anschlusspunkt von M-net geführt. Die LWL-Strecke kostet einen monatlichen Grundbetrag, das Datenvolumen wird nach Verbrauch berechnet. Die Backup-Konzepte funktionieren für alle Systeme mit Provider-unabhängigen IP-Adressen (Standardfall im MWN). Das LRZ-Netz kann nämlich mit einem Großteil seiner IP-Adressen als autonomes System im Internet agieren. Einige Standorte (Rechts der Isar, Hochschule München, Beschleunigerlabor, Zoologische Staaatsammlung, kath. Stiftungsfachhochschule) bzw. Systeme (Bibliotheksverbund Bayern), die aus historischen Gründen noch providerabhängig IP-Adressen (i.d.R. vom DFN vergeben) verwenden, können die Backup-Strecken nicht nutzen. Im Jahr 2010 wurde die Backup-Strecke in sechs Fällen aktiv. In der Regel handelte es sich dabei um sehr kleine Störungen und der Backup war nur für wenige Minuten aktiv. Am 27.08.2010 kam es zu RoutingProblemen im X-WiN. Auslöser war ein Test von RIPE und ein Software-Fehler in einigen DFNRoutern. Bei diesem Vorall wurde der Verkehr für knapp zwei Stunden über die Backup-Strecke abgewickelt. 3.2.6 Service Load Balancer (SLB) 3.2.6.1 Big-IP-3400 Die beiden Big-IP-3400 Server Load Balancer von F5 Networks sind schon seit 2006 produktiv mit großem Erfolg im LRZ im Einsatz. Über sie laufen Dienste wie Webserver, Radiusproxies, Zeitschriftenproxies und SSH-Logins für das Linux-Cluster. Weitere technische Informationen dazu sind in den Jahresberichten der Vorjahre zu finden. 3.2.6.2 Big-IP-8900 Für das Projekt Hochschulstart.de wurden im Oktober 2010 zwei Big-IP-8900 Server Load Balancer beschafft. Diese werden zunächst nur für Hochschulstart.de (vgl. Abschnitt 2.9) eingesetzt. Ab Februar 2011 sollen sie dann die beiden Big-IP-3400 ersetzen. Alle Dienste werden dann umgezogen. Technische Daten der Big-IP-8900: • 2x AMD Quad Core 2,2 GHz • 2x 320 GB Festplatte als Raid 1 • 16 GB RAM • Hauptanbindung: 2x 10 Gb-Ethernet-Glasfaser • 8 x 1 Gb-Ethernet-Glasfaser (2x nur intern genutzt) • 16 x 1 Gb-Ethernet-Kupferkabel (2x für Serveranbindung genutzt) • Max. 58.000 SSL-Transaktionen pro Sekunde in Hardware. 3.2.7 Proxies und Zeitschriftenzugang Das Angebot der elektronischen Zeitschriften und Datenbanken wurde von den Universitätsbibliotheken weiter ausgebaut. In vielen Fakultäten ist es eine wichtige Informationsquelle für Mitarbeiter und Studenten. Viele Studenten recherchieren auch von zu Hause, wo sie meist über einen DSL-Anschluss mit Flatrate verfügen. 3.2.7.1 Webplattform für den Zeitschriftenzugriff Die vom LRZ betriebene Webplattform DocWeb (http://docweb.lrz-muenchen.de) wurde am 31.12.2010 eingestellt, da die zugrundeliegende Software (CGIProxy) nicht mehr weiter gepflegt wird und zunehmend Probleme mit dynmischen Webseiten (vor allem mit Javascript) machte. Das führte dazu, dass viele Zeitschriftenzugänge und Zeitschriften nicht mehr benutzbar waren, da ständig JavascriptFehlermeldungen erschienen oder die Webseiten keinen sinnvollen Inhalt mehr anzeigten. Die Universitätsbibliothek der TU-München hat mit eAccess (https://eaccess.ub.tum.de :2443/login) seit Sommer 2010 einen Nachfolger am Start. Nutzer der LMU können nur noch den Zugang über VPN verwenden. Jahresbericht 2010 des Leibniz-Rechenzentrums 3.2.7.2 125 Shibboleth Für die Bibliothekszwecke wird das Authentifizierungsverfahren Shibboleth eingesetzt. Als verlagsübergreifendes Authentisierungsverfahren Shibboleth ist es zwar schon seit einiger Zeit bei beiden Bibliotheken im produktiven Einsatz, allerdings beteiligen sich daran zurzeit nur große Verlagshäuser. Bei Shibboleth wird der Nutzer von der Verlagsseite direkt zu einer Authentifizierungseite des LRZ umgeleitet und muss sich nur einmal für einige Stunden und beliebige teilnehmende Verlage einloggen. VPN oder ein spezielles Webportal sind dann nicht mehr notwendig. 3.2.8 Domain Name System Neben IPv4- werden auch IPv6-Einträge unterstützt. Der Webdns-Dienst wird inzwischen von 255 Nutzern zur Pflege der DNS-Einträge verwendet. Die Anzahl der über Webdns verwalteten DNS-Zonen stieg (von 1688) auf 1857. Es wurden 123 neue Domains unter verschiedenen Toplevel-Domains (z.B. de, org, eu) für Institute und Organisationen registriert oder von anderen Providern transferiert. Abbildung 59 und Abbildung 60 zeigen die Frequenz der Anfragen für den autoritativen und ResolvingDienst über 7 Tage (6.12.2010 – 12.12.2010). Abbildung 59: Statistik für alle DNS-Server (Autoritativ) Abbildung 60: Statistik für alle DNS-Resolver Eine Übersicht aufgeteilt nach Domains im MWN zeigt Tabelle 29. Die reale Anzahl der Zonen und Einträge ist um einiges höher, kann aber nicht ermittelt werden, da manche der von den Instituten selbst betriebenen DNS-Server keine Auflistungs-Abfragen beantworten. Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 126 Domain Anzahl Anzahl Zonen Sub-Domains Anzahl ARecords Anzahl Anzahl AAAARecords Aliase Anzahl MX-Records uni-muenchen.de 359 2879 26025 1383 4113 3572 lmu.de 104 2076 3744 272 1636 2933 tu-muenchen.de 286 7257 18831 340 1967 7687 tum.de 323 2466 10429 593 2590 1959 fh-muenchen.de 50 288 3566 0 233 525 hm.edu 68 228 7509 0 228 307 3 18 114 0 48 2 fhweihenstephan.de hswt.de badwmuenchen.de 1 6 61 0 39 2 25 74 28 0 29 92 badw.de 24 70 1 0 63 82 lrz-muenchen.de 72 185 6669 901 1120 55 lrz.de 59 128 20394 286 588 14 mhn.de 62 321 78113 40 1263 274 mwn.de 42 117 2914 113 269 26 Sonstige 503 683 2495 63 788 501 Gesamt 1981 16796 180893 3991 14974 18031 Tabelle 35: Domains im MWN 3.2.8.1 Teilnahme am deutschen DNSSEC-Testbed Die Einführung der Domain Name System Security Extensions (DNSSEC), einer Erweiterung des DNS, mit der Authentizität und Datenintegrität von DNS-Transaktionen gewährleistet werden, wurde angegangen. Das LRZ hat hierzu die ersten Domains (z.B. mwn.de) digital signiert und nimmt am DNSSECTestbed der DENIC (zentrale Regesteriungsstelle für alle .de-Domains) teil. Dabei war das LRZ im zweiten Halbjahr 2010 der (nach Abfragen gemessen) mit Abstand größte Teilnehmer am DNSSEC-Testbed. Die Erfahrungen und Ergebnisse wurden in einem Vortrag beim DENIC-DNSSEC-Workshop, einem zusammen mit Nixu Software organisierten Workshop für universitäre Anwender aus ganz Deutschland im LRZ, sowie in vielen Einzelgesprächen, verarbeitet. Das LRZ hat sich dadurch einen Namen in diesem Bereich erarbeitet und wird diesen Kurs im nächsten Jahr fortsetzen. 3.2.9 DHCP-Server Seit ca. acht Jahren betreibt das LRZ einen DHCP-Dienst, der von allen Münchener Hochschulen für die automatische IP-Konfiguration von institutsinternen Rechnern genutzt werden kann. Außerdem wird dieser Dienst für einige zentrale Anwendungen verwendet, wie z.B. für die WLAN-Zugänge im MWN oder die Netzanschlüsse in Hörsälen und Seminarräumen. Insgesamt wird der DHCP-Dienst von ca. 250 Instituten genutzt und verwaltet dabei ungefähr 670 Subnetze mit knapp 90.000 IP-Adressen. Falls gewünscht, tragen die DHCP-Server die Namen der Clients auch automatisch in den zuständigen DNS-Server ein (Dynamic DNS). Jahresbericht 2010 des Leibniz-Rechenzentrums 127 Physisch betrachtet besteht der DHCP-Dienst aus drei Servern, von denen sich z.Zt. zwei im LRZGebäude und einer im LMU-Stammgelände befinden. Die drei Server bilden zwei Paare, wobei einer der beiden Server im LRZ der primäre Server ist und der zweite Server im LRZ bzw. der im LMUStammgelände als sekundärer Server fungiert. Zur Ausfallsicherheit arbeiten die Server redundant, d.h. bei einem Ausfall eines Servers übernimmt der jeweils zweite automatisch die Funktion des anderen. Außerdem findet zwischen den Servern eine Lastteilung statt. Bzgl. DHCPv6 (DHCP für IPv6) fanden im Jahr 2010 weitere Tests statt. Im Laufe des Jahres 2010 wurden die Produktionsserver mit der neuesten Version der DHCP-Software (ISC DHCP 4.2.0) versehen, so dass im Zuge der geplanten flächendeckenden Einführung von IPv6 (vgl. Kapitel 3.2.12) auch entsprechende DHCPv6-Dienste zur Verfügung stehen. 3.2.10 Voice over IP (VoIP) im Jahr 2010 Insgesamt wurden durch die VoIP-Telefonanlage des LRZ vom Typ Asterisk ca. 201.000 (2009: 197.000) Gespräche mit einer durchschnittlichen Länge von 2:57 Minuten oder insgesamt ca. 590.000 (2009: 580.000) Gesprächsminuten vermittelt. Dies entspricht wieder einem Gesprächsvolumenzuwachs von ca. 2% im Vergleich zum Vorjahr, wobei die durchschnittliche Dauer der Gespräche gleich blieb. Es konnten ca. 900 Gesprächsminuten direkt über SIP zu externen Teilnehmern abgewickelt werden, was in etwa 40% im Vergleich zum Vorjahr entspricht. Grund hierfür ist der starke Rückgang der Gesprächsminuten zu einer externen Institution. Zu den über SIP erreichbaren Zielen gehören die Universitäten Eichstätt, Jena, Regensburg, Wien, Mainz, Mannheim, Würzburg, Innsbruck, Stockholm und der DFN. Weitere Informationen zur VoIP-Telefonanlage, wie z.B. Aufbau und Vermittlungsstatistik, können den Jahresberichten ab 2006 entnommen werden. 3.2.11 Zugang über UMTS: Vodafone Sponsoring der Exzellenz Universitäten TU München und Ludwig-Maximilians-Universität München Im Rahmen des Sponsorings mit einem Gesamtvolumen von 5 Mio. Euro in der Laufzeit von fünf Jahren wurden die beiden Münchner Hochschulen Ende 2007 (LMU) bzw. Anfang 2008 (TU) mit UMTSfähigen Geräten für die mobile Sprach- und Datenkommunikation ausgestattet. Damit ist es für mobile Nutzer möglich geworden, sich über einen zentralen VPN-Zugangspunkt mit dem MWN und dem Internet zu verbinden. Eine detaillierte Beschreibung der Technik findet sich im Jahresbericht 2008. Im Jahr 2010 waren die ersten zwei Jahre des Vertrages der TU abgelaufen und so werden die Endgeräte durch die nächste Generation ersetzt. Die PCMCIA / ExpressCard UMTS Modems werden durch USB-Sticks ersetzt. Als Austausch für die anderen Geräte wurde von der TU das Nokia E72 ausgewählt. Eine Darstellung des übertragenen Datenvolumens ist leider nicht möglich, da die Daten von Vodafone nicht bereitgestellt werden konnten. 3.2.12 IPv6 im MWN Zum Jahresende waren für 75 (weitere 15 im Zeitraum eines Jahres) MWN-Institutionen IPv6-Subnetze reserviert. Diese Zuwächse ziehen sich durch alle Teilnehmerkreise. Wie auch im letzten Jahr sind ein Großteil dieser Subnetze bereits konfiguriert und in Benutzung. Nach der bereits im Jahr 2009 erfolgten Ausgliederung des Teredo-Protokollumsetzers auf den zweiten X-WiN-Zugang erhöhte sich der (nun rein durch Teilnehmer am MWN verursachte) IPv6-Verkehr auf dem Zugang ins Internet erneut um den Faktor 2. Viele grosse Web-Seiten und Dienste-Anbieter haben ihre Inhalte im letzten Jahr auch über IPv6 zugänglich gemacht. Der letzte Sprung im Januar 2011 wurde beispielsweise durch die Aktivierung von IPv6 durch das YouTube Portal verursacht. Mit dem stetig wachsenden IPv6-Angebot nimmt auch der Verkehr im MWN entsprechend zu. 128 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes Abbildung 61: IPv6-Verkehr im MWN Die Anzahl der gleichzeitig aktiven Systeme am X-WiN-Übergang erhöhte sich im Laufe des Jahres leicht auf 1300 (Vorjahr 1100), bei einem marginal verringerten Anteil des automatischen Tunneldiensts ISATAP. Die Anzahl der Endsysteme mit nativem IPv6 stieg laut dem Tool Nyx von 1800 auf 4800. Dies ist auf das fortschreitende Ausrollen von IPv6 im MWN und die zunehmende Installation neuer, von Haus aus IPv6-kompatibler Betriebssysteme der Kunden verursacht. Abbildung 62: Gleichzeitig aktive IPv6-Hosts im MWN Viele weitere Dienste im Angebot des LRZ wurden im Jahr 2010 IPv6-fähig gemacht. Dazu zählen beispiesweise Exchange 2010, der Postausgangsserver mailout.lrz.de, das ID-Portal sowie (experimentell) das Backup über TSM. Ein Meilenstein in diesem Bereich war der Beschluss der Leiterrunde des LRZ vom 24. November 2010, der eine flächendeckende Versorgung mit IPv6 im gesamten MWN bis Ende 2012 und die Bereitstellung der meisten Dienste des LRZ über IPv6 vorsieht. Damit hat der IPv6-Dienst im MWN entgültig den Status eines Produktionsdienstes erreicht. In diesem Zusammenhang wurden die Netzverantwortlichen auf dem NV-Treffen im Herbst 2010 noch einmal in diesem Bereich auf den neuesten Stand gebracht. Die exzellente Reputation des LRZ im Bereich von IPv6 manifestierte sich im Jahr 2010 in vielen Kooperationen und Tests mit Herstellern sowie in diversen Vorträgen. Jahresbericht 2010 des Leibniz-Rechenzentrums 129 Die Planungen für das Jahr 2011 sehen daher das Ausrollen von IPv6 in einer hohen Anzahl von Kundennetzen und die Migration vieler interner Dienste vor. Die Vorbereitung (insbesondere im Bereich der Statistiken und Messungen) auf den weltweiten IPv6-Tag am 8. Juni 2011 und die (vollständige) Erweiterung der bestehenden Netzüberwachungsmöglichkeiten auf IPv6 sind umfangreiche Aufgaben für das nächste Jahr. 3.3 Management Für das effiziente Management der Netzkomponenten und -dienste setzt das LRZ seit vielen Jahren erfolgreich auf eine Kombination aus Standardsoftwarepaketen und gezielt ergänzende Eigenentwicklungen. Nachfolgend werden die aktuellen Weiterentwicklungen der LRZ-Netzdokumentation sowie der Einsatz kommerzieller Netz- und Dienstmanagementwerkzeuge – insbesondere auch die mandantenfähige Überwachung der Dienstqualität im MWN – vorgestellt. Anschließend werden aktuelle Weiterentwicklungen und Statistiken in den Bereichen Incident, Configuration und Change Management, die bislang durch Remedy ARS unterstützt werden, vorgestellt. Schließlich wird auf die Ausrichtung der LRZ ITService-Management-Prozesse nach ISO/IEC 20000 und die damit verbundene Werkzeugunterstützung über die iET Solutions ITSM Suite eingegangen. 3.3.1 Weiterentwicklung und Betrieb der Netzdokumentation In der LRZ-Netzdokumentation werden für den Betrieb des MWN relevante Informationen (Netzkomponenten, Subnetze, Ansprechpartner, Räume usw.) gespeichert. 2010 wurde die Netzdokumentation auf einen neuen, virtuellen Server mit aktuellem Betriebssystem migriert. Im Zuge dieser Migration wurden auch der zugrundeliegende Anwendungsserver Zope und die für die Netzdokumentation benötigten Software-Module und Treiber aktualisiert. Neben dieser Migration wurden auch noch einige Erweiterungen und Verbesserungen vorgenommen; die wichtigsten werden im Folgenden kurz aufgeführt. 3.3.1.1 Erweiterungen und Verbesserungen der Netzdokumentation Folgende Erweiterungen und Verbesserungen wurden 2010 realisiert: • “Firewalls / Filter“ wurde als komplett neuer Menüpunkt in die Netzdokumentation aufgenommen. Unter diesem Menüpunkt werden derzeit vor allem Informationen zu virtuellen Firewalls gespeichert. Prinzipiell könnten hier aber auch alle anderen Arten von Firewalls oder Filtern auf Subnetzen (Hardware-Firewalls, Router-Filter usw. gespeichert werden, da die Felder für die abgelegten Informationen (Name, Typ, Modus, Status der Komponente, Transportnetz, Kundennetz usw.) allgemein genug gehalten sind (siehe Abbildung 63 mit einem Ausschnitt des Ergebnisses einer Suche über die Firewall-Kontexte). Die Informationen zu Firewalls und Filtern wurden auch an einigen anderen Stellen in der Netzdokumentation (bei Personen, bei Instituten, bei Subnetzen und bei Komponenten) integriert und damit mit den bereits vorhandenen Daten in Beziehung gesetzt. • Bei Personen wurde ein Attribut für die LRZ-Kennungen der Netzverantwortlichen neu eingeführt. Das Attribut wurde anschließend durch einen Abgleich mit LRZ-SIM per Skript bei allen Personen gesetzt, bei denen eine eindeutige Zuordnung der Person in der Netzdokumentation zu einer Kennung in LRZ-SIM möglich war. Anschließend wurde die Kennung per E-Mail an alle Netzverantwortlichen entweder überprüft (falls ein Abgleich per Skript möglich war) oder neu abgefragt. Das Attribut LRZ-Kennung dient derzeit vorwiegend dazu, dass Netzverantwortlichen, die sich in die neue WWW-Schnittstelle NeSSI mit ihrer persönlichen Kennung eingeloggt haben, ihre Daten in der Netzdokumentation zugeordnet werden können. • Die Switch-Betreuer und die Arealbetreuer der Netzwartung können jetzt auch (wie bisher schon die Arealbetreuer) bei Bezirken und Unterbezirken gespeichert werden. • Das IP-Sperren-Attribut bei Subnetzbereichen wird jetzt automatisch bei der Eingabe gemäß den Vorgaben des Arbeitskreises Security gesetzt. • Das Attribut Ort bei Bezirken und Unterbezirken wurde in die Attribute Name, Straße und Ort aufgeteilt. • Die DHCP-Administratoren werden bei Änderungen an Subnetzen oder Subnetzbereichen, die für die DHCP-Konfiguration relevant sind, per E-Mail benachrichtigt. 130 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes Abbildung 63: Ergebnis (Ausschnitt) einer Suche über die Firewall-Kontexte 3.3.1.2 Inhaltliche Aktualisierung der Netzdokumentation Um die Aktualität der Informationen zu den Netzverantwortlichen zu sichern, wurde 2010 wieder eine Benachrichtigung und Überprüfung der Kontaktinformationen durchgeführt. Jeder der 844 Netzverantwortlichen erhielt per E-Mail die Liste der Subnetze und Subnetzbereiche, für die er zuständig ist, und die in der Netzdokumentation gespeicherten persönlichen Daten. Diese Daten sollten entweder bestätigt oder eventuelle Fehler korrigiert werden. An die Netzverantwortlichen, die auch nach einem Monat noch nicht geantwortet hatten, wurde per Skript automatisiert eine E-Mail zur Erinnerung geschickt. Bei rund 273 Einträgen zu Netzverantwortlichen waren kleinere oder größere Änderungen während der Aktualisierung notwendig. Bei allen anderen Netzverantwortlichen blieben die Einträge unverändert. Neben dieser jährlichen Aktualisierung werden aktuelle Änderungen im MWN laufend in die Netzdokumentation übernommen. 3.3.2 Netz- und Dienstmanagement Das Netz- und Dienstmanagement bildet die Basis für die Qualität der Netzdienstleistungen des LRZ im MWN. Wesentliche Komponenten des Netz- und Dienstmanagements sind das Konfigurations-, das Fehler- und das Performance-Management. Die Aufgaben des Konfigurations- und Fehler-Managements werden im MWN durch den Netzmanagement-Server und die auf dem Server eingesetzten Netzmanagement-Software erfüllt. Die Aufgaben des Performance-Managements werden im Service-LevelManagement-Werkzeug InfoVista umgesetzt (siehe auch nächster Abschnitt). 3.3.2.1 Netzmanagement Software und Netzmanagement Server Im Jahr 2008 wurde der IBM Tivoli Network Manager IP (ITNM) als neue Netzmanagement-Software ausgewählt. ITNM löst den HP OpenView Network Node Manager 6.4 ab. Der Auswahlprozess und die Gründe für die Wahl von ITNM sind im Jahresbericht 2008 zusammengefasst. Anfang 2009 war die Version 3.8 des IBM Tivoli Network Manager verfügbar. Mit dieser Version wurde mit der Einführung des Tools am LRZ begonnen. Die Einführung konnte 2009 allerdings nicht abgeschlossen werden. Die Gründe dafür und die für 2010 verbliebenen Arbeitspakete sind im Jahresbericht 2009 aufgeführt. Jahresbericht 2010 des Leibniz-Rechenzentrums 131 Die Produktivführung des IBM Tivoli Network Manager hat sich auch 2010 noch bis Juli verzögert. Hauptgrund war das Root-Cause-Analyse-Problem, das schon im Jahresbericht 2009 erwähnt wurde (RCA; Korrelation der Erreichbarkeits-Abfrage mit der Layer-2-Topologie). Es bewirkte, dass Ausfallmeldungen von Geräten, die hinter dem ursächlich ausgefallenen Gerät liegen, meistens nicht wie erwünscht unterdrückt wurden. Dieses Problem wurde erst im Juli 2010 vom IBM-Support (und erst nach einer erneuten Eskalation durch das LRZ bei IBM) endgültig behoben. Die technische Ursache des Problems war ein Fehler bei der Erzeugung der Layer-2-Topologie durch das Tool, so dass viele fehlerhafte Verbindungen im Topologie-Graphen für das MWN vorhanden waren. Neben der Bearbeitung des RCA-Problems wurden auch noch folgende (aus 2009 noch offenen) Punkte 2010 erledigt: • Automatisierung der Layer-2-Topologie-Erkennung • Automatisierung des Backups der Anwendung • Automatisches und schnelles Entfernen von abgebauten Geräten aus der Layer-2-Topologie • Vervollständigung der Dokumentation der Installation • Absolvierung bzw. Organisation von zwei Kursen zum IBM Tivoli Network Manager (ein Administrator-Kurs für die ITNM-Administratoren in Hamburg und ein Anwender-Kurs für die Eventkonsole (OMNIbus) am LRZ) • Vervollständigung der Konfiguration zur Verarbeitung der SNMP-Traps der Geräte und Benachrichtigung der Geräteadministratoren bei bestimmten (wichtigen) SNMP-Traps über E-Mail und SMS • Weitere spezifische Anpassungen für die HP/Coloubris WLAN-Accesspoints aufgrund deren fehlerhafter SNMP-Implementierung. Es ist leider immer noch nicht gelungen, vom Hersteller der WLAN-Accesspoints eine bzgl. der SNMP-Implementierung fehlerfreie Firmware-Version zu erhalten. • Erstellung und Umsetzung eines Benutzerkonzepts (Sichten für Geräte-Administratoren, Sichten für Operateure usw.) • Korrektur einiger verbleibender kleinerer Probleme bzgl. der Layer-2 Topologie-Erkennung Für das Jahr 2011 verbleibt damit als einziger wichtiger offener Punkt die VLAN-Unterstützung von ITNM nochmals zu testen und eventuell einzuführen (2009 wurde entschieden, die VLAN-Unterstützung aufgrund erheblicher Probleme vorerst zu deaktivieren, siehe Jahresbericht 2009). Aufgrund des oben beschriebenen RCA-Problems (und einiger kleinerer darüber hinaus) konnte der IBM Tivoli Network Manager erst im Sommer 2010 in den Produktivbetrieb überführt werden. Der HP OpenView Network Node Manager wurde deshalb noch bis Herbst 2010 parallel dazu betrieben und dann erst endgültig deaktiviert. In den folgenden drei Abbildungen sind Screenshots des IBM Tivoli Network Manager zu sehen. In Abbildung 64 ist die Layer-2-Topologie des gesamten MWN zu sehen (inklusive des Auswahl-Fensters mit allen konfigurierten Layer-2-Sichten). In Abbildung 65 ist die Layer-2 Topologie des (erweiterten) MWN-Backbone dargestellt. Zusätzlich zu den Backbone-Routern sind noch einige Switches von wichtigen Standorten und die Anbindungen an das XWiN (das deutsche Forschungsnetz) und an das Netz von M-net (Internet-Backup) zu sehen. Die MWNBackbone-Struktur ist auch gut in der ersten Abbildung des gesamten MWN wiederzuerkennen. In Abbildung 66 ist die Event-Konsole des IBM Tivoli Network Manager mit einigen Meldungen zum Status des MWN dargestellt. Violett sind hier beispielsweise die von der Root-Cause-Analyse als Symptom erkannten Meldungen zu sehen. Ende 2010 wurden vom IBM Tivoli Network Manager ca. 2900 Netzkomponenten und Server (mit netzrelevanten Diensten) überwacht. Das ist eine Steigerung von ca. 300 Geräten gegenüber 2009. Der Netzmanagement-Server, auf dem der IBM Tivoli Network Manager installiert ist, hat außerdem noch folgende Funktionen: • Arbeitsserver für die Geräteadministratoren • Zentrales Repository für die Gerätekonfigurationen • Notfallzugriff auf Geräte über serielle Verbindungen und analoge Modems • Server für diverse Skripte, die für den Betrieb und das Management des MWN benötigt werden 132 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes Abbildung 64: Layer 2 Topologie des gesamten MWN im IBM Tivoli Network Manager Abbildung 65: MWN-Backbone im IBM Tivoli Network Manager Jahresbericht 2010 des Leibniz-Rechenzentrums 133 Abbildung 66: Event-Konsole des IBM Tivoli Network Manager mit Status-Meldungen 3.3.2.2 WWW-Server zum Netzmanagement Auf einem separaten Webserver sind seit 2002 aktuelle Informationen über die Topologie für die Nutzer des Münchner Wissenschaftsnetzes und die Performance des MWN-Backbone abrufbar. Unter http://wwwmwn.lrz-muenchen.de/ werden Performance-Daten zu den wichtigsten Elementen des MWN (Backbone, X-WiN-Anbindung, IPv6-Verkehr, NAT-o-Mat, Demilitarisierte Zone (DMZ) des LRZ, Modem- und ISDN-Zugang, usw.) dargestellt. Die Performance-Daten werden dazu jeweils in Form von MRTG-Statistiken bereitgestellt. MRTG (siehe http://www.mrtg.org) ist ein Werkzeug zur Überwachung des Verkehrs auf Netzwerkverbindungen, kann aber auch zur Überwachung anderer Kennzahlen eingesetzt werden. Der WWW-Server zum Netzmanagement dient als Schnittstelle zu den Kunden im MWN, um die NetzDienstleistung MWN des LRZ transparenter zu machen. In 2010 gab es hier keine wesentlichen Änderungen. 3.3.3 Überwachung der Dienstqualität des MWN mit InfoVista Das Service Level Management Werkzeug InfoVista dient dazu, die Qualität von IT-Diensten zu überwachen und in Visualisierungen und Reports darzustellen. Es wird seit dem Jahr 2000 zur Überwachung der Dienstqualität im Münchner Wissenschaftsnetz (MWN) eingesetzt. Das InfoVista-System wird ständig an die Entwicklungen im MWN angepasst bzw. Veränderungen im Netz werden in InfoVista übernommen. Im Jahr 2010 wurde der InfoVista-Server auf einen virtuellen Server migriert und gleichzeitig ein Update auf die Version 4.0 SP2 durchgeführt. Nach dieser Migration traten wiederholt Abstürze des InfoVista Collector-Service auf. Der Collector-Service, zuständig für die Sammlung der Daten per SNMP von Netzkomponenten, ist teilweise mehrmals pro Woche abgestürzt. Bis Ende 2010 konnte auch mit Hilfe des InfoVista-Supports noch nicht endgültig geklärt werden, ob diese Abstürze durch die Migration auf den virtuellen Server verursacht sind oder andere Gründe haben. Dieses Problem verbleibt für 2011 zur Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 134 endgültigen Klärung. Im Folgenden werden neue und veränderte Reports, die 2010 implementiert wurden, vorgestellt. 3.3.3.1 TSM-Reports Für die TSM-Server wurden 2010 einige Reports neu aufgesetzt, um die Auslastung der Netzanbindung und das Verkehrsvolumen zu überwachen. In Abbildung 67 ist als Beispiel ein Report über den Durchsatz zweier Router-Interfaces zu den TSM Servern zu sehen. Abbildung 67: Report zum Durchsatz zweier Router-Interfaces zu den TSM Servern 3.3.3.2 Signal-Rausch-Verhältnis der WLAN Funkstrecken In diesem Report wird das Signal-Rausch-Verhältnis aller Funkstrecken im MWN dargestellt und überwacht. Bei Unterschreiten eines Schwellwerts (derzeit 20 dB) wird eine E-Mail an die Administratoren der Geräte verschickt. Abbildung 68: Report zum Signal-Rausch-Verhältnis der WLAN-Funkstrecken Jahresbericht 2010 des Leibniz-Rechenzentrums 135 Das Unterschreiten des Schwellwerts deutet auf eine schlechtere Verbindungsqualität bzw. auf eine höhere Fehlerrate der Funkstrecke hin. In Abbildung 68 ist der Report mit dem Signal-Rausch-Verhältnis zu drei Funkstrecken zu sehen. 3.3.3.3 Switch-Reports für Netzverantwortliche Die Institute haben mit den Switch-Reports für Netzverantwortliche über die WWW-Schnittstelle VistaPortal (http://vistaportal.lrz.muenchen.de) zu InfoVista eine Übersicht über das Gerät und auch über die Port-Auslastung der Switche, an denen sie angeschlossen sind. Durch die Reports wird die Diensterbringung des LRZ transparenter, außerdem kann die Fehlersuche im Institut dadurch erleichtert werden. Die Reports können im HTML-, GIF-, PNG-, PDF-, Text- oder Excel-Format abgerufen werden. Zu den bereits in den Jahren 2003-2009 instanziierten Reports für Netzverantwortliche kamen 2010 noch Reports für folgende Einrichtungen hinzu: • Lehrstuhl für Kommunikationsnetze, Technische Universität München • ITW Weihenstephan • Physik-Department, Technische Universität München • Hochschule Weihenstephan-Triesdorf 3.3.4 Action Request System (ARS) Das Action Request System (ARS) von BMC wird am LRZ seit 16 Jahren für Incident Management, Change Management, Beschaffungswesen, Asset-Management und IP-Adressverwaltung eingesetzt. Die Arbeiten im Jahr 2010 haben sich vorwiegend auf Wartung und Pflege konzentriert. Zahlreiche Schulungen wurden für die Hotline-Mitarbeiter, studentischen Operateure und LRZ-Mitarbeiter zur Benutzung des ARS-Tools und der Formulare durchgeführt. 2010 wurden insgesamt 1189 (2009: 924) KOM-Change-Record-Tickets abgeschlossen. Dieses Formular unterstützt den Change-Management-Prozess in der Abteilung Kommunikationsnetze. Am Trouble-Ticket Formular (TT) wurden folgende Änderungen vorgenommen: • Neue Teams in ARS aufgenommen: Posterdruck mit der Mail an [email protected] und VMware Team mit der Mail an [email protected] • Der Dienst "Virtuelle Firewalls" in das Netz/Systemdienste Menü aufgenommen. • Ab sofort werden die ARS E-Mail Error Systemmeldungen auch an die Hotliner verschickt. Bis jetzt ging sie nur an ARS-Admins. • Die Anzahl der Anhänge wurde im Trouble-Ticket auf sieben erhöht, außerdem kann man jeweils Dateien bis max. 10 MB speichern. • Neuer Button "Offene Tickets HLRB + Linux" in TT-Formular eingebaut. • Der Erfasser des Tickets in KCR und TT wird bei der Anzeige auf Read-Only gesetzt. • Die Sucheinträge in der Hilferufliste werden jetzt mitgeloggt, um heiße Themen zu identifizieren. • Auf Hotline-Webformularen das Textfeld Applikation in Kurzbeschreibung umbenannt. Außerdem wurde es Pflichtfeld. (https://www.lrz.de/services/beratung/hotline- web-allgemein) Auch in den Masken zum Einzelteil- und IP-Adress-Ticket wurden zahlreiche Detailverbesserungen vorgenommen. 3.3.4.1 Übersicht über die Nutzung des Trouble-Ticket Systems Ein Trouble-Ticket dient der Erfassung von Anfragen oder Störungen und der Ablaufdokumentation der Bearbeitung. Es ist immer einem Verantwortlichen (oder einer Gruppe) zugeordnet. Im Jahr 2010 wurden insgesamt 3554 (Vorjahr: 2966) Trouble-Tickets eingetragen, davon waren: 28 (39) Tickets mit der Dringlichkeit „kritisch“ 3487 (2914) Tickets mit der Dringlichkeit „mittel“ 39 (13) Tickets mit der Dringlichkeit „gering“ 136 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes Abbildung 69 gibt einen Überblick über die Gesamtanzahl der monatlich erstellten Tickets und verdeutlicht den im Jahre 2010 stark angewachsenen Anteil an Standard-Störungsmeldungen, die über die Hotline-Webschnittstelle (ARWeb, 1392 Tickets) eingegangen sind. Die Meldungen von Benutzeranfragen per Webschnittstelle werden neben den Nutzern von Standarddiensten ebenfalls von HLRB- und LinuxCluster-Nutzern intensiv verwendet. Im Jahr 2010 sind 231 HLRB-Tickets (bis 01.12.2010, danach Migration nach iET-Solutions) und 261 Linux-Cluster-Tickets (bis 17.08.2010, danach ebenfalls Migration nach iET-Solutions) per Webschnittstelle im ARS eingetragen worden. 2010 wurden insgesamt 1884 von 3554 Tickets per Web-Formular erfasst und somit bearbeitet. Abbildung 69: Trouble-Tickets pro Monat Die Diagramme in Abbildung 70 zeigen die Entwicklung der Bearbeitungszeiten von Trouble-Tickets über die letzten drei Jahre hinweg. Jahresbericht 2010 des Leibniz-Rechenzentrums 137 Abbildung 70: Bearbeitungszeiten von Trouble-Tickets Abbildung 71: Trouble-Tickets, klassifiziert nach Dienstklassen Die Ursache für die extrem lange Bearbeitungszeit von Tickets mit der Priorität niedrig im Monat Oktober waren Tickets, die länger im Status „erfasst“ waren (anstelle von ausgesetzt) und die erst später geschlossen wurden. Aufgrund der geringen Anzahl von Tickets mit niedriger Priorität (39) haben diese Tickets mit langer Bearbeitungszeit auch eine große Auswirkung auf die Jahresübersicht. Abbildung 71 zeigt die Verteilung der Tickets auf Dienstklassen. Der Großteil der Tickets betrifft Netzund Systemdienste. Zu folgenden zehn Diensten wurden die meisten Tickets geöffnet: Dienst Anzahl Tickets VPN 356 Linux-Cluster 290 Mail -> Anwenderproblem 233 HLRB 223 WLAN -> eduroam 161 Verbindungsproblem 134 WLAN per mobilem Gerät 126 Groupware (Exchange) 96 Softwarebezug 87 Netzkomponenten -> Patchungen 86 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 138 3.3.4.2 Übersicht über die Nutzung des Quick-Ticket-Systems (QT) Im Laufe des Jahres 2010 wurde die Benutzung des Quick-Ticket-System durch die Hotline eingestellt. Die notwendigen Daten zur Verbesserung der Beratungsqualität konnten auch durch die Auswertung der generierten Trouble-Tickets in hinreichendem Maße gewährleistet werden. Im Jahr 2010 wurden insgesamt 210 Quick-Tickets (2009: 1480) eingetragen, davon entfielen auf: Dienst Anzahl Tickets telefonische tung Bera- 151 (1072) LRZ-Post 0 (247) Präsenzberatung 59 (161) Zu folgenden Diensten bzw. Dienstleistungen wurden die meisten Quick-Tickets erzeugt: 3.3.4.3 Dienst Anzahl Tickets Verbindungsproblem 58 VPN 40 Mitarbeiterkennungen 25 WLAN 21 Ausdruck 11 Gastkennungen 9 Studentenkennungen 7 Reservierungen 7 Mail Anwenderproblem 7 Benutzeranfragen der Technischen Universität München An der Technischen Universität München (TUM) wurde im Jahr 2008 ein Service Desk eingeführt, der Benutzeranfragen der TUM entgegen nimmt. Diese Benutzeranfragen werden in einem TUM-eigenen Trouble-Ticket-System (OTRS) erfasst. Der TUM-Service-Desk koordiniert diese Benutzeranfragen ggf. mit nachgelagerten Dienstanbietern, wozu auch das LRZ als IT-Dienstleister der TUM gehört. Anzahl TUM IT-Support Tickets in ARS 2010 100 50 0 Abbildung 72: Anzahl der von der TUM weitergeleiteten Anfragen Jahresbericht 2010 des Leibniz-Rechenzentrums 139 Anfragen von TUM-Benutzern für das LRZ werden per E-Mail an das LRZ weitergegeben. Eine automatisierte Einspeisung in das ARS-System war aufgrund organisatorischer Änderungen nicht mehr möglich, d.h. die eingehenden Emails des TUM-Supports mussten jeweils manuell in ARS-Tickets überführt werden. Das führte allerdings dazu, dass die Bearbeitung dieser Benutzeranfragen sowohl auf TUM-Seite als auch auf LRZ-Seite komplexer wurde. In Abbildung 72 ist die Anzahl der vom TUM-Service-Desk an das LRZ weitergeleiteten Anfragen (531 Tickets, 2009: 497 Tickets) ersichtlich. Deutlich erkennbar ist auch der Anstieg der Anfragen um ca. 50% ab der zweiten Jahreshälfte. 3.4 Sicherheit Durch die gezielte Kombination aus der Bereitstellung von Werkzeugen zur Prophylaxe und der kontinuierlichen Überwachung des Netzbetriebs konnten die Auswirkungen IT-sicherheitsrelevanter Vorfälle auch in diesem Jahr erfreulich gering gehalten werden. Im Folgenden werden zunächst das am LRZ entwickelte Intrusion Detection und Prevention System Nato-Mat und seine aktuelle, als Secomat bezeichnete Version beschrieben. Daran anschließend wird auf den Einsatz des Security Information und Event Management Systems OSSIM sowie die zentralen Logserver und Sperrlisten eingegangen. Ferner werden die Mechanismen zum Monitoring am WiN-Zugang und das ebenfalls am LRZ entwickelte Sicherheitswerkzeug Nyx, das 2010 ins NeSSI-Portal integriert wurde, vorgestellt. Abrundend wird ein Überblick über die weiterhin auf sehr großes Kundeninteresse stoßende Dienstleistung „virtuelle Firewalls“ gegeben. 3.4.1 NAT-o-MAT/Secomat Das automatische proaktive Intrusion Prevention System (IPS) NAT-o-MAT und dessen Weiterentwicklung Secomat bestehen derzeit aus zwei Clustern mit jeweils drei Nodes (technische Details siehe Jahresbericht 2007 und 2009). Die folgenden Abbildungen zeigen eingehende bzw. ausgehende Datenübertragungsraten und gesperrte Benutzer der sechs Knoten des Secomat- und NAT-o-MAT-Clusters im Zeitraum von einer Woche. Abbildung 73: secomat1 Abbildung 74: secomat3 Abbildung 75: secomat4 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 140 Abbildung 76: natomat1 Abbildung 77: natomat2 Abbildung 78: natomat3 Tabelle 36 zeigt die Spitzenwerte bei Datenübertragungsrate und gleichzeitigen Benutzern. Secomat-Cluster NAT-o-MAT-Cluster Eingehende Datenübertragungsrate ca. 450 Mbit/s ca. 950 Mbit/s Ausgehende Datenübertragungsrate ca. 150 Mbit/s ca. 310 Mbit/s Gleichzeitige Benutzer ca. 3000 ca. 4800 Tabelle 36: Spitzenwerte der eingehenden und ausgehenden Datenübertragungsrate, sowie der Benutzeranzahl Nach den positiven Erfahrungen mit dem neuen Secomat-Cluster wurden vier leistungsstarke Rechner mit 10GE Netzkarten beschafft. Diese werden als Secomat-Cluster zukünftig den kompletten Verkehr der beiden bisherigen Cluster, d.h. NAT-o-MAT und Secomat, abwickeln. 3.4.2 Security Information & Event Management Auch in diesem Jahr unterstützte die 2009 eingeführte Security Information & Event Management (SIEM) Lösung auf Basis von Alienvaults Open Source SIM (OSSIM) die Arbeit des LRZ Abuse-Teams. Während bisher nur Systemverantwortliche über am X-WiN-Übergang detektierte Viren-, insbesondere Conficker-infizierte Systeme automatisch informiert werden konnten, wurde diese Reaktionsmöglichkeit in diesem Jahr um die direkte Information per VPN eingewählter Nutzer erweitert. Die Weiterleitung derartiger Informationen stellte bis dahin einen manuell von einem Abuse-Team-Mitarbeiter durchzuführenden Schritt dar, welcher nun ebenfalls komplett automatisiert durchgeführt wird und zur weiteren Entlastung der Mitarbeiter des Abuse-Teams führt. In Vorbereitung ist auch die Umsetzung einer automatisierten Sperrung der RADIUS-Kennung bei wiederholter Auffälligkeit. Durch Feintuning vorhandener Mechanismen konnte die Anzahl von False Positives auf ein sehr geringes Maß (2) reduziert werden. Desweitern führte die Erstellung und automatische Abfrage einer Datenbankbasierten Ausnahmeliste erfreulicherweise dazu, dass IP-Adressen zentraler Gateway- und FirewallSysteme nur mehr vereinzelt automatisch gesperrt wurden. Die Anfang 2010 vom DFN-CERT etwa 30 bis 40 als auffällig gemeldeten IP-Adressen im MWN konnten bis Jahresende auf einige wenige (2 bis max. 5) pro Tag reduziert werden. Da OSSIM eine Reaktion nahezu in Echtzeit erlaubt, werden kompromitterte Systeme, die nur temporär mit dem MWN verbunden waren, zeitnah detektiert und die Netzverantwortlichen informiert. So war es möglich, auch Gäste und Konferenzteilnehmer über eine Viren-Infektion (meist privater) Systeme zu informieren. Jahresbericht 2010 des Leibniz-Rechenzentrums 141 3.4.3 Zentrale Sperrliste Die zentrale Sperrliste des LRZ (technische Details siehe Jahresbericht 2009) wurde um eine Ausnahmeliste erweitert. Die Ausnahmeliste wird benötigt, um bestimmte IP-Adressen vor einer manuellen oder automatischen Sperrung zu schützen. So wird vermieden, dass z.B. der zentrale Webserver eines Institutes oder einer Organisation im Münchner Wissenschaftsnetz (MWN) beim Monitoring auffällt und dann umgehend gesperrt wird. Denn ein Rechner kann beim Monitoring durch eine vorübergehende Verkehrsanomalie auffallen, die legitime Ursachen hat. Eine Sperrung wäre in solchen Fällen kontraproduktiv. Der Algorithmus, mit dem entschieden wird, ob ein Rechner gesperrt wird, bewertet zuerst das auffällige Ereignis und überprüft dann die Ausnahmeliste. Die Ausnahmeliste ruht auf zwei Säulen: einer datenbankgestützten Tabelle, in die einzelne IP-Adressen oder auch -Bereiche eingetragen werden, und der ebenfalls datenbankgestützten Netzdokumentation, in der über die Vergabe von IP-Subnetzen im MWN Buch geführt wird. In der Netzdokumentation kann für ein Subnetz vermerkt werden, ob dessen IPAdressen gesperrt werden dürfen oder nicht. Typischer Fall eines IP-Subnetzes, das durch eine entsprechende Markierung vor einer Sperrung geschützt wird, ist ein Server-Netz. Auch wenn ein Rechner detektiert wird und durch einen Eintrag in der Ausnahmeliste vor einer Sperrung sicher ist, wird der zuständige Netzverantwortliche verständigt. Denn es nicht ausgeschlossen, dass ein Rechner in der Ausnahmeliste korrumpiert wird. Die Ausnahmeliste sorgt lediglich für einen Zwischenschritt im Eskalationsmechanismus. 3.4.4 Monitoring am X-WiN-Übergang Am X-WiN-Übergang wird sowohl die ein- als auch die ausgehende Kommunikation überwacht und analysiert. Im Unterschied zu vielen Unternehmen und deren Überwachungsstrategien liegt unser Schwerpunkt auf der Analyse ausgehenden Verkehrs, wobei sich grundsätzlich zwei Verfahren unterscheiden lassen: • Vergleich mit (bekannten) Angriffsmustern • Statistische Verfahren Nennenswerte Auffälligkeiten in ausgehendem Verkehr sind unter anderem • FTP-Server auf einem Nicht-Standard-Port, welcher von Angreifern genutzt wird. • SSH-Scans (d.h. Verbindungsversuche zu externen Rechnern auf TCP-Port 22 mit einer Rate von mindestens 60 Verbindungsversuchen/Minute), um in Verbindung mit Wörterbuch-Angriffen schwache Passwörter zu brechen. • Die Kommunikation Viren-infizierter und trojanisierter Systeme (Conficker, Mebroot, Gozi, ZeuS, StormWorm), die versuchen, weitere Systeme insbesondere im Internet zu infizieren und damit auf die weitere Ausbreitung des Virus abzielen. • Die Kommunikation mit bekannten Command & Control Servern eines Botnetzes. • Allgemeine Portscans und Denial-of-Service-Angriffe. • Ungewöhnlich hohe ausgehende Datenvolumina. Demgegenüber werden am X-WiN-Übergang auch die meist in der Breite durchgeführten SSH-Scans auf MWN-interne Ziele erkannt. Auch dieses Jahr war das Monitoring am X-WiN-Übergang überwiegend geprägt von der Kommunikation MWN-interner, Conficker-infizierter Systeme. Insgesamt 502 betroffene Rechner wurden detektiert. Auch der Gozi-Trojaner (174 Systeme), mittels dessen versucht wird, per SSL gesicherte Daten, beispielsweise Bankaccounts, zu stehlen und an weltweit verteilte Server zu übermitteln, wurde detektiert. Die jeweils zuständigen Netzverantwortlichen und seit diesem Jahr auch per VPN verbundene Nutzer wurden automatisch (OSSIM) über Auffälligkeiten ihrer Systeme informiert und konnten damit zeitnah reagieren und Gegenmaßnahmen einleiten. Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 142 3.4.5 Sicherheitswerkzeuge "Nyx" und "Nessi" 3.4.5.1 Nyx Nyx ist ein Sicherheits- und Netzmanagementwerkzeug, mit dem einzelne Rechner im MWN lokalisiert werden können. Nach Eingabe einer bestimmten MAC- oder IP-Adresse eines Rechners bekommt man den Switch und den Port gemeldet, an dem der Rechner angeschlossen ist. Außerdem wird die Bezeichnung der Netzwerkdose ausgegeben, zu welcher der Switchport gepatcht ist. Dafür müssen über 1100 Switches und 11 Router alle 5 Minuten abgefragt werden, um keine Daten zu verlieren. Deshalb ist Nyx massiv parallel aufgebaut. Um irrelevante Daten auszufiltern, ist die Kenntnis der Topologie notwendig. Die Erkennung erfolgt mit einem maschinellen Lernalgorithmus, dessen Genauigkeit im Schnitt bei über 95% liegt. Im September und Oktober 2010 wurden im Rahmen eines studentischen Praktikums kleinere CiscoRouter und vor allem HP-Access-Points in Nyx integriert, so dass nun auch drahtlose Geräte geortet werden können. Als Standort wird dann der entsprechende Access-Point ausgegeben. Eine echte Standortbestimmung ist so allerdings nicht möglich (und auch nicht vorgesehen). Nyx fragt insgesamt also ca. 2700 Geräte ab. 3.4.5.2 Nessi Nyx wurde aus Datenschutzgründen früher nur LRZ-intern verwendet. Immer mehr Netzverantwortliche aus dem MWN fragten jedoch nach, ob sie diesen Dienst nicht auch selbst z.B. zur Fehlersuche nutzen könnten. Deshalb wurde 2009 mit der Entwicklung einer mandantenfähigen Plattform für Netzverantwortliche begonnen, die ins LRZ-ID-Portal integriert ist. NeSSI (Network Admin Self Service Interface) stellt Netzverantwortlichen Werkzeuge zur eigenständigen Nutzung für ihre Bereiche zur Verfügung. Seit Oktober 2010 ist Nessi produktiv im Einsatz. Abbildung 79: Nessi-Portal für Netzverantwortliche Jahresbericht 2010 des Leibniz-Rechenzentrums 143 Nessi umfasst zurzeit folgende Dienste: • Nyx: Netzverantworliche können Rechner in ihren Subnetzen – und nur dort – orten. • DHCP: Netzverantworliche können sich vom LRZ-DHCP-Server vergebene IPs anzeigen lassen. • Anzeige der Kontakte und Subnetze aus der Netzdoku. Das Nessi-Portal ist in Abbildung 79 dargestellt. Das Portal ist wie Nyx in Java geschrieben und nutzt Tomcat als Application-Server. Zur Sessionverwaltung wird JavaServer Faces 2.0 eingesetzt. Der Webdesktop ist in Javascript realisiert, unter Verwendung des Javascript-Framework Extjs. 3.4.6 Virtuelle Firewalls Das LRZ betreibt fünf Cisco Firewall Service Module (FWSM), die sich auf verschiedene BackboneRouter im Münchner Wissenschaftsnetz (MWN) verteilen, und eine ASA5580-40 (technische Details siehe Jahresbericht 2009). Derzeit werden damit rund 85 Kunden mit virtuellen Firewalls (VFW) bedient. Bisher waren FWSMs und ASA5580-40 für zwanzig VFWs lizensiert. Da diese an einigen Standorten nicht mehr ausreichten, wurden alle Komponenten mit Lizenzen für jeweils fünfzig VFWs ausgestattet. Um die Ausfallsicherheit zu erhöhen, wurde eine zweite ASA5580-40 beschafft. Zukünftig werden die beiden ASA5580-40 nach einer Testphase im Active-Passive-Mode betrieben. Bei diesem Verfahren springt bei einem Ausfall der aktiven ASA5580-40 sofort die bis dahin passive ASA5580-40 ein und übernimmt deren Aufgaben. Durch ein Update des Web-Interfaces zur Verwaltung von VFWs auf den FWSMs kann jetzt auch auf den FWSMs die IPv6-Konfiguration bequem über die grafische Benutzerschnittstelle vorgenommen werden. Dies war zuvor nur auf den ASA5580-40 möglich. Abbildung 80: Web-Schnittstelle Adaptive Security Device Manager (ASDM) 3.5 Projektarbeiten im Netzbereich 2010 Projektarbeiten hatten auch 2010 wieder einen hohen Stellenwert im Netzbereich. Im Folgenden werden die Tätigkeiten für das D-Grid GIDS-Projekt, das Customer Network Management (CNM) und die Géant3-Tasks zum End-to-End Monitoring, I-SHARe sowie die Visualisierungswerkzeuge und die Arbeiten zum Performance Monitoring vorgestellt. Schließlich wird über den erfolgreichen Abschluss des 100GET E3-Projekts berichtet. 144 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 3.5.1 D-GRID Projekt GIDS Unter Grid-Computing versteht man die kollektive und kollaborative Nutzung weltweit verteilter heterogener Ressourcen wie z.B. Rechner, Software, Daten, Speicher, aber auch wissenschaftlicher Instrumente oder Großgeräte (z.B. Beschleunigerring am CERN, astronomische Teleskope) u.ä.. Das Grid-Computing wird seit September 2005 im D-Grid-Projekt vom Bundesministerium für Bildung und Forschung gefördert. Die Förderung des BMBF verteilt sich auf wissenschaftliche Verbundprojekte, die Grids nutzen, die so genannten Community-Projekte (CPs), und ein Verbundprojekt von Partnern, die Grid-Infrastrukturen entwickeln und betreiben und den Community-Projekten zur Verfügung stellen. Das letztgenannte Projekt wird als D-Grid-Integrationsprojekt (DGI-I) bezeichnet. Das DGI-I hat eine KernGrid Infrastruktur geschaffen, auf der die existierenden Community-Projekte basieren. Ziel war der Aufbau einer nachhaltigen Grid-Basisinfrastruktur, die den Anforderungen der Communities gerecht wird. Nachdem das Projekt 2007 endete, wurde Mitte des Jahres 2007 ein Nachfolgeprojekt DGI-II beantragt und bewilligt. Das DGI-II Projekt startete zum 1.1.2008; es wird fachlich und inhaltlich in der Abteilung HLS bearbeitet. Im Netzbereich wurde 2010 an einem weiteren Projekt aus dem 2. Call gearbeitet: Zur Sicherung der Nachhaltigkeit einer deutschlandweiten Grid-Infrastruktur ist insbesondere der Bereich des Sicherheitsmanagements zu berücksichtigen. Das GIDS-Projekt hat die Entwicklung, Projektierung und Inbetriebnahme eines Grid-basierten, föderierten Intrusion Detection Systems (GIDS) sowie die Überführung des GIDS in den D-Grid Produktionsbetrieb zum Ziel. Die Vision von GIDS ist es, einzelne Sicherheitssysteme, die von Ressourcenanbietern betrieben werden, zu kombinieren, um eine globale Sicht auf Sicherheitsvorfälle im Grid zu erhalten. Das Projekt, das zum 01.07.2009 begonnen wurde, wird als so genanntes GAP-Projekt gefördert. Die Projektlaufzeit beträgt 36 Monate und wird neben dem LRZ vom Regionalen Rechenzentrum für Niedersachsen (RRZN) und der DFN-CERT Services GmbH durchgeführt, mit den assoziierten Partnern Stonesoft GmbH und Fujitsu Technology Solutions GmbH, wobei die Konsortialführung beim LRZ liegt. Details zur Problemstellung, zu den Zielen und den im Jahr 2009 abgeschlossenen Arbeitspaketen des Projektes sind im Jahresbericht 2009 zu finden. Im Projekt wurden im Jahr 2010 folgende Arbeitspakete bearbeitet: • Entwicklung eines Datenschutzkonzepts für ein föderiertes GIDS • Entwicklung eines Informationsmodells inkl. Datenaustauschformats • Entwicklung einer Architektur: o Grobskizze einer Architektur für ein Grid-basiertes IDS o Detaillierung der Architektur auf Seiten der Ressourcen-Anbieter, inkl. (technischer) Durchsetzung des Datenschutzkonzepts o Detaillierung der Architektur auf Seiten eines GIDS-Betreibers zur Erbringung eines Grid-weiten IDS-Dienstes o Evaluation des Architekturvorschlags im Hinblick auf Anforderungs- und Kriterienkatalog • Umsetzung der entwickelten Architektur im D-Grid: o Implementierung und Realisierung ausgewählter Agenten o Implementierung und Realisierung einer Benutzeroberfläche 3.5.1.1 Entwicklung eines Datenschutzkonzepts für ein föderiertes GIDS Ein wichtiger Beitrag zur Akzeptanzsteigerung des GIDS bei den D-Grid-Ressourcenanbietern ist eine einfache und effiziente Durchsetzung von Datenschutzanforderungen und eine Anpassung der weitergegebenen Daten an die lokalen Sicherheitsrichtlinien. Diesem Ziel wurde im Datenschutzkonzept von GIDS, Meilensteinbericht Datenschutzmodell für ein Grid-basiertes IDS (MS 13) (http://www.gridids.de/documents/GIDS_MS13.pdf; Juli 2010), Rechnung getragen. Ziel dieses Arbeitspaketes war die Entwicklung eines Datenschutzkonzeptes, das alle rechtlichen, organisatorischen und technischen Anforderungen erfüllt, die vorher für das GIDS aufgestellt wurden. Dabei wurde unter anderem das Prinzip des „Least Privilege“ berücksichtigt, das die Rechte und Möglichkeiten der beteiligten Seiten auf das Notwendige einschränkt. Dadurch werden prophylaktisch die Risiken und Konsequenzen im Falle eines Sicherheitslecks so gering wie möglich gehalten. Jahresbericht 2010 des Leibniz-Rechenzentrums 145 Zu diesem Zweck wurde mit einer Literaturrecherche bezüglich der vorhandenen Ansätze für Verfahren zur Anonymisierung und Pseudonymisierung personenbezogener Daten begonnen. Ziel war es, Komponenten zu bestimmen, die in das Datenschutzkonzept direkt oder mit minimalem Aufwand für Anpassungen übernommen werden können. Als wichtiges Kriterium wurde geprüft, dass das Datenschutzkonzept konform zu den anderen Arbeitspaketen ist und deren Ergebnisse berücksichtigt. 3.5.1.2 Entwicklung eines Informationsmodells inkl. Datenaustauschformats Im Rahmen des Projektes ist die Spezifikation eines Informationsmodells inklusive eines Datenaustauschformats entwickelt worden. Für eine effiziente und zuverlässige Erkennung von Angriffen (insbesondere verteilter Angriffe über mehr als eine Site der D-Grid Infrastruktur) ist der sichere Austausch verschiedenartiger Daten zwischen den auf den Sites installierten GIDS-Komponenten erforderlich. Die Kommunikation findet hier nicht nur Site-lokal, sondern ebenfalls Grid-global statt. Um ein geeignetes Datenformat zur Übertragung solch sicherheitsrelevanter Informationen zu finden, wurden zunächst die Anforderungen an ein solches erarbeitet und im Anschluß Recherchen zu bereits bestehenden Produkten und Formaten durchgeführt. Als ein für das Vorhaben GIDS sehr geeignetes Format hat sich das XML-basierte Intrusion Detection Message Exchange Format (IDMEF) herausgestellt. Durch eine breite Nutzerschicht und eine aktive Community handelt es sich bei IDMEF im Gegensatz zu vielen anderen proprietären Formaten um einen lebendigen Standard im Bereich verteilter IDS. Es folgte eine Untersuchung bereits bestehender Produkte und ihre Fähigkeiten bezüglich einer IDMEFUnterstützung. Die bereits aufgestellten, speziellen Anforderungen an ein Grid-basiertes Intrusion Detection System wurden in einem nächsten Schritt bei der Erstellung der Spezifikation Informationsmodell inklusive Datenaustauschformat für ein Grid-basiertes IDS (MS 12) (http://www.gridids.de/documents/GIDS_MS12.pdf; Juni 2010) berücksichtigt. Darüber hinausgehend haben wir mehrere Punkte identifiziert, in denen eine Anpassung bzw. Erweiterung von IDMEF erforderlich ist, um die volle Funktionalität von GIDS zu gewährleisten. So ist in IDMEF beispielsweise keine Möglichkeit vorgesehen, kenntlich zu machen, dass gewisse Teile der Nachricht (aus Datenschutzgründen) anonymisiert wurden. Die Einhaltung von Datenschutzbestimmungen ist jedoch essentiell für die Akzeptanz des GIDS und somit für den Erfolg des Projekts. Entsprechend wurden Erweiterungen über die von IDMEF dafür vorgesehenen Schnittstellen konzipiert und präzise definiert, welche GIDS-spezifischen Werte in die jeweiligen Datenfelder einzutragen sind. 3.5.1.3 Entwicklung einer Architektur Die Aufgabe in diesem Arbeitspaket bestand darin, die Architektur des zu entwickelnden GIDS festzuschreiben. So wurde im ersten Schritt eine Grobskizze entwickelt, die in den weiteren Schritten näher spezifiziert wurde. Das daraus entstandene Architekturkonzept ist im Meilensteinbericht Architekturkonzept für ein Grid-basiertes IDS (MS 16-1) (http://www.grid-ids.de/documents/ GIDS_MS16-1.pdf; Oktober 2010) zu finden. Als Abschluss steht das noch laufende Arbeitspaket der Evaluation des Architekturvorschlags aus. 3.5.1.3.1 Grobskizze einer Architektur für ein Grid-basiertes IDS Die Grobskizze umfasst die zentralen technischen und organisatorischen Komponenten der GIDSArchitektur. Daneben existieren viele Abhängigkeiten und Wechselwirkungen zu dem Datenschutzkonzept und dem Datenaustauschformat. Beispielsweise ergeben sich aus den Benutzerrollen Anforderungen an den Schutz der Daten und deren Verwendung. Für die Grobskizze der Architektur wurden zunächst die zentralen Rollen, unter denen Organisationen im Grid-Verbund auftreten können, und deren technische Komponenten für GIDS definiert, wie auch im Meilensteinbericht Grobskizze einer Architektur für ein Grid-basiertes IDS (MS 10) (http://www.gridids.de/documents/GIDS_MS10.pdf; Mai 2010) nachzulesen. Für die Rolle Ressourcenanbieter sind Sensoren und die wichtigen Vorverarbeitungswerkzeuge Filter, Aggregator/Verdichter und Anonymisierer/ Pseudonymisierer definiert worden. Daneben ist in der Architektur ein GIDS-Agent als Anbindung an eine Bus-Struktur vorgesehen, die eine Kommunikation zwischen den einzelnen Teilnehmern von GIDS ermöglicht, sowie eine optionale lokale (G)IDS-Instanz, die unabhängig von den anderen beteiligten Partnern Alarmmeldungen verarbeiten kann. Darüber hinaus werden jeweils Agentensysteme benötigt, die Meldungen von bestehenden bzw. zu schützenden und zu überwachenden Systemen erhalten und die 146 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes diese Meldungen nach Durchlaufen der Vorverarbeitungsschritte an alle anderen für die jeweilige Nachricht relevanten GIDS-Partner verteilen können. Eine weitere zentrale Rolle ist der Betreiber, der in erster Linie für das Berichtswesen und die Anbindungen der Virtuellen Organisationen (VO) an GIDS über ein Benutzerportal bzw. für proaktive Benachrichtigungen zuständig ist. Weiterhin stellt er eine Grid-globale GIDS-Instanz und eine Datenbank für korrelierte Alarmmeldungen zur Verfügung. Im Rahmen der Suche nach Implementierungsmöglichkeiten wurden verschiedene Kommunikationsansätze untersucht (Bus vs. Peer-to-Peer). Die Entscheidung ist hierbei auf eine Bus-Architektur gefallen, die die gegebenen Anforderungen besser erfüllen kann als ein Peer-to-Peer-Ansatz. Neben der Verbreitung sicherheitsrelevanter Informationen über den GIDS-Bus wurde ebenfalls eine Lösung über Repositories diskutiert, um als GIDS-Teilnehmer auf den aktuellen Datenbestand des Grid-basierten IDS zugreifen zu können. Auch die sichere und effiziente Übertragung von Angriffsdaten wurde beleuchtet. 3.5.1.3.2 Detaillierung der Architektur auf Seiten der Ressourcen-Anbieter, inkl. (technischer) Durchsetzung des Datenschutzkonzepts Die im vorherigen Arbeitspaket in der Grobarchitektur definierten Komponenten und deren Funktionen wurden in diesem Arbeitspaket so detailliert spezifiziert, dass eine Implementierung auf dieser Basis erfolgen kann. Dabei wurden die folgenden, in Abbildung 81 gezeigten Komponenten näher betrachtet. Abbildung 81: Architektur auf Seiten der Ressourcenanbieter Die Komponente Anonymisierer/ Pseudonymisierer dient in erster Instanz dazu, dass die juristischen und vor allem datenschutzrechtlichen Randbedingungen, denen GIDS in Deutschland unterliegt, auch technisch durchgesetzt werden können. Als Basis der Spezifizierung diente das in den vorherigen Arbeitspaketen entwickelte Meilensteindokument des Datenschutzkonzepts. Die Komponente Aggregator/Verdichter dient dazu, eine Vorverarbeitung der registrierten Alarme zu ermöglichen. Die über den GIDS-Bus zu transportierenden Daten sind nicht die von den Sensoren gelieferten Rohdaten. Stattdessen werden diese Rohdaten zunächst veredelt und in das spezifizierte Datenaustauschformat überführt. Hierbei wird ebenso die Vorverarbeitung vorgenommen. Es werden Zusammen- Jahresbericht 2010 des Leibniz-Rechenzentrums 147 hänge zwischen Einzelalarmen hergestellt und aggregierte Meldungen erzeugt. Auf diese Weise wird ebenso die Datenmenge deutlich reduziert, um die Belastung des GIDS-Bus zu minimieren. Die eigentliche Logik des IDS liegt in den angeschlossenen (G)IDS-Instanzen. Die Installation und der Betrieb einer lokalen (G)IDS-Instanz ist optional und dem jeweiligen Ressourcenanbieter selbstverständlich eigenverantwortlich überlassen. Es bietet sich jedoch an, auf bereits existierende Mechanismen zurückzugreifen und diese an die Grid-Umgebung anzupassen. Die entsprechenden Vorüberlegungen für Betriebsmodelle und Integrationsstrategien wurden eruiert. Die Komponente GIDS-Agent ist die Kommunikationskomponente. Sie dient der Kommunikation zwischen verschiedenen Komponenten der GIDS-Gesamtarchitektur und bildet die Schnittstelle zwischen den lokalen GIDS-Instanzen und dem GIDS-Bus (und entsprechend auch mit der ebenfalls an den GIDSBus angeschlossenen globalen GIDS-Instanz). 3.5.1.3.3 Detaillierung der Architektur auf Seiten eines GIDS-Betreibers zur Erbringung eines Grid-weiten IDS-Dienstes Analog zu den Architekturkomponenten der Ressourcenanbieter wurden in diesem Arbeitspaket Komponenten und deren Funktionen so detailliert spezifiziert, dass eine Implementierung auf dieser Basis erfolgen kann. Die Grid-globale GIDS-Instanz bildet das Gegenstück zur Site-lokalen GIDS-Instanz. Sie ist beim GIDSBetreiber installiert und verarbeitet nicht durch lokale Sensoren gesammelte Daten, sondern durch andere GIDS-Teilnehmer übermittelte, veredelte Daten verschiedenster Ressourcenanbieter. Diese Instanz arbeitet entsprechend auf einer deutlich kleineren, aber dafür Grid-globalen Datenbasis und kann entsprechend Site-übergreifende Angriffe erkennen. Die zentrale Anlaufstelle des GIDS für Benutzer und Administratoren wird ein Webportal sein. Hierfür wurden die Anforderungen gesammelt, diskutiert und festgehalten. Für eine proaktive Benachrichtigung der Kunden des Grid-basierten IDS ist eine mandantenfähige Komponente notwendig, mit deren Hilfe Benachrichtigungen über einen erkannten Sicherheitsvorfall abhängig von seinem Schweregrad über verschiedene Kommunikationswege, wie beispielsweise E-Mail oder SMS, versendet werden. Um eine proaktive Benachrichtigungskomponente zu realisieren, wurden Konzepte zum Einsatz bzw. zur Modifikation bereits existierender Monitoring-Systeme diskutiert. 3.5.1.3.4 Evaluation des Architekturvorschlags im Hinblick auf Anforderungs- und Kriterienkatalog Der Abgleich des Architekturkonzepts gegen den in der ersten Phase des Projekts aufgestellten Anforderungs- und Kriterienkatalog wurde im Rahmen dieses Arbeitspakets ebenfalls begonnen. Als potenziell problematisch wird bei der vollständigen Umsetzung der Datenschutzanforderungen die Beurteilung der Erkennungsleistung der Agenten / Sensoren eingestuft. Die praktischen Auswirkungen sollen im Pilotbetrieb evaluiert werden. 3.5.1.4 Umsetzung der entwickelten Architektur im D-Grid Aufgrund der Komplexität der Architektur ist es für deren technische Realisierung notwendig, auf bestehenden Systemen aufzubauen. Dabei müssen die bereits getroffenen Enscheidungen bzgl. der Grobarchitektur und des Datenschutzkonzeptes berücksichtigt werden. Als Baustein bietet sich das Prelude-Rahmenwerk an, das ein verteiltes IDS mit offenen Schnittstellen realisiert. Als weiterer Vorteil wird das Format IDMEF bereits nativ unterstützt und bietet ein Datenbankschema, in dem Daten gespeichert werden können. Weiterhin werden verschiedene Sensoren inklusive Snort unterstützt, die im Rahmen von GIDS eingesetzt werden können. 3.5.1.4.1 Implementierung und Realisierung ausgewählter Agenten In Zusammenarbeit mit den Projektpartnern wurde zunächst ein Testbed für den GIDS-Bus eingerichtet, um die verschiedenen Organisationen miteinander zu verbinden. Hierfür wurde mit Hilfe von OpenVPN ein virtuelles Netzwerk implementiert, das durch redundante VPN-Server an den drei Standorten der Projektpartner betrieben wurde. Erste Tests bezüglich des Datendurchsatzes dieser Lösung sind vielversprechend verlaufen. Ebenso wurden erste prototypische Agenten an das Netzwerk angebunden, die von ihnen 148 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes gesammelte Informationen in Form von GIDS-Meldungen im IDMEF-Format über den GIDS-Bus an andere Teilnehmer verteilen. Auch hier sind erste Tests erfolgreich verlaufen. An den Standorten der Projektpartner wurden erste Agenten auf Basis von Prelude eingerichtet, deren Aufgabe das Sammeln von Sensornachrichten und das anschließende Konvertieren in das GIDSDatenformat ist. 3.5.1.4.2 Implementierung und Realisierung einer Benutzeroberfläche Schlussendlich wurde angefangen, eine Benutzeroberfläche zu entwickeln, die sowohl Gridbenutzern als auch Administratoren als zentrale Anlaufstelle für das GIDS dienen soll. In einem ersten Schritt wurden die Anforderungen an eine solche Benutzerschnittstelle gesammelt, diskutiert und bewertet. Basierend auf den Ergebnissen wurden Mockups entwickelt und Oberflächendesigns diskutiert. Hierbei haben sich zwei wesentliche Sichten herauskristallisiert. Zum einen wird es eine Überblicksseite geben, auf welcher die aktuelle Lage graphisch und tabellarisch dargestellt wird. Zum anderen wird es eine wesentlich detailliertere Ansicht geben, die es Administratoren erlaubt, gezielt und zeitlich beschränkt nach bestimmten Angriffsarten und Angriffszielen zu suchen. Im Folgenden galt es, eine technische Lösung für das Webportal zu erarbeiten. Hierfür wurden Recherchen zu verschiedenen technischen Umsetzungen durchgeführt. Nach Gesprächen mit dem DFN-CERT ist die Entscheidung für das Python-Framework Django gefallen. Django ist ein quelloffenes Webframework, welches ein direktes objektrelationales Mapping für verschiedene Datenbanksysteme ermöglicht. Ein weiterer Vorteil an Django ist die Kapselung der einzelnen Module. Da das DFN-CERT-Portal ebenfalls mit Hilfe des Django-Frameworks entwickelt wurde, ist eine spätere Integration von GIDS ohne größere technische Hürden machbar. 3.5.2 Customer Network Management Das Customer Network Management (CNM) wurde ursprünglich für das MWN (Münchner Wissenschaftsnetz) entwickelt, dann innerhalb mehrerer DFN-Projekte für das B-WiN, G-WiN und schließlich das X-WiN erweitert. Customer Network Management (CNM) bezeichnet allgemein die kontrollierte Weitergabe von Managementinformationen durch den Anbieter eines Kommunikationsdienstes an die Dienstnehmer sowie das Bereitstellen von Interaktionsschnittstellen zwischen Dienstnehmer und Diensterbringer. CNM ermöglicht es den Dienstnehmern, sich über den Zustand und die Qualität der abonnierten Dienste zu informieren und diese in eingeschränktem Maße selbst zu managen. CNM trägt dem Paradigmenwechsel vom komponentenorientierten zum dienstorientierten Management dadurch Rechnung, dass nicht mehr ausschließlich Low-Level-Daten - wie z.B. Management Information Base (MIB)-Variablen der Komponenten - betrachtet werden, sondern aussagekräftige Informationen über die Einhaltung der vertraglich ausgehandelten Dienstvereinbarungen. Die CNM-Anwendung für das X-WiN ist unterteilt in die drei Anwendungen Topologie, Datenvolumen und XY-Accounting: 1. Die CNM-Anwendung Topologie dient der Visualisierung der X-WiN-Topologie/des Zustands der IP-Infrastruktur (siehe Abbildung 82). Anhand dieser Anwendung wird den DFN-Kunden (Anwender) ein Überblick über den aktuellen und historischen Zustand und Qualität der IP-Infrastruktur gegeben. Für jede im X-WiN bestehende Verbindung werden Bandbreite, Auslastung und Durchsatz graphisch dargestellt, und für jeden Knoten (Router) die weitergeleiteten Pakete. Auf der Netzebene gibt es 59 Standorte, die jeweils einen Router enthalten. Diese Router sind direkt mit den Kundeninfrastrukturen verbunden und enthalten auch verschiedene Verbindungen zu kommerziellen Netzbetreibern sowie dem europäischen Wissenschaftsnetz Géant. Die auf hierarchischen Karten aufgebaute Anwendung wurde im April 2004 für alle X-WiN-Anwender freigegeben und ist seitdem im Betrieb. Jahresbericht 2010 des Leibniz-Rechenzentrums 149 Abbildung 82: Die CNM-Anwendung Topologie 2. Die CNM-Anwendung Datenvolumen dient der Bereitstellung von IP-Interfacestatistiken für die DFN-Anwender. Die DFN-Anwender können mit Hilfe der CNM-Anwendung Datenvolumen die Verkehrsvolumina, die sie aus dem X-WiN empfangen bzw. gesendet haben, abrufen. Für jeden bestellten IPDienst wird für den Anwender ein eigenes CNM-Auswahlfenster für IP-Interfacestatistiken bereitgestellt. Es werden Tages-, Wochen-, Monats- und Jahresstatistiken bereitgestellt. Die zwei Anwendungen können separat und unabhängig voneinander benutzt werden oder alternativ ihre Daten korrelieren. Beispielsweise wird für das LRZ als DFN-Anwender beim Starten der TopologieAnwendung und Auswählen des Knotens (Routers) GARx1 ein Fenster mit den entsprechenden Verbindungen geöffnet, zu denen weitere Dienstinformationen angezeigt werden können (siehe Abbildung 83). Abbildung 83: Dienstinformationen in Knotenkarten Beim Anklicken des Felds ServiceInfo wird für den Anwender (hier das LRZ) das Dienst-Ressourcen Fenster geöffnet, das alle von diesem Anwender benutzte Netzressourcen beinhaltet (siehe Abbildung 84). Wenn man aber nur einen der gelisteten Dienste auswählt, werden auch nur die zu diesem Dienst zugeordneten Ressourcen angezeigt. Die Liste umfasst alle vergangenen und aktuellen Netzressourcen 150 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes mit deren Nutzungszeitraum. In einzelnen Spalten werden die Komponente, der Interfacename, der Dienstname, der Dienstname und der Zeitraum der Ressourcennutzung aufgeführt. Abbildung 84: Dienst-Ressourcen pro Kunde Wenn aus dieser Liste eine Ressource und dann über das Kontextmenü die Option ,,Öffne ServiceFenster‘‘ ausgewählt wird, so wird das neue Service-Fenster der CNM-Anwendung Datenvolumen geöffnet. Von diesem aus können die entsprechenden Datenvolumenstatistiken angefordert werden (siehe Abbildung 85). Abbildung 85: Das Dienstfenster (CNM-Datenvolumen) für das LRZ 3. Die CNM-Anwendung XY-Datenvolumen dient der Bereitstellung von detaillierten IPAccounting-Daten. Diese Anwendung ist neu und befindet sich zur Zeit noch im prototypischen Betrieb. Mit ihr können die DFN-Anwender nachvollziehen, mit welchen anderen DFN-Anwendern sie innerhalb des X-WiN wie viel IP-Verkehr ausgetauscht haben. Der Prototyp sieht eine Admin- und einen Kundensicht vor. Die erste ist in Abbildung 86 dargestellt. Angezeigt wird die Top-10-Liste der Datenvolumina, die zwischen den links ausgewählten Bereitstellungsorten zu allen anderen Anwendern ein- bzw. ausgegangen sind. Alle oben genannten Anwendungen werden den Benutzern als Java-Applets angeboten. Darüberhinaus wird seit 2004 im MWN eine Webinterface-basierte Sicht der CNM-Anwendung Topologie angeboten, das sogenannte WebCNM. Diese zeigt ausschließlich hierarchische Netzkarten mit dem aktuellen Status der Routerinterfaces. Bei der CNM-Anwendung handelt es sich um eine verteilte Client/Server-Architektur. Wie bereits erwähnt wurde, ist der Client als Java-Applet bzw. WebCNM-Anwendung erhältlich. Der Server ist in C++ implementiert. Der Server bedient sich einer XML-Datenbank, GIS2 (Globale X-WiNInformationssystem), die alle X-WiN Daten verwaltet. Als Kommunikationsmiddleware sowohl zwischen dem Client und dem Server als auch zwischen dem Server und GIS2 dient CORBA. Derzeit läuft der Server unter Solaris (Sparc-Rechnerarchitektur). Jahresbericht 2010 des Leibniz-Rechenzentrums 151 Abbildung 86: Die XY-Accounting Anwendung (Prototyp) Da am LRZ zukünftig alle Server nach Möglichkeit als virtuelle Server in der VMware-Infrastruktur laufen sollen und diese unter Sparc-Solaris Architektur mit VMware nicht virtualisiert werden können, ist eine Portierung des CNM-Systems auf Linux-x86 nicht nur empfohlen, sondern unabdingbar. Hierfür wurde ein Portierungsplan erstellt, der schrittweise den Server (C++ Implementierung, CORBA Anbindung, Datenbankanbindung u.a.) von Sparc-Solaris auf Linux-x86 umstellt. Am Ende des Jahres wurde in Kooperation mit dem DFN mit dem ersten Schritt, der Auswahl eines geeigneten ORBs unter Linux, begonnen. Die Portierung soll Ende 2011 abgeschlossen sein. Weitere Einzelheiten zum CNM-Projekt und zum CNM für das X-WiN sind zu finden unter: http://www.cnm.dfn.de . 3.5.3 Géant E2E Link Monitoring Géant ist eine Weiterentwicklung des europäischen Wissenschaftsnetzes, das ca. dreißig nationale Wissenschaftsnetze verbindet. Neben klassischen IP-Verbindungen können im Rahmen des Géant-Verbundes auch End-to-End (E2E) Links eingerichtet werden. Das LRZ arbeitet seit Jahren aktiv in Projektteilen mit, die Konzepte, Verfahren und Tools zum Management dieser Ende-zu-Ende Links bereitstellen. Ein wesentlicher Bestandteil dieses Projekts ist das E2E Link Monitoring System (E2Emon), das unter Federführung des LRZ konzipiert und entwickelt wurde. Eine ausführliche Beschreibung des zugrunde liegenden Projekts und des Monitoring Systems kann dem Jahresbericht 2008 entnommen werden. In Géant wird das E2E Monitoring System von der E2E Coordination Unit (E2ECU) betrieben, die gezielt für den Betrieb von E2E Links ins Leben gerufen wurde. Sie überwacht derzeit (Stand Anfang 2011) 35 produktive Links. Weitere 14 Links sind aktuell in der Aufbauphase. Zu den größten Kunden dieses Dienstes zählen internationale Forschungsprojekte wie das LHC am Cern sowie die europäische GRIDInitiative DEISA. Bereits seit Mitte 2008 erfüllt E2Emon die von der E2ECU spezifizierten funktionalen Anforderungen. Deshalb lag 2010 der Fokus hauptsächlich auf einer weiteren Verbesserung der Benutzerfreundlichkeit. Beispielsweise können die grafischen Ansichten der E2E Links vom Benutzer konfiguriert werden, sodass nicht nur eine horizontale, sondern auch eine vertikale Repräsentation möglich ist (siehe Abbildung 87). Desweiteren können die Listen der Links anhand verschiedener Kriterien sortiert werden. Auch die konfigurierbare automatische E-Mail Benachrichtigung wurde erweitert und deckt nun zusätzliche Fehlerfälle ab. Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes 152 Abbildung 87: Vertikale Darstellung eines End-to-End Links Da E2Emon sich in den letzten Jahren als äußerst erfolgreich erwiesen hat und einen hohen Bekanntheitsgrad genießt, wird der Fokus des Tools nun auch in Zusammenarbeit mit internationalen Partnern im Kontext dynamischer Verbindungen erweitert, wofür 2010 in enger Zusammenarbeit mit amerikanischen Forschungsnetzen wie Internet2 oder ESnet eine erste Anforderungsanalyse gestartet wurde. Die Liste der Anforderungen, die in dem derzeitig noch andauernden Prozess erstellt werden, dient als Grundlage für die Analyse der Defizite existierender Versionen von E2Emon hinsichtlich der Überwachung solcher dynamischer Verbindungen. In einem nächsten Schritt wird dann untersucht und evaluiert, wie diese Defizite behoben werden können. 3.5.4 Géant I-SHARe Beim Betrieb von Netzdiensten, die die Zusammenarbeit mehrerer unabhängiger Provider erfordern, ergeben sich neuartige Herausforderungen, die von etablierten IT Service Management Frameworks nicht adressiert werden. Im Umfeld des von der EU geförderten Géant-Projektes werden diese insbesondere im Zusammenhang mit sog. Ende-zu-Ende-Verbindungen deutlich, bei denen es sich um dedizierte optische Multi-Gigabit-Verbindungen - i.A. jeweils über mehrere heterogene optische Netze - handelt. Die Arbeitsabläufe für die Einrichtung und den Betrieb dieser Verbindungen erfordern ein koordiniertes Vorgehen der beteiligten nationalen Wissenschaftsnetze. Das Ziel der GN-Aktivität I-SHARe ist die Tool-Unterstützung der Multi-Domain-Betriebsprozesse, die alle Phasen des Lebenszyklus von E2E Links abdecken. Der Fokus liegt dabei auf dem erforderlichen Informationsaustausch, der von der Planung einer neuen E2E Link Instanz über deren Betrieb bis hin zu ihrer Abbestellung notwendig ist. Die Aktivität wurde Mitte 2007 mit einer umfangreichen, fundierten Anforderungsanalyse gestartet. Details dazu können im Jahresbericht 2008 nachgelesen werden. Ergebnis dieser Analyse war die Spezifikation und Entwicklung eines Prototyps, der Anfang 2009 im Rahmen eines Piloteinsatzes durch das Betriebspersonal evaluiert wurde. Die Anmerkungen und Wünsche wurden vom I-SHARe-Team erfasst und bildeten die Grundlage für eine Anpassung der Anforderungen. Mitte bis Ende 2009 floss die mit dem Prototyp gesammelte Erfahrung in die Erstellung einer Spezifikation für die Entwicklung einer ersten produktiven Version des I-SHARe Tools ein. Diese Entwicklung wurde Mitte 2010 abgeschlossen, woraufhin eine fundierte und detaillierte Qualitätssicherungsphase folgte, die auf Basis der Spezifikation durchgeführt wurde. Nach erfolgreichem Test konnte das Release für die Pilotphase freigegeben werden. Während der letzten Vorbereitungen für die Pilotphase wurde I-SHARe allen beteiligten und interessierten Partnern auf der TERENA Konferenz vorgestellt. Die Pilotphase wurde dann mit einer Benutzerschulung eingeleitet, die federführend vom LRZ vorbereitet und durchgeführt Jahresbericht 2010 des Leibniz-Rechenzentrums 153 wurde. Der Pilotbetrieb von I-SHARe, der bis Ende März 2011 andauernd soll, wird vom LRZ übernommen (siehe Abbildung 88). I-SHARe wird derzeit von fünf NRENs für die Planung neuer End-to-End Links genutzt. Abbildung 88: I-SHARe Pilotinstallation am LRZ Nach Beendigung der Pilotphase sollen mögliche Änderungswünsche berücksichtigt und implementiert werden. Für eine erfolgreiche Überführung in den Produktivbetrieb werden derzeit Management-Prozesse definiert, die die Zusammenarbeit aller beteiligten Partner definieren sollen. 3.5.5 Géant-Visualisierungswerkzeuge und Performance Monitoring Das CNM (siehe Kapitel 3.5.2) wird seit 2004 im europäischen Forschungsumfeld als Visualisierungswerkzeug eingesetzt, im Géant2-Projekt von 2004 bis 2009 und in dessen Nachfolger Géant3 seit 04/2009. Mit der CNM-Anwendung Topologie werden die Topologie und aktuelle bzw. historische Kennzahlen vom Géant-Kernnetz und einigen der 34 angeschlossenen nationalen Forschungsnetze in hierarchischen Netzkarten visualisiert. Zusätzlich wird das Web-CNM in einer speziell angepassten Version für die Netzüberwachung des LHCOPN (Large Hadron Collider Optical Private Network) eingesetzt. Der über Géant realisierte europäische Verbund von 34 nationalen Forschungsnetzen (NRENs) stellt Netzdienste im paneuropäischen Maßstab zur Verfügung. Ein Beispiel für einen solchen Dienst sind Optical Private Networks (OPNs), die z.B. im Umfeld des LHC-Grid verwendet werden, um das CERN (Tier-0) mit den Tier-1- und Tier-2-Zentren zu verbinden. Die Dienste werden in einer multinationalen Kooperation unabhängiger nationaler Forschungsnetzen (NRENs) und DANTE erbracht. Die entwickelte LHCOPN-Wetterkarte, die den Web-Zugriff auf Status und Kennzahlen der LHCOPNInfrastruktur (Tier-0- zu Tier-1-Verbindungen) einer HTML/CSS-, Java-Script-basierten Implementierung ermöglicht, wird über den Web-Browser angesprochen. Abbildung 89 zeigt ihre Übersichtskarte. Im letzten Jahr wurde die Anbindung an die produktive E2EMon-Instanz realisiert und die Wetterkarte wird im LHCOPN-Portal von den Operateuren der LHCOPN aufgerufen. Diese können je ein Paar von zwei LHCOPN-Standorten (T0/T1 oder T1/T1) auswählen, um Informationen und Kennzahlen über den Link dazwischen zu erhalten. Für jeden Link werden dabei Ende-zu-Ende (E2E) Kennzahlgraphen von verschiedenen Netzschichten der letzten 24 Stunden angezeigt, nämlich: Hop-Anzahl, One-Way-Delay, Jitter, Paketverlust, verfügbarer TCP-Durchsatz, Verbindungsauslastung, IO-Errors. Diese Kennzahlgraphen wurden mit einer Funktionalität erweitert, die es ermöglicht, nicht nur die letzten 24 Stunden, sondern auch bestimmte zurückliegende Zeitintervalle abzufragen und die damit verbundenen Kennzahlen darzustellen. Ein Beispiel einer solchen Abfrage ist in Abbildung 89 dargestellt. Ebenso wird für den ausgewählten Link eine detaillierte Ansicht der Schicht-2-Abschnitte in den verschiedenen beteiligten administrativen Domänen angezeigt 154 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes Abbildung 89: Hauptansicht der LHC-OPN Wetterkarte Weiterhin wird für den ausgewählten Link eine detaillierte Ansicht der Schicht-2-Abschnitte in den verschiedenen beteiligten administrativen Domänen angezeigt (siehe Abbildung 90). Abbildung 90: Historische Kennzahlen für ein LHCOPN-link Diese Kartenübersicht wurde erweitert und verfeinert zu einer tabellarischen Übersicht, auch ,,Dashboard‘‘ genannt. Hier werden dieselben Kennzahldaten zusammengefasst wie in der Wetterkarte, nur in einer komprimierter Form: alle Links auf einen Blick. Die Kennzahlen können allein oder kombiniert (z.B. One-Way-Delay und Paketverlust) ausgewählt werden. Ein Tooltip zeigt den entsprechenden Wert beim Durchlaufen der Matrix. Jahresbericht 2010 des Leibniz-Rechenzentrums 155 Abbildung 91: Prototypische LHCOPN Dashboard Zu dieser Sicht kommt noch eine ausführliche dazu, die pro ,,Kästchen‘‘ auch die entsprechenden Kennzahlen anzeigt. Eine zusätzliche Sicht ist die jedes Knoten zu oder von allen anderen. In der Abbildung werden die kombinierten Kennzahlen für alle eingehenden Verbindungen zu einem Tier-1 Center (FRCCIN2P3) gezeigt. Abbildung 92: Eingehende Verbindungen zu FR-CCIN2P3 (Ausschnitt) Auf Basis der im MWN prototypisch entwickelten WebCNM und der LHCOPN Wetterkarte wurde dieses Jahr ein ausführliches WebCNM-Konzept formuliert. Die Funktionalitäten der bestehenden JavaCNM, die sehr vielfältig und seit vielen Jahren im Einsatz sind, werden in diesem WebCNM - Konzept vollständig auf eine Web-basierte Implementierung übertragen. Abbildung 93 zeigt eine mögliche Sicht des WebCNM. 156 Entwicklungen und Tätigkeiten im Bereich des Kommunikationsnetzes Abbildung 93: WebCNM - Vision Für weitere Informationen zum Géant-Projekt und perfSONAR-System, siehe: http://www.geant.net/Services/NetworkPerformanceServices/Pages/perfSONARMDM.aspx 3.5.6 100GET-E3 Im Rahmen des europäischen Dachprojektes 100 Gbit/s Carrier-Grade Ethernet Transport Technologies (100GET), das vom BMBF gefördert wurde, wurden Ultra-Hochgeschwindigkeitsnetze basierend auf Ethernet-Technologien für Übertragungsraten von 100 Gigabit pro Sekunde entwickelt. Durch den breiteren Einsatz von Ethernet-Technik auch in den Backbone-Netzen (sogenanntes Carrier-Grade Ethernet) erwartet man sich erhebliche Kosteneinsparungen. Das von Nokia Siemens Networks (NSN) geführte Teilprojekt "End-to-End Ethernet (E3)" entwickelte in Zusammenarbeit mit dem Leibniz-Rechenzentrum solche Technologien und Protokolle. Das Projekt mit einer Laufzeit von 36 Monaten endete nach einer dreimonatigen Verlängerung am 31. Dezember 2010. Im Rahmen dieses Teilprojektes wurde ein Konzept und eine Architektur für ein integriertes InterDomain Network Management System für Ultra-Hochgeschwindigkeitsnetze basierend auf Ethernet- und DWDM-Techniken spezifiziert. Um extrem breitbandige Verbindungen zwischen zwei Kunden zu schalten, sind häufig mehrere Provider beteiligt, die i.d.R. jeweils unterschiedliche eigene Systeme und Geräte verschiedener Hersteller verwenden (Heterogenität). Um einen solchen Dienst erbringen zu können, muss ein Managementsystem in der Lage sein, mit diesen Domänen-übergreifenden (Inter-Domain) Aspekten umgehen zu können. Das Themengebiet des IT-Managements lässt sich in die fünf Aufgabengebiete Fault (Fehlermanagement), Configuration, Accounting, Performance und Security Management aufteilen (FCAPS). Im Rahmen dieses Teilprojektes waren insbesondere das Fehler-, Konfigurations- sowie das Performance Management von Interesse. Außerdem wurden die Fragen des Organisationsmodells für domänenübergreifende Zusammenarbeit untersucht. 2010 wurden ein Konzept für Service Level Agreements (SLA) und entsprechende Quality of Service (QoS) Parameter, ein Konzept für ein Ende-zu-Ende Monitoring System und Incident und Problem Management Prozesse für providerübergreifende Dienste entwickelt. In der dreimonatigen Verlängerung wurde zusätzlich ein Konzept für einen Proxy-Dienst erstellt, der zwischen Kontrollschicht und Managementschicht vermittelt. Dieser Proxy-Dienst ermöglicht die Kombination verschiedener Protokolle zur providerübergreifenden Signalisierung von Diensten und damit zu einer schnelleren Verbreitung von providerübergreifenden Diensten. Abbildung 94 zeigt die prinzipielle Funktion des Proxy-Dienstes, der zwischen der Kontrollschicht (E-NNI) und der Managementschicht (MTOSI) vermittelt. Das LRZ beteiligte sich darüber hinaus an der Erstellung eines Positionspapiers zu 100 Gigabit/s Ethernet Netztechniken. Jahresbericht 2010 des Leibniz-Rechenzentrums 157 Der Projektpartner Alcatel-Lucent konnte bereits 2010 ein erstes Produkt vorstellen, das im Rahmen von 100GET entwickelt wurde. Abbildung 94: Konzept des Proxy-Diensts Jahresbericht 2010 des Leibniz-Rechenzentrums 159 4 Tätigkeiten in LRZ-weiten strategischen Arbeitskreisen Die Komplexität vieler Tätigkeiten, insbesondere im IT-Service-Management und in Sicherheitsfragen, erfordert die enge Zusammenarbeit der Spezialisten des LRZ über die Grenzen der internen Organisation hinweg. Zu diesem Zweck wurden in der Vergangenheit spezielle Arbeitskreise eingerichtet, über deren Arbeit nachfolgend berichtet wird. 4.1 Arbeitskreis Security Im Fokus der Arbeit des abteilungsübergreifenden Arbeitskreises „Security“ steht, das bisher erreichte Sicherheitsniveau im MWN zu überwachen und weiter zu steigern. Auch in diesem Jahr wurde versucht, dieses Ziel nicht einfach durch den Einsatz weiterer IT-Security-Werkzeuge zu erreichen, sondern vorhandene, bereits bewährte Mechanismen weiter zu optimieren. Neben der Betrachtung rein technischer Aspekte standen vor allem organisatorische Aspekte im Vordergrund, um die komplexen Problemstellungen in diesem Themengebiet zu lösen. Die technische Umsetzung der erarbeiteten Lösungen erfolgt weiterhin durch die jeweils zuständige Abteilung, mit dem Unterschied, dass diese Lösungen von nun an in einen hausweiten Gesamtkontext eingebettet und somit aufeinander abgestimmt sind. Nennenswerte Themen, mit denen sich der Arbeitskreis „Security“ im Jahr 2010 unter anderem auseinander gesetzt hat, sind • Entwurf einer hausweiten Richtlinie zum Umgang mit Log-Daten, insbesondere die Speicherung, Verarbeitung und Löschung personenbezogener Daten unter rechtlichen Rahmenbedingungen. • Entwurf einer MWN-weit gültigen Richtlinie zum Thema „Sichere Passwörter“ und Verschärfung der bis dato gültigen Anforderungen. • Entwurf einer Richtlinie für den abgesicherten Management-Zugang zu internen Ressourcen von Hersteller- und Wartungsfirmen und Entwicklung eines Konzepts zur technischen Umsetzung. • Erstellung einer Richtlinie zur Absicherung von Management-Zugängen zu Netzkomponenten (Switches, Router) sowie Konzeption und Zeitplanung zu deren technischer Umsetzung. Das wohl herausragendste Ergebnis der Arbeit des Arbeitskreises „Security“ war 2010 die Erstellung eines hausweiten Security-Incident-Response-Prozesses sowie dessen offizielle Einführung. Zielsetzung des Prozesses ist die strukturierte Bearbeitung von detektierten Sicherheitsvorfällen durch ein LRZCSIRT (Computer Security Incident Response Team). Der Prozess beschreibt unter anderem den Ablauf der Vorfallsbearbeitung und legt Verantwortlichkeiten in Form von definierten Rollen fest. Somit ist gewährleistet, dass bei der Bearbeitung die Tätigkeiten von CSIRT-Mitarbeiter festgelegt sind und damit keine essentiellen Schritte vergessen oder doppelt durchlaufen werden. Auch im Jahr 2011 wird die Arbeit des Arbeitskreises „Security“ überwiegend von der Erstellung von Richtlinien und der Konzeption technischer Umsetzungsmöglichkeiten dieser Richtlinien geprägt sein. Insbesondere stellt auch die Absicherung des neuen Höchstleistungsrechners SuperMUC eine interessante Aufgabe dar, mit der sich der Arbeitskreis beschäftigen wird. 4.2 Arbeitskreis IT-Service-Management Die Zuverlässigkeit und Verfügbarkeit von IT-Services ist in erheblichem Maß auch von der effektiven Kommunikation, Kooperation und Koordination zwischen den Mitarbeitern des IT-Service-Providers abhängig. Ein optimales Management von IT-Diensten muss folglich über die Überwachung und Steuerung der technischen Komponenten hinausgehen und auch die betrieblichen Abläufe bzw. die Prozesse des IT-Service-Providers kontrollieren und lenken. Die Ausgestaltung eines solchen prozessorientierten IT-Service-Managements (ITSM) ist Gegenstand sowohl verschiedener so genannter ITSM-Rahmenwerke wie der IT Infrastructure Library (ITIL), als auch des vergleichsweise neuen internationalen Standards ISO/IEC 20000. Wie bereits im letzten Jahresbericht dargelegt, arbeitet das LRZ daran, seine ITSM-Prozesse an den Vorgaben von ISO/IEC 20000 auszurichten. Tätigkeiten in LRZ-weiten strategischen Arbeitskreisen 160 4.2.1 Aktivitäten im Bereich IT-Service-Management am LRZ Der Arbeitskreis IT-Service-Management (AK ITSM) hat zur Aufgabe, ein organisatorisches und technisches Konzept für das ITSM am LRZ zu entwickeln. Er koordiniert die ITSM-Aktivitäten am LRZ, welche jedoch nicht auf Arbeiten innerhalb des Arbeitskreises selbst beschränkt sind. Die bereits im Juli 2009 gegründeten Prozess-Teams „Control“ und „Resolution“ haben ihre Planungen zu einem prozessorientierten Betrieb weiter vorangetrieben. Im „Control Team“ wurde die Implementierung eines LRZ-weiten, d.h. abteilungsübergreifenden Change- und Configuration-Managements weiter konkretisiert. Prozesse und Konzepte wurden erarbeitet und in ersten kleinen Pilotprojekten umgesetzt. Im Rahmen des „Resolution Teams“ hat man sich auf die Planung und Einführung eines LRZ-weiten Incident-Managements fokussiert, um dieses zeitnah ausrollen und damit das alte Trouble-Ticket System ablösen zu können. Beide Teams bestehen wie der AK ITSM ebenfalls aus Vertretern aller Abteilungen und sind daher auch dafür verantwortlich, den Status der Entwicklungen in den Prozessen dorthin zu berichten. Die wichtigsten ITSM-Aktivitäten im Jahr 2010 sind analog zur Gliederung der ITSM-Planungen im letzten Jahresbericht im Folgenden anhand der drei Hauptaspekte „People, Process, Technology“ (Menschen, Prozesse, Technologie) strukturiert. 4.2.1.1 „People“ Auch 2010 wurden Schulungen zu Grundlagen der ISO/IEC 20000 durchgeführt. Insgesamt haben sich so mittlerweile über 100 LRZ-Mitarbeiter mit dem erfolgreichen Absolvieren einer durch die TÜV SÜD Akademie durchgeführten Prüfung für das „Foundation Certificate in IT Service Management according to ISO/IEC 20000“ qualifiziert. Die Schulungen auf dem Professional Level wurden dieses Jahr durch den weltweit ersten Kurs zur Erlangung der neuen Zertifizierung „Associate Consultant / Auditor“ ergänzt, an dem neben zehn LRZ-Mitarbeitern auch Hochschuldozenten aus verschiedenen Teilen Deutschlands teilnahmen. Erstmals wurden im Jahre 2010 auch interne Schulungen für das neue ITSM-Tool durchgeführt. Im Rahmen dieser Schulungen wurden über 30 Mitarbeiter an das neue Tool herangeführt und in hands-on Tutorien geschult, wie der vom „Resolution Team“ erarbeitete Incident-Management-Prozess mit dem Tool umzusetzen ist. 4.2.1.2 „Process“ Die 2008 eingeführten „KOM Change Records (KCRs)“ zur Koordination von Neuanschlüssen, Installationen und Wartungsarbeiten wurden konsequent weiterentwickelt. Die Erfahrungen, die durch die KCRs gewonnen wurden, sind ebenfalls bei der Planung und Einführung eines abteilungsübergreifenden Change-Managements mit eingeflossen. Das 2009 definierte Verfahren zur geeigneten und kontrollierten Reaktion auf Störungen mit größerer Auswirkung, den sogenannten „Major Incidents“, wurde durch den Arbeitskreis „Continuity“ diskutiert und weiterentwickelt. Als Input diente hierbei in erster Linie die Analyse laufender Vorfälle bzw. derer Behandlung. Im Rahmen des „Resolution Teams“ wurde ein LRZ-weiter Incident-Management-Prozess definiert. Dieser Prozess beschreibt ein einheitliches Verfahren, wie mit Störungen und Ereignissen, die eine Minderung der Servicequalität zur Folge haben könnten, umgegangen werden soll. Im Rahmen dieses Prozesses wurde ein Incident Manager benannt, welcher für den effektiven und effizienten Betrieb des Prozesses verantwortlich ist. Im August 2010 wurde dann der Incident-Management-Prozess im Rahmen eines Pilotbetriebes eingeführt. Zunächst wurden nur Störungen behandelt, die sich auf den Dienst „LinuxCluster“ bezogen. Nach erfolgreicher Einführung wurde der Betrieb sukzessive auf weitere Dienste ausgeweitet. Im ersten Quartal 2011 soll die Einführung abgeschlossen werden, so dass ab diesem Zeitpunkt das gesamte LRZ nach einem einheitlichen Prozess arbeitet. Im Bereich der Control Prozesse wurde ein CMDB-Konzept erarbeitet nach dem künftig im ITSM-Tool die Infrastruktur und die Dienste des LRZ abgebildet werden. Auch wurde ein Change-Management Prozess definiert, welcher festlegt, wie innerhalb des LRZ mit Änderungen an Komponenten, Applikationen oder Diensten umgegangen werden soll. Das 2009 definierte Verfahren für „Major Changes“ wurde dabei in diesen Prozess integriert. Analog zum Incident-Management-Prozess wurde auch hier ein Prozessma- Jahresbericht 2010 des Leibniz-Rechenzentrums 161 nager benannt, welcher für die Autorisierung von Changes mit größerer Auswirkung verantwortlich ist. Für ausgewählte Fälle wurde der Prozess bereits herangezogen und getestet. 4.2.1.3 „Technology“: Unterstützung der Prozesse durch die ITSM-Suite Nachdem 2009 viel Energie in die Auswahl einer ITSM-Suite gesteckt wurde, stand im Jahr 2010 an, diese Tool-Suite an die Gegebenheiten und Prozesse des LRZ anzupassen und in den Produktivbetrieb zu überführen. Speziell im Rahmen des Incident-Managements wurde hier viel Aufwand investiert, um das LRZ-spezifische Incident-Management optimal zu unterstützen. Mit dem Pilotbetrieb des IncidentManagement-Prozesses im August 2010 wurde auch das neue ITSM-Tool für die Mitarbeiter des LRZ ausgerollt und zur Benutzung freigegeben. Neben Aktivitäten im Incident-Management wurde 2010 auch an der Tool-Unterstützung für das Changeund Configuration-Management gearbeitet. In kleinen Pilotprojekten wurde evaluiert, wie sich das ITSMTool für die Unterstützung, der durch das „Control Team“ definierten Konzepte eignet. Das Feedback wurde vom Tool-Entwickler-Team gesammelt und entsprechende Änderungen am Tool durchgeführt. Eine Anpassung und Weiterentwicklung des Tools wird auch 2011 ein zentraler Aspekt in der Einführung eines LRZ-weiten IT-Service-Managements sein. Das Entwickler-Team ist sowohl im Control wie auch Resolution Team vertreten und kann somit die Anforderungen an die Prozesse gezielt umsetzen. Auch kann dadurch Feedback in die Prozess-Teams einfließen, so dass ein effektives und effizientes Zusammenspiel zwischen Prozessen und Tool erreicht werden kann. 4.2.2 Weitere Aktivitäten im Bereich IT-Service-Management Auch 2010 wurden für Studenten der LMU und der TU München in Zusammenarbeit mit dem Lehrstuhl Prof. Hegering / Prof. Kranzlmüller zwei Seminare zum Thema „prozessorientiertes IT-Service Management“ angeboten. Wie bei den Schulungen für die Mitarbeiter des LRZ gab es auch für die Studenten die Möglichkeit, im Anschluss an das Seminar die Prüfung „Foundation in IT Service Management according to ISO/IEC 20000“ abzulegen und das entsprechende Zertifikat zu erwerben. Auch ist das LRZ mit Herrn Prof. Dr. Heinz-Gerd Hegering und Herrn Dr. Michael Brenner im Komitee für die IT-Personenzertifizierung nach ISO/IEC 20000 vertreten. Im Rahmen dieses Komitees wurde das Rahmenkonzept für Schulungen, Prüfungen und IT-Personenzertifizierung nach ISO/IEC 20000 festgelegt und wird kontinuierlich weiterentwickelt. 4.3 Arbeitskreis Continuity Der Arbeitskreis trifft sich halbjährlich, um vorgefallene Major Incidents daraufhin zu bewerten, ob Verbesserungen oder Änderungen am Prozess erforderlich sind. Die Revisionssitzung im Frühjahr 2010 befasste sich weitgehend mit Standarthemen wie der Aktualisierung und Verbesserung der Dokumentation in den roten Ordnern. Eine weiter gehende Veränderung am Prozess wurde im Herbst 2010 beschlossen, weil sich viele als Major Incidents einzustufende Ereignisse auf den Fall beschränken, dass ein Administrator einen gestörten Dienst wieder in Gang bringt und der Major Incident Coordinator (MIC) dafür sorgt, dass die betroffenen Nutzer und gegebenenfalls andere Administratoren über die Störung informiert werden. Die bisher zwingende vorgeschriebene Anwesenheit des MIC im Krisenraum wurde gelockert und seine Arbeitsweise auf Grund der vorliegenden Störung und ihrer Anforderungen in das Ermessen des MIC gestellt. Bei einzelnen ausgefallenen Diensten, die keine weitere Koordination innerhalb des LRZ erfordern, kann der MIC daher beispielsweise jetzt auch von zu Hause agieren. Angeregt wurde die vollständige Einbindung des Prozesses ins Incident Management, was zu einer automatischen Einschaltung der MICs führen würde. Für die Roten Ordner wurde die technische Dokumentation auf den neuesten Stand gebracht. In der Herbstsitzung des Arbeitskreises Continuity standen darüber hinaus Fragen der Kundenbenachrichtigung im Vordergrund. Es soll eine Kundenliste aufgebaut werden, in die auch die eventuell vorhandene SLAs einfließen, so dass der MIC seine Koordinationstätigkeit entsprechend priorisieren kann. 162 4.4 Tätigkeiten in LRZ-weiten strategischen Arbeitskreisen Arbeitskreis Informationsmanagement Wie im Jahresbericht 2009 bereits beschrieben, setzt das LRZ historisch bedingt viele Werkzeuge für die verschiedenen klassischen Aspekte des IT-Managements (Netzmanagement, Systemmanagement usw.) ein. 2010 wurde als wichtiger Erfolgsfaktor für ein effektives und effizientes Werkzeugkonzept die Realisierung von LRZ-weit gültigen Prozessen für Informationsmanagement und Configuration-Management identifiziert. Nur durch optimale Integration von Information und Bereitstellung konsistenter Dokumentation lassen sich Konsolidierungen von Tools und Optimierungen erreichen. Um diesen Anforderungen Rechnung zu tragen, wurde zusätzlich zum bereits existierenden Control-Team der Arbeitskreis Informationsmanagement gegründet. Im Rahmen des Arbeitskreises Informationsmanagement wurden 2010 unterschiedliche Aktivitäten gestartet, um die Dokumentations- und Informationsstruktur am LRZ zu verbessern. Von insgesamt 38 identifizierten Informationsquellen hat man sich zunächst auf vier Quellen fokussiert, die nach Einschätzen des Arbeitskreises die wichtigsten und verbreitetsten Ablagen für Dokumentation sind. Ziel des Arbeitskreises war es dann, diese vier Quellen derart zu verbessern, dass übrige Quellen mittelfristig durch diese zentralen Quellen abgelöst werden können. Ein zentraler Aspekt ist dabei die Einführung eines einheitlichen Dienstleistungsbaumes (DLB) gewesen. Dieser Baum repräsentiert eine Kernstruktur, welche Dienste sowohl intern wie auch extern durch das LRZ erbracht werden. Somit spiegelt dieser Baum eine bestimmte Sichtweise auf den Betrieb des LRZ wider. Der Arbeitskreis hat 2010 damit begonnen, den Dienstleistungsbaum auf die vier zentralen Informationsquellen zu übertragen und die Struktur der Quellen auf diesen Baum hin anzupassen. Folgende Ziele werden durch diese Maßnahme verfolgt: • Eine einheitliche Struktur verschiedener Informationsquellen nutzt den Wiedererkennungseffekt. Kunden sowie auch Nutzer finden sich dadurch auch in Informationsquellen, die sie selten nutzen, schnell zurecht. • Der DLB gibt eine Struktur wieder, die möglichst unabhängig vom Vorwissen des Nutzers nachvollziehbar und intuitiv ist. • Der DLB beschreibt eine bestimmte Sichtweise auf das Dienstportfolio des LRZ. Mit der LRZweiten Etablierung des Dienstleistungsbaumes wird auch ein einheitliches Vokabular angestrebt. • Mit dem Ziel des LRZ, eine ISO-20000-Zertifizierung zu erlangen, sollte das LRZ eine dienstorientierte Sicht auf den Betrieb zunehmend der gruppen- und abteilungsorientierten Sicht vorziehen. Der DLB ist hierfür ein Startpunkt und eine wichtige Voraussetzung. Des Weiteren hat sich der Arbeitskreis damit beschäftigt, Richtlinien und Beispiele zu veröffentlichen, wo und wie Informationen abzulegen sind und wie der Dienstleistungsbaum zu verwenden ist. Hierdurch sollen Hemnisse bei der Dokumentation verringert und die Akzeptanz der zentralen Informationsquellen gesteigert werden. Dieser Punkt wird auch 2011 weiterhin ein zentraler Aspekt sein, mit dem sich der Arbeitskreis beschäftigen wird. Jahresbericht 2010 des Leibniz-Rechenzentrums 163 5 Organisatorische Maßnahmen im LRZ 5.1 Personalveränderungen 2010 5.1.1 Zugänge Datum Name Dienstbezeichnung Abteilung 01.01.2010 Schaaf Thomas, Dr. wiss. Mitarbeiter Hochleistungssysteme 01.01.2010 Übelacker Thomas wiss. Hilfskraft Zentrale Dienste 01.02.2010 Goyal Sadhna wiss. Mitarbeiter Benutzernahe Dienste und Systeme 01.02.2010 Laschka Christiane techn. Angest. Benutzernahe Dienste und Systeme 01.03.2010 Georgius Danny techn. Angest. Zentrale Dienste 01.03.2010 Kloppe Andreas techn. Angest. Zentrale Dienste 01.03.2010 Pointner Gernot stud. Hilfskraft Hochleistungssysteme 01.03.2010 Satria Winnu stud. Hilfskraft Hochleistungssysteme 01.03.2010 Schmid Benjamin techn. Angest. Zentrale Dienste 15.03.2010 Gong Jing Werkvertrag Hochleistungssysteme 01.04.2010 Bernau Christoph stud. Hilfskraft Hochleistungssysteme 01.04.2010 Crispien Marco stud. Hilfskraft Benutzernahe Dienste und Systeme 01.04.2010 Kam-Thong Tony stud. Hilfskraft Hochleistungssysteme 01.04.2010 Sollinger Florian Martin stud. Hilfskraft Kommunikationsnetze 01.05.2010 Busam Benjamin stud. Hilfskraft Benutzernahe Dienste und Systeme 01.05.2010 Etzel Oliver stud. Hilfskraft Benutzernahe Dienste und Systeme 01.05.2010 Heins Julius stud. Hilfskraft Benutzernahe Dienste und Systeme 01.05.2010 Kostadinovski Daniel techn. Angest. Zentrale Dienste 01.05.2010 Vicedo Jover Esmeralda stud. Hilfskraft Hochleistungssysteme 01.05.2010 Wiesner Christian stud. Operateur Zentrale Dienste 01.06.2010 Eickeler Felix stud. Hilfskraft Benutzernahe Dienste und Systeme 01.06.2010 Kirnberger Albert techn. Angest. Zentrale Dienste 01.08.2010 Haltmair Gena stud. Hilfskraft Zentrale Dienste 01.08.2010 Lindinger Tobias, Dr. wiss. Mitarbeiter Hochleistungssysteme 01.08.2010 Scherzei Mashud stud. Hilfskraft Zentrale Dienste 01.08.2010 Wank Andreas stud. Hilfskraft Zentrale Dienste 01.09.2010 Neumann Daniel techn. Angest. Hochleistungssysteme 01.09.2010 Ostermeier Christoph Auszubildende Zentrale Dienste 01.09.2010 Podo Alessandro Auszubildende Zentrale Dienste 01.09.2010 Schöfer Renate wiss. Hilfskraft Benutzernahe Dienste und Systeme 20.09.2010 Thiele Roman Praktikant Kommunikationsnetze 01.11.2010 Hubert Mario stud. Operateur Zentrale Dienste 01.11.2010 Längle Bernadette stud. Hilfskraft Kommunikationsnetze 01.11.2010 Willoweit Benno Praktikant Hochleistungssysteme 01.12.2010 Auweter Axel wiss. Mitarbeiter Hochleistungssysteme 01.12.2010 Leicht Ludwig stud. Hilfskraft Zentrale Dienste Organisatorische Maßnahmen im LRZ 164 5.1.2 Abgänge Datum Name Dienstbezeichnung Abteilung 31.01.2010 Güntner Benjamin Informationselektroniker Kommunikationsnetze 05.02.2010 Hartmann Daniel Praktikant Kommunikationsnetze 28.02.2010 Weidle Stefan stud. Hilfskraft Benutzernahe Dienste und Systeme 31.03.2010 Donauer Martin stud. Hilfskraft Benutzernahe Dienste und Systeme 30.04.2010 Anger Christian Andreas stud. Hilfskraft Benutzernahe Dienste und Systeme 30.04.2010 Dlugosch Sabine wiss. Hilfskraft Benutzernahe Dienste und Systeme 31.05.2010 Turgut Petra Verw. Angest. Zentrale Dienste 30.06.2010 Berner Stefan wiss. Mitarbeiter Hochleistungssysteme 31.07.2010 Sollinger Florian Martin stud. Hilfskraft Kommunikationsnetze 31.08.2010 Carlson Arthur, Dr. wiss. Mitarbeiter Hochleistungssysteme 31.08.2010 Metko Kerstin stud. Hilfskraft Zentrale Dienste 31.08.2010 Pointner Gernot stud. Hilfskraft Hochleistungssysteme 31.08.2010 Sutter Christopher techn. Angest. Zentrale Dienste 31.08.2010 Zellner Michael Hilfskraft Benutzernahe Dienste und Systeme 30.09.2010 Schöfer Renate wiss. Hilfskraft Benutzernahe Dienste und Systeme 30.09.2010 Stecklum Martin stud. Hilfskraft Zentrale Dienste 30.09.2010 Wagner Frederik wiss. Mitarbeiter Hochleistungssysteme 15.10.2010 Thiele Roman Praktikant Kommunikationsnetze 31.10.2010 Maier Andreas, Dr. wiss. Mitarbeiter Hochleistungssysteme 31.10.2010 Spanner Thomas stud. Operateur Zentrale Dienste 15.11.2010 Übelacker Thomas wiss. Hilfskraft Zentrale Dienste 31.12.2010 Beronov Kamen, Dr. wiss. Mitarbeiter Hochleistungssysteme 31.12.2010 Haltmair Gena stud. Hilfskraft Zentrale Dienste 31.12.2010 Hazrat Lida stud. Hilfskraft Benutzernahe Dienste und Systeme 31.12.2010 Satria Winnu stud. Hilfskraft Hochleistungssysteme 31.12.2010 Strauß Maximilian Thomas stud. Hilfskraft Benutzernahe Dienste und Systeme 31.12.2010 Sytcheva Liudmila wiss. Hilfskraft Hochleistungssysteme 5.2 Gebäudemanagement und Gebäudebetrieb Die Infrastruktur an Elektrizität und Kühlung als wichtigste Aufgabe im Bestandsbau konnte stabil betrieben werden. Hier gab es keine Betriebsunterbrechungen, auch wenn die anhaltenden Bauarbeiten für die angrenzenden Erweiterungsbauten durchaus Risiken für den Rechnerbetrieb bargen. In diesem Zusammenhang wurden u.a. folgende Arbeiten im Bestand durchgeführt: • einzelne Löschsysteme im Bestand wurden bereits demontiert: die Argonlöschung im Höchstleistungsrechnerraum, das Löschgas FM200 im Elektrogeschoss; als künftiger Ersatz dafür wurde die Löschtechnik „Hochdruckwassernebel“ in diesen Bereichen vorbereitet • die bisherige Westfassade einschl. Treppenhäusern wurde abgebaut, um den Erweiterungsbau nahtlos anschließen zu können. Während dieser Umbruchphase kam es durch Starkregen zu einem Wassereinbruch mit Schäden bis auf die Elektroebene im UG • die Druckerei musste in Vorbereitung eines Verbindungsganges zum Erweiterungsbau verkleinert werden • Strom- und Kältetechnik mussten mit der Bestandsstruktur gekoppelt werden, wobei die starke Schmutz- und Staubentwicklung Anlass zur Sorge wegen möglicher Langfristschäden gibt. Jahresbericht 2010 des Leibniz-Rechenzentrums 165 5.2.1 Erweiterung des LRZ (Rechner- und Institutsgebäude) Die Bauarbeiten hatten mit der Betonierung der beiden Grundplatten für die Rechnergebäudeerweiterung und die des Institutsgebäudes (Bauteil „E“) bereits im Herbst 2009 begonnen. Im Herbst 2010 konnte der Rohbau vollendet und das Richtfest mit dem bayerischen Innenminister Herrmann als prominentem Gast und Redner gefeiert werden. Parallel zum Rohbau konnte die technische Gebäudeausstattung bereits weit vorangetrieben werden: USVs und Notstromdiesel sind eingebracht, Transformatoren und Kühlungskomponenten folgen noch bis Jahresende, auch der neue Anschluss ans Umspannwerk soll bis dahin fertig gestellt werden. Abbildung 95: Prof. Bode (Vorsitzender des Direktoriums des LRZ), Bauherr Innenminister Herrmann, Landrätin Rumschöttel, Erste Bürgermeisterin von Garching Gabor, Profs Hegering und Kranzlmüller (Direktorium des LRZ), Baudirektor Hoffmann beim Richtfest am 18.10.2010 (v.l.n.r.) Die Hauptnutzfläche der Rechnerräume wird um etwa 2/3, die Elektro- und Kühlkapazität auf insgesamt etwa das Fünffache wachsen. Die Serverkühlung wird überwiegend Wasserkühlung sein. Freie Außenluftkühlung soll in größerem Umfang als bisher umgesetzt werden. Die angestrebte sog. „Warmwasserkühlung“ (> 35°C Zulauftemperatur) für große Teile des nächsten Höchstleistungsrechners „SuperMUC“ konnte erreicht werden. Die entsprechend revidierte Planung - mehr „freie“ Kühlung ohne Kompressorkälte - wird derzeit umgesetzt. Zurzeit werden mit der Fa. IBM, die den Zuschlag zur Lieferung des „SuperMUC“ erhalten hat, die Betriebsrandbedingungen und die Aufstellungsgeometrie geklärt, damit der Fertigstellungsprozess des Gebäudes mit den neuesten Daten fortgesetzt werden kann. 5.2.2 Energieeffizienz Der hohe und in absehbarer Zeit (ab etwa 2012) kräftig ansteigende Energieverbrauch des LeibnizRechenzentrums für seine Server, seine Höchstleistungsrechner und deren Kühlungsinfrastruktur verlangt nach neuen Wegen. Das in diesem Zusammenhang für Umwelt und Budget eminent wichtige Thema Energieeffizienz wurde mit folgenden Maßnahmen vertieft: • Strombeschaffung: das LRZ nutzt die Gelegenheit, nicht mehr über die TU München mit Strom versorgt zu werden, zu einer veränderten Beschaffungsweise für Strom. Der bayernweit ausgeschriebene 2-Jahres-Stromversorgungsrahmen für öffentliche Institutionen soll ab Anfang 2011 Organisatorische Maßnahmen im LRZ 166 • • • • nicht länger genutzt werden, sondern das LRZ wird versuchen, seinen weithin gleichmäßigen und vorhersehbaren Strombedarf („Grundlast“-Charakteristik) von zurzeit ca. 20 GWh/a am Strommarkt zu decken. Maßnahmen zur energiebewussten Luftkühlung der Rechnerräume wurden vertieft: die im Vorjahr begonnene Trennung von Warm- und Kaltluftströmen wurde verfeinert, indem Vorhänge zwischen und Blenden innerhalb der Serverracks die Trennung verstärken. Die Kühlungsplanungen für den Erweiterungsbau wurden energetisch nochmals revidiert: es gelang, für den künftigen Größtverbraucher SuperMUC die neue Technik der Warmwasserkühlung (Kühlwassertemperaturen > 35°C) zu sichern, so dass einige Kältemaschinen abbestellt werden konnten. Die Virtualisiserung von Servern wurde weiter vorangetrieben. Der Stromverbrauch der LRZ-Server - ohne Kühlungsaufwand - liegt am Jahresende 2010 bei einem Leistungswert von o Höchstleistungsrechner: 1.050 KW o Netz- und Server: 380 KW o Daten- und Archive: 50 KW 5.2.3 Personalausstattung der Hauswerkstätte Bedingt durch Altersteilzeit wurde die Stärke des fest angestellten Personals der Hauswerkstätte auf ein Viertel reduziert. Die sehr positiven Erfahrungen mit unserem Facility-Management-Dienstleister führten dazu, dass seit Februar nicht nur die Kerndienste der Elektro-, Kühlungs-, Leit- und Gefahrentechnik von extern betreut werden, sondern auch die komplette Haus- und Veranstaltungstechnik. Allerdings sprengt die derzeitige Zusatzbelastung durch „die Baustelle“ fast die Kapazität. Hier hat sich insbesondere die Überwachung der Fremdhandwerker der Baustelle als äußerst zeitintensiv erwiesen. 5.3 Dienstleistungskatalog Der Wunsch anderer Hochschulen und wissenschaftsnaher Institutionen (Fachhochschulen, Bibliotheken, Max-Planck-Institute, Studentenwerk usw.), IT-Dienste des LRZ für sie zu betreiben und zu betreuen (ITOutsourcing), hat sich auch 2010 weiter verstärkt. Das LRZ hatte schon Ende 2008 eine erste Version eines Dienstleistungskatalogs in Absprache mit seinem zuständigen Ministerium (Bayerisches Staatsministerium für Wissenschaft, Forschung und Kunst) erstellt, der im ersten Schritt nur diejenigen Dienste enthalten hatte, die bisher für andere Institutionen schon betrieben bzw. von anderen Institutionen aktiv nachgefragt wurden. Langfristig soll dieser Dienstleistungskatalog alle Dienstleistungen des LRZ umfassen, also auch diejenigen, die bisher und auch in Zukunft für Nutzer (im engeren Sinne) kostenlos sind, da sie der satzungsgemäßen Grundversorgung zugerechnet werden. Eine erste Auflistung hierzu findet sich in der Schrift „Das Leibniz-Rechenzentrum (LRZ) – eine Einführung“. Diese Schrift hatte 2010 den bisher im Jahresbericht enthaltenen Teil über die Dienstleistungen des Leibniz-Rechenzentrums ersetzt und soll zukünftig regelmäßig den aktuellen Gegebenheiten angepaßt werden. Teil dieses Dienstkatalogs ist auch eine aktualisierte Klasseneinteilung möglicher Nutzer/Kunden. Anhand dieser Einteilung werden die Antragsteller klassifiziert und die für die Dienstleistung anzusetzenden Kosten berechnet. Dieser Entscheidungsprozess über die Einteilung ist immer noch nicht vollständig abgeschlossen; er erfolgt in enger Abstimmung mit der Bayerischen Akademie der Wissenschaften und unserem Ministerium. Die Aktualisierung des sonstigen Regelwerks (u.a. auch der „Benutzungsrichtlinien des LRZ“) wurde vom Plenum der Bayerischen Akademie der Wissenschaften am 11.06.2010 ohne Gegenstimmen beschlossen und liegt derzeit zur rechtsaufsichtlichen Genehmigung beim Bayerischen Staatsministerium für Wissenschaft, Forschung und Kunst. Trotz der noch ausstehenden Entscheidungen wurden im letzten Jahr zusätzlich zu den schon in den Vorjahren erbrachten Dienstleistungen aus dem Bereich der Kommunikationsnetze (Mitnutzung des Münchner Wissenschaftsnetzes sowie die Betreuung lokaler Infrastrukturen), dem Bereich des Hostings von Clusterknoten für die Exzellenz-Initiative, dem Bereich Backup-/Archiv- und Langzeitarchivierung für die Bayerische Staatsbibliothek, weitere Dienste für die Hochschulen und die Bayerische Staatsbibliothek insbesondere aus dem Bereich Hosting virtueller Server erbracht. Jahresbericht 2010 des Leibniz-Rechenzentrums 5.4 • • • • • • • • • • • • • • • • • • • 167 Mitarbeit in Gremien BRZL: Arbeitskreis der bayerischen Rechenzentrumsleiter ZKI: Zentren für Kommunikation und Information ZKI-Arbeitskreis Universitäts- und Fachhochschul-Rechenzentren MPG: Beratender Ausschuss für Rechensysteme MPG: Kuratorium der Institute für Extraterrestrik und Astrophysik DFN: Diverse Gremien und Ausschüsse DFG-Gutachtersitzungen Wissenschaftsrat: Nationaler Koordinierungsausschuss für Höchstleistungsrechnen IFIP/IEEE: Diverse Working Groups, Program and Organization Committees GI: Erweitertes Leitungsgremium Fachgruppe KIVS IT-Beirat fuer das Bibliothekswesen Bayerns (Bayerische Universitäts- und Fachhochschulbibliotheken), ehemals: Kommission für EDV-Planung D-Grid Beirat DEISA Executive Committee Gauss Centre for Supercomputing (GCS) Gauß Allianz PRACE Management Board PRACE Council PROSPECT GEG (Géant Expert Group) 5.4.1 Abteilung „Benutzernahe Dienste und Systeme“ • • • • • • • • ZKI-Arbeitskreis Verzeichnisdienste ZKI-Arbeitskreis Multimedia und Grafik ZKI-Arbeitskreis Verteilte Systeme Regionale DOAG-Arbeitsgruppe München (Deutsche Oracle Anwendergemeinde) Arbeitskreis vernetzter Arbeitsplatzrechner (AKNetzPC) Bayerischer Arbeitskreis Metadirectory und Arbeitskreis AAIVHB-Arbeitskreis Authentifizierungs- und Autorisierungsinfrastruktur DFN-Arbeitsgruppe DFN-AAI DFN-Arbeitsgruppe E-Learning 5.4.2 Abteilung „Hochleistungssysteme“ • • • • • • • • • • ZKI-Arbeitskreis Supercomputing KONWIHR (Kompetenznetzwerk für Technisch-Wissenschaftliches Hoch- und Höchstleistungsrechnen in Bayern) UNICORE Forum (UNICORE User Group) D-Grid Technical Advisory Board (TAB) OGF Production Grid Interoperability (PGI) working group NGI-DE Joint Research Unit (JRU) SGI User Group Fortran Standardisierung (International Organization for Standardization (ISO) and the International Electrotechnical Commission (IEC) through their Joint Technical Committee 1 (JTC1), International Standardization Subcommittee for programming languages (SS22), Working Group 5 Fortran) STRATOS (PRACE Advisory Group for Strategic Technologies) IESP (International Exascale Software Project) Organisatorische Maßnahmen im LRZ 168 • EESI (European Exascale Software Initiative) 5.4.3 Abteilung „Kommunikationsnetze“ • • • • • • • • • • • • • • BHN (Bayerisches Hochschulnetz) ZKI-Arbeitskreis Netzdienste Projektgruppe Datenverkabelung (öffentlicher Gebäude in Bayern) Arbeitskreis IT Service Management in Hochschulen IT Service Management Forum itSMF TÜV Komitee Personenzertifizierung nach ISO/IEC 20000 TÜV Komitee Personenzertifizierung nach ISO/IEC 27000 International Conference on Networking and Services (ICNS 2010) The Fourth International Conference on Advanced Engineering Computing and Applications in Sciences (ADVCOMP 2010) DFN Forum Kommunikationstechnologien 2010 DFN CERT Workshop 2010 Second International Conference on Resource Intensive Applications and Services (INTENSIVE 2010) International Symposium on Integrated Network Management (IM 2011) Principles, Systems and Applications of IP Telecommunications (IPTComm 2011) 5.4.4 Abteilung „Zentrale Dienste“ • • • 5.5 ZKI-Arbeitskreis Softwarelizenzen ZKI-Arbeitskreis Service-Management und Sicherheit BSK-Arbeitskreis (Bayerische Software-Kooperation) Veranstaltungen am LRZ Titel Datum Cloud Camp 21.01.2010 ISO/IEC 27000 Foundation (ITSM 0401) 02.02.2010 Microsoft Uni Roadshow 02. – 03.02.2010 Programming with Fortran 08. – 12.02.2010 DEISA WP 3,4,6 09. – 10.02.2010 PRACE Languages and Prototype Workshop 01. – 02.03.2010 ISO/IEC 20000 01. – 05.03.2010 Paralleles Programmieren 08. – 12.03.2010 NGI-DE Meeting 19.03.2010 ITSM Kompaktseminar 13. – 16.04.2010 Girls Day 22.04.2010 ISO/IEC 20000 Kurs 03. – 05.05.2010 und 07.05.2010 PROSPECT Meeting 05.05.2010 ISHARe Meeting 10. – 12.05.2010 Jahresbericht 2010 des Leibniz-Rechenzentrums 169 DRIHMS Workshop 17. – 18.05.2010 ITSM Workshop Airport Simulation 29.06.2010 DEISA Review Meeting 29. – 30.06.2010 BGCE Research Day 01.07.2010 KONWIHR Workshop 12.07.2010 Parallel Programming with CILK 12. – 13.07.2010 HP Networking Technology Day 14.07.2010 Bayerischer Arbeitskreis Virtualisierung 23.09.2010 DGSI Plenarmeeting 27. – 28.09.2010 PRACE 1IP KickOff 30. – 31.09.2010 Iterative Gleichungslösung und Parallelisierung 04.- 08.10.2010 Advanced Fortran 11. – 15.10.2010 ITSM Kompaktseminar 12. – 14.10.2010 IGE Kickoff 18. – 22.10.2010 Strategisches IT-Management 21.10.2010/11.11.2010/25.11.2010/09.12.2010 Stratos Management Board Meeting and General 07.12.2010 Assembly Stratos Steering Board Meeting 5.6 20.12.2010 Mitarbeit bei und Besuch von Tagungen und Fortbildungsveranstaltungen 5.6.1 Abteilung „Benutzernahe Dienste und Systeme“ • • • • • • • • • • • HW-Beschaffung Bayern Vorbereitung PC-Ausschreibung -Herstellerpräsentation27.01.2010 - 27.01.2010 Nürnberg (Hartmannsgruber) HW-Beschaffung Bayern Vorbereitung PC-Ausschreibung -Herstellerpräsentation04.02.2010 - 04.02.2010 Nürnberg (Hartmannsgruber) ZKI Treffen des AK Verzeichnisdienste 08.02.2010 - 09.02.2010 Mannheim (Ebner) AK Netz PC Treffen 11.03.2010 - 11.03.2010 Regensburg (Fakler) Treffen mit Vodafone - Mobile Tarife und Best Practice 13.04.2010 - 13.04.2010 Regensburg (Schreiner) ATT Novel Identity Manager 19.04.2010 - 24.04.2010 Düsseldorf (Goyal) Transport der Poster in die Uni 12.05.2010 - 12.05.2010 München (Podo) HW-Beschaffung Bayern Vorbereitung Apple Ausschreibung 12.05.2010 - 12.05.2010 Nürnberg (Hartmannsgruber) EUNIS Konferenz (eigener Vortrag) 22.06.2010 - 25.06.2010 Warschau -PL (Gillmeister) Security-Vorträge am Gymnasium 06.07.2010 - 06.07.2010 Penzberg (Bötsch) AK Meta Directory und AK AAI 07.07.2010 - 07.07.2010 Passau (Ebner) Organisatorische Maßnahmen im LRZ 170 • • • • • • • • Besprechung zur Nachfolgelösung des SOPHOS Landeslizenzvertrages 16.09.2010 - 16.09.2010 Regensburg (Fakler, Hartmannsgruber) Solaris System Performance Tuning 20.09.2010 - 24.09.2010 Heimstetten (Braun) Secuity-Vorträge am Gymnasium 22.09.2010 - 22.09.2010 Landshut (Bötsch) DV-Fachseminar 22.09.2010 - 29.09.2010 Paderborn (Oesmann) Sitzung des AK Netz PC 23.09.2010 - 23.09.2010 Nürnberg (Feck) ZKI Herbsttreffen 03.10.2010 - 05.10.2010 Duisburg (Ebner) Besprechung zur Nachfolgelösung des SOPHOS Landeslizenzvertrages 14.10.2010 - 14.10.2010 Regensburg (Fakler , Hartmannsgruber) AntiVir-Bayern Marktanalyse und Ausschreibungsvorbereitung 01.12.2010 - 03.12.2010 Regensburg (Hartmannsgruber) 5.6.2 Abteilung „Hochleistungssysteme” • • • • • • • • • • • • • • • • • • VM Ware-Kurs bei HP 18.01.2010 - 22.01.2010 Hulb (Berner) Workshop Virtualisierung im D-Grid 28.01.2010 - 28.01.2010 Erlangen (Maier) PRACE TB Meeting 02.02.2010 - 02.02.2010 Paris -FR (Christadler) PRACE-Hearing, Vormeeting 08.02.2010 - 10.02.2010 Brüssel -BE (Heller) IBM Laborbesuch 08.02.2010 - 08.02.2010 Böblingen (Brehm, Huber) EU Proposal Hearing, Call FP7 Infrastructures 2010-2 09.02.2010 - 12.02.2010 Brüssel -BE (Jamitzky, Satzger) Hearing für EU-Projekt VERCE 09.02.2010 - 11.02.2010 Brüssel -BE (Frank) AK Netz PC Techn. Workshop VM Ware View 09.02.2010 - 09.02.2010 Nürnberg (Berner) Meeting of ISO/IEC JTC1/SC22/WG5 14.02.2010 - 21.02.2010 Las Vegas -US (Bader) Besuch des Klimarechenzentrums 17.02.2010 - 17.02.2010 Hamburg (Baur, Peinkofer) GCS Marketing Meeting 19.02.2010 - 19.02.2010 Bonn (Brehm) GPFS Expertenworkshop 22.02.2010 - 23.02.2010 Mainz (Kleinhenz) PRACE WP6 HPC Workshop (eigener Vortrag) 27.02.2010 - 02.03.2010 Leogang -AT (Rivera) Konferenz Globus World 01.03.2010 - 06.03.2010 Argonne -US (Heller) ZKI Arbeitskreis Supercomputing 04.03.2010 - 05.03.2010 Hamburg (Wagner) LRZ Workshop Parallel Programming of High Performance Systems 08.03.2010 - 12.03.2010 Erlangen (Bader) LRZ Workshop Parallel Programming of High Performance Systems 08.03.2010 - 10.03.2010 Erlangen (Müller) ZKI Treffen des AK Sys 09.03.2010 - 11.03.2010 Witten (Biardzki) Jahresbericht 2010 des Leibniz-Rechenzentrums • • • • • • • • • • • • • • • • • • • • • • • • • • • • OGF-Meeting 15.03.2010 - 18.03.2010 München (Maier) DEISA2 WP8 Face-to-Face Meeting 17.03.2010 - 19.03.2010 Barcelona -ES (Leong) Konferenz "Facing the Multicore-Challenge" 17.03.2010 - 19.03.2010 Heidelberg (Christadler) BG/P Extreme Scaling Workshop 21.03.2010 - 24.03.2010 Jülich (Allalen) D-Grid All Hands Meeting 22.03.2010 - 24.03.2010 Dresden (Paisios) Workshop 22.03.2010 - 25.03.2010 Kochel am See (Guillen) D-Grid All Hands Meeting 22.03.2010 - 24.03.2010 Dresden (Carlson, Saverchenko) Workshop EU-Russia Joint Call 25.03.2010 - 25.03.2010 Brüssel -BE (Brehm) IGE Meeting 29.03.2010 - 31.03.2010 Brüssel -BE (Frank) Operations Workshop EGEE-NGI-DE-transition 30.03.2010 - 30.03.2010 Karlsruhe (Saverchenko) IGE Meeting 30.03.2010 - 31.03.2010 Brüssel -BE (Heller) EGI-Meeting Cern 06.04.2010 - 07.04.2010 Genf -CH (Heller) IESP Workshop 12.04.2010 - 14.04.2010 Oxford -GB (Huber) CUDA Training 18.04.2010 - 22.04.2010 Jülich (Allalen, Weinberg) DEISA All Hands Meeting (WP 4) 19.04.2010 - 20.04.2010 Paris -FR (Laitinen) DEISA All Hands Meeting (WP 7) 19.04.2010 - 20.04.2010 Paris -FR (Beronov) SLA4 Dgrid 2. Workshop 04.05.2010 - 04.05.2010 Berlin (Paisios) IDRIS Seminar on Co-array Fortran (eigener Vortrag) 05.05.2010 - 06.05.2010 Paris -FR (Bader) DEISA Training 05.05.2010 - 06.05.2010 London -GB (Leong) DEISA PRACE Symposium (eigener Vortrag) 11.05.2010 - 12.05.2010 Barcelona -ES (Huber) LRZ-CEA Collaboration 19.05.2010 - 20.05.2010 Paris -FR (Brehm, Huber, Steinhöfer) Lustre Workshop 25.05.2010 - 26.05.2010 Jülich (Steinhöfer) ISC 2010 28.05.2010 - 03.06.2010 Hamburg (Brehm, Christadler Jamitzky, Satzger, Steinhöfer) Engaging European DCIs together 31.05.2010 - 01.06.2010 Brüssel -BE (Heller) ROD Teams Workshop 31.05.2010 - 03.06.2010 Amsterdam -NL (Zrenner) ISC 2010 31.05.2010 - 02.06.2010 Hamburg (Huber) ROD Teams Workshop 01.06.2010 - 03.06.2010 Amsterdam -NL (Frank) 6 th Erlangen International High-End-Computing Symposium 171 Organisatorische Maßnahmen im LRZ 172 • • • • • • • • • • • • • • • • • • • • • • • • • • • 04.06.2010 - 04.06.2010 Erlangen (Rivera) 2. Treffen der DGI Monitoring Task Force 09.06.2010 - 09.06.2010 Jülich (Saverchenko) Workshop High Performance Computing, Grids and Clouds 20.06.2010 - 26.06.2010 Cetraro -IT (Heller) CiHPC Meeting 21.06.2010 - 24.06.2010 Schwetzingen (Hesse) EESI WP3 and WP4 joint preliminary meeting 28.06.2010 - 28.06.2010 Paris -FR (Huber) Erweitertes VO-Management Workshop und Mailingliste 29.06.2010 - 29.06.2010 Karlsruhe (Paisios) Projekttreffen SLA4 Dgrid 05.07.2010 - 05.07.2010 Stuttgart (Paisios) Kooperation und Besuch der Lomonossov Universität und t-platforms 07.07.2010 - 09.07.2010 Moskau –RU (Brehm, Huber) Intel Ct Training 24.08.2010 - 26.08.2010 Feldkirchen (Weinberg) Inca Workshop 25.08.2010 - 31.08.2010 San Diego -US (Saverchenko) Eigener Vortrag an der Summer School der KTH 26.08.2010 - 27.08.2010 Stockholm -SE (Christadler) Workshop Distributed Computing and Multidisciplinary Sciences 28.08.2010 - 03.09.2010 Washington -US (Heller) EuroPar Konferenz 29.08.2010 - 03.09.2010 Ischia -IT (Guillen) Workshop DGI-2/ FG-2 01.09.2010 - 02.09.2010 Jülich (Paisios, Saverchenko ) PRACE Management Board Meeting 03.09.2010 - 03.09.2010 Frankfurt am Main (Huber) Globus-Schulung (eigener Vortrag) 06.09.2010 - 10.09.2010 Karlsruhe (Laitinen, Zrenner) Workshop Open LUSTRE-for Linux 06.09.2010 - 07.09.2010 Jülich (Biardzki) EGI Technical Meeting 12.09.2010 - 18.09.2010 Amsterdam -NL (Zrenner) DEISA Training Course 13.09.2010 - 16.09.2010 Edinburgh -GB (Leong) EGI Technical Forum 14.09.2010 - 17.09.2010 Amsterdam -NL (Heller, Saverchenko) EGI Technical Meeting (Projektbetreuung) 15.09.2010 - 17.09.2010 Amsterdam -NL (Frank) ENA-HPC Konferenz 15.09.2010 - 17.09.2010 Hamburg (Biardzki) Briefing zum Archivserversystem 20.09.2010 - 20.09.2010 Mainz (Baur, Peinkofer) DV-Fachseminar 22.09.2010 - 29.09.2010 Paderborn (Hufnagl) Arbeitstreffen SGI User Group 26.09.2010 - 28.09.2010 Hamburg (Weinberg) ScalaLife Kick-off Meeting 27.09.2010 - 29.09.2010 Stockholm -SE (Allalen, Jamitzky, Satzger) PRACE Final Review 30.09.2010 - 01.10.2010 Brüssel -BE (Huber) 2nd European Workshop on HPC Centre Infrastructures 05.10.2010 - 08.10.2010 Dourdan -FR (Huber) Jahresbericht 2010 des Leibniz-Rechenzentrums • • • • • • • • • • • • • • • • • • • • • • • • • • • • Mapper Kick-Off-Meeting 06.10.2010 - 08.10.2010 Amsterdam -NL (Saverchenko) Projekttreffen SLA4 Dgrid 07.10.2010 - 08.10.2010 Jülich (Paisios) DEISA Arbeitstreffen WP 3,4,6 12.10.2010 - 15.10.2010 Helsinki -FI (Maier, Saverchenko) DEISA-Arbeitstreffen WP 2, 3, 4, 6 12.10.2010 - 15.10.2010 Helsinki -FI (Heller) DEISA-Arbeitstreffen WP 8 12.10.2010 - 15.10.2010 Helsinki -FI (Leong) DEISA-Arbeitstreffen WP 3, 4, 7 12.10.2010 - 15.10.2010 Helsinki -FI (Laitinen) DEISA Arbeitstreffen WP 2,5,7 13.10.2010 - 15.10.2010 Helsinki -FI (Beronov) Face-to-Face Meeting PRACE 1 IP 18.10.2010 - 20.10.2010 Amsterdam -NL (Christadler) Face-to-Face Meeting 19.10.2010 - 20.10.2010 Amsterdam -NL (Huber) OGF 30 /Grid 2010 24.10.2010 - 29.10.2010 Brüssel -BE (Heller) PRACE Autumn School 24.10.2010 - 30.10.2010 Barcelona -ES (Allalen) 6 th International Conference on Network and Services Management (eigene Präsentation) 24.10.2010 - 01.11.2010 Toronto -CA (Lindinger) UNICORE Forum Members ZKI Arbeitskreis Supercomputing Herbsttreffen 27.10.2010 - 28.10.2010 Göttingen (Wendler) Blender Conference 2010 (eigener Vortrag) 28.10.2010 - 01.11.2010 Amsterdam -NL (Satzger) Open Source CFD Intern. Conference 2010 04.11.2010 - 05.11.2010 München (Rivera) EESI International Workshop 08.11.2010 - 09.11.2010 Amsterdam -NL (Huber) ISC 2010 12.11.2010 - 20.11.2010 New Orleans -US (Brehm, Bader, Jamitzky) WP Leaders Face-to-Face Meeting 12.11.2010 - 12.11.2010 Jülich (Huber) ISC 2010 12.11.2010 - 20.11.2010 New Orleans -US (Christadler, Satzger) ISC 2010 14.11.2010 - 20.11.2010 New Orleans -US (Huber) BMBF-Statustagung zum HPC-Isar-Projekt 23.11.2010 - 24.11.2010 Berlin (Guillen) Meeting zum Deep-Projekt 26.11.2010 - 26.11.2010 Jülich (Huber) Intel Software Customer Advisory Board (eigener Vortrag) 30.11.2010 - 03.12.2010 Nizza -FR (Bader) Vmware vSpere 4: Troubleshooting 06.12.2010 - 09.12.2010 Hallbergmoos (Roll) PRACE 1IP WP7 Face-to-Face Meeting 14.12.2010 - 17.12.2010 Bologna -IT (Rivera, Weinberg) e-IRGSP3-proposal Kick-off 14.12.2010 - 15.12.2010 Den Haag -NL (Frank) PRACE 1IP WP7 Face-to-Face Meeting 14.12.2010 - 16.12.2010 Bologna -IT (Christadler) Seminar (eigener Vortrag) 173 Organisatorische Maßnahmen im LRZ 174 15.12.2010 - 16.12.2010 Paris -FR (Heller) 5.6.3 Abteilung „Kommunikationsnetze“ • • • • • • • • • • • • • • • • • • • • • • • • • • First TF/ CSIRT Meeting 25.01.2010 - 27.01.2010 Hamburg (Metzger) EWNI 2010 - Call for Papers 27.01.2010 - 27.01.2010 Hamburg (von Eye) Workshop Virtualisierung im D-Grid 28.01.2010 - 28.01.2010 Erlangen (von Eye) D-Grid Beiratssitzung 05.02.2010 - 05.02.2010 Hannover (Reiser) Jährlicher LKN Workshop 05.02.2010 - 05.02.2010 Grainau (Lichtinger) 17. DFN Workshop "Sicherheit in vernetzten Systemen 09.02.2010 - 10.02.2010 Hamburg (Reiser) Sitzung des BHN-AK 25.02.2010 - 25.02.2010 Erlangen (Reiser, Tröbs) 52. DFN Betriebstagung 02.03.2010 - 03.03.2010 Berlin (Marcu) D-Grid All Hands Meeting 22.03.2010 - 24.03.2010 Dresden (von Eye) Konferenz ICN2010 (eigener Vortrag) 10.04.2010 - 16.04.2010 Les Menuires -FR (Fritz) Treffen mit Vodafone - Mobile Tarife und Best Practice 13.04.2010 - 13.04.2010 Regensburg (Gebert) Weltleitmesse für Architektur und Technik 15.04.2010 - 15.04.2010 Frankfurt (Glose) MeetITil Kongress 18.04.2010 - 22.04.2010 Bad Neuenahr (Brenner) MeetITil Kongress 19.04.2010 - 22.04.2010 Bad Neuenahr (Richter Chr.) OSI Forum 2010 27.04.2010 - 28.04.2010 Schlangenbad (Glose) RIPE 60 Meeting 03.05.2010 - 07.05.2010 Prag -CZ (Schmidt) Seminar Cisco Forum für Forschung und Lehre 05.05.2010 - 06.05.2010 Würzburg (Meschederu) RES-ITIL Seminar + Präsentation 17.05.2010 - 20.05.2010 Santander -ES (Brenner) DFN Forum 2010 26.05.2010 - 27.05.2010 Konstanz (Reiser) DFN: 60. Mitgliederversammlung 07.06.2010 - 08.06.2010 Berlin (Reiser) Beiratstreffen D-Grid 11.06.2010 - 11.06.2010 Frankfurt (Reiser) Statusmeeting des 100GET-Projektes 15.06.2010 - 17.06.2010 Stuttgart (Lichtinger) DNSSEC Meeting 16.06.2010 - 16.06.2010 Frankfurt (Schmidt) Secure Code Training 21.06.2010 - 24.06.2010 Poznan -PL (Fritz) 9th RoEduNet Conference (eigener Vortrag) 23.06.2010 - 27.06.2010 Sibiu -RO (Hommel, Marcu) GIDS Meeting Jahresbericht 2010 des Leibniz-Rechenzentrums • • • • • • • • • • • • • • • • • 30.06.2010 - 30.06.2010 Hamburg (von Eye) 7th International Conference on Services Computing IEEE SCC 2010 03.07.2010 - 12.07.2010 Miami -US (Yampolskiy) 1st International Workshop on the perfSONAR Network Measurement Infrastructure 06.07.2010 - 10.07.2010 Washington -US (Fritz) 10th Workshop on IP EuroView 2010 01.08.2010 - 03.08.2010 Würzburg (Lichtinger) GN3 Summer Developers School 29.08.2010 - 03.09.2010 Gdansk -PL (Fritz, Marcu, Schmitz, Yampolskiy) Internet 2000 Konferenz 19.09.2010 - 26.09.2010 Valencia -ES (Yampolskiy) IBM Tivoli Network Manager 3.8 Workshop 19.09.2010 - 22.09.2010 Hamburg (Loidl, Tröbs) D-Grid Security Workshop 29.09.2010 - 30.09.2010 Göttingen (von Eye) Beiratssitzung D-Grid 04.10.2010 - 04.10.2010 Hannover (Reiser) BHN-Sitzung 14.10.2010 - 14.10.2010 Passau (Reiser, Tröbs) DFN Tutorium und Betriebstagung 25.10.2010 - 27.10.2010 Berlin (Metzger) Netforum Expertentagung 27.10.2010 - 28.10.2010 Meckenbeuren (Glose) DENOG2-Meeting 04.11.2010 - 04.11.2010 Frankfurt (Schmidt) Schulung F5 LTM Training 11.11.2010 - 12.11.2010 Dornach (Kornberger) Service Computation 2010 (eigener Vortrag) 20.11.2010 - 26.11.2010 Lissabon -PT (Yampolskiy) IPv6 Deployment Council (eigener Vortrag) 23.11.2010 - 23.11.2010 Hallbergmoos (Reiser, Schmidt) 2th GN3 Symposium 24.11.2010 - 26.11.2010 Wien -AT (Fritz, Schmitz) DFN-Mitgliederversammlung 30.11.2010 - 01.12.2010 Bonn (Reiser) 5.6.4 Abteilung „Zentrale Dienste“ • • • • • • • • • 2. Netzwerktreffen NEMO Green IT 14.01.2010 - 14.01.2010 Meckenbeuren (Breinlinger) BSK Sitzung 27.01.2010 - 27.01.2010 Würzburg (Diehn) Gutachtersitzung Netz 2010 17.02.2010 - 18.02.2010 Münster (Apostolescu) BSK-Sitzung 02.03.2010 Hochschule München (Diehn, Palm) ZKI Arbeitskreis Software-Lizenzen 21.03.2010 - 22.03.2010 Berlin (Diehn) Wirtschaftsprüfer Dr. Küfner 16.04.2010 - 16.04.2010 Landshut (Apostolescu) BRZL-Klausurtagung 20.04.2010 - 21.04.2010 Hirschberg (Apostolescu) Workshop „Punktgenau Texten“ 28.04.2010 gate Garching (Palm) Personal-Fachinformation 175 Organisatorische Maßnahmen im LRZ 176 • • • • • • • • • • • • • • • • 5.7 29.06.2010 - 29.06.2010 München (Apel) DFN Betriebsausschussitzung 30.06.2010 - 30.06.2010 Berlin (Apostolescu) Wirtschaftsprüfer Dr. Küfner 28.07.2010 - 28.07.2010 Landshut (Apostolescu) Teilnahme am erweiterten Projektsteuerkreis GCS in Bonn 25.08.2010 - 25.08.2010 Bonn (Apostolescu) Wirtschaftsprüfer Dr. Küfner 02.09.2010 - 02.09.2010 Landshut (Apostolescu) DV-Fachseminar 22.09.2010 - 29.09.2010 Paderborn (Mende) 4th Workshop on HPC Best Practices: Power Management 25.09.2010 - 01.10.2010 San Francisco -US (Breinlinger) ZKI Arbeitskreis Software-Lizenzen Herbsttreffen 27.09.2010 - 29.09.2010 Merseburg (Diehn) Query-Schulung 06.10.2010 - 06.10.2010 München (Apel) BSK Sitzung 12.10.2010 - 12.10.2010 Bamberg (Diehn) Power Building Kongress 13.10.2010 - 14.10.2010 München (Kirnberger) Besprechung zur Nachfolgelösung des SOPHOS Landeslizenzvertrages 14.10.2010 - 14.10.2010 Regensburg (Diehn) Werksabnahme von Schaltschränken 15.11.2010 - 15.11.2010 Salzburg -AT (Kirnberger) Meeting zum Deep-Projekt 25.11.2010 - 26.11.2010 Jülich (Palm) AntiVir-Bayern Marktanalyse und Ausschreibungsvorbereitung 02.12.2010 - 03.12.2010 Regensburg (Diehn) Jahresschluss-Tagung TVöD/TV-L 08.12.2010 - 08.12.2010 München (Apel) Info-Veranstaltung zur Verlängerung des Campus-Vertrages mit Microsoft 15.12.2010 - 15.12.2010 Nürnberg (Diehn) Öffentlichkeitsarbeit Seine originären Dienstleistungen als Rechenzentrum der Hochschulen stellte das LRZ u.a. wieder bei der Erstsemesterbegrüßung an der LMU vor. Wie auch in den vergangenen Jahren war das LRZ „Location“ für Foto- und Filmaufnahmen z.B. des Bayerischen Rundfunks oder RTL, für das MPI für Astrophysik, einen Werbefilm für das Informatikstudium an der TU München oder künstlerische Technik-Aufnahmen. Der Dokumentarfilm „Plug & Pray“ von Jens Schanze, für den ebenfalls Szenen am LRZ gedreht wurden, wurde vielfach, u.a. mit dem Bayerischen Filmpreis als „Bester Dokumentarfilm 2010“ ausgezeichnet. Immer häufiger suchen auch die überregionalen Printmedien den Direktor des LRZ oder seine Wissenschaftlichen Mitarbeiter als Gesprächspartner. In der „Langen Nacht der Wissenschaften“ am 15. Mai 2010 nutzten etwa eintausend Besucherinnen und Besucher die Möglichkeit, das LRZ zu besichtigen. Auch das Angebot des LRZ zum Girls Day war wieder vollständig ausgebucht. Insgesamt nahmen ca. 2.650 Besucherinnen und Besucher an etwa 90 Führungen teil. Bemerkenswert ist die Zunahme der europaweiten und internationalen Aktivitäten des LRZ, die auch in der wissenschaftlichen und allgemeinen Öffentlichkeit wahrgenommen werden. So beteiligte sich das LRZ an der Organisation des Open Grid Forums im März 2010. Dessen Besuch nutzten Dr. Kostas Glinos und Dr. Kyriakos Baxevanidis von der Kommission der Europäischen Union für eine Besichtigung des LRZ. Im August trafen sich am LRZ 121 Teilnehmer aus 21 europäischen Ländern, um den Eintritt Jahresbericht 2010 des Leibniz-Rechenzentrums 177 des europäischen PRACE-Projektes in eine wichtige Phase zu starten. Und im Oktober besichtigte der Russische Staatsminister für Kommunikation und Massenmedien Igor Shchegolev das LRZ. Einen weiteren Ministerbesuch und ein äußerst großes nationales und internationales Medienecho erlebte das LRZ anlässlich der Unterzeichnung des Vertrages über den nächsten Höchstleistungsrechner. In Anwesenheit des Bayerischen Staatsministers für Wissenschaft, Forschung und Kunst, Dr. Wolfgang Heubisch, unterzeichneten am 13. Dezember 2010 Prof. Dr. Arndt Bode und Martin Jetter, Vorsitzender der Geschäftsführung der IBM Deutschland GmbH, den Vertrag für den „SuperMUC“. Das LRZ gab gemeinsam mit dem NIC Jülich und dem Hochleistungsrechenzentrum Stuttgart zweimal im Jahr anlässlich der Supercomputing-Konferenzen die Zeitschrift „inSiDE – Innovatives Supercomputing in Deutschland“ mit Beiträgen über Projekte, die auf dem Höchstleistungsrechner des LRZ bearbeitet wurden, heraus. Darüber hinaus erschien monatlich der LRZ-Newsletter, in dem u.a. Termine, Veranstaltungen, Kurse und Stellenangebote mitgeteilt wurden und der über eine Mailingliste verteilt sowie im Web angeboten wird. Dort ist auch ein Newsletter-Archiv verfügbar. Ferner stehen Faltblätter zur Verfügung, die sich auf Deutsch oder Englisch an die allgemeine Öffentlichkeit wenden oder speziell für Studenten die Dienstleistungen des LRZ vorstellen. Für die Zusammenarbeit mit den Medien erwies es sich als äußerst vorteilhaft, ihnen einen festen Ansprechpartner (http://www.lrz.de/presse/) nennen zu können. 5.8 LRZ als Ausbildungsbetrieb Seit 2007 ist das LRZ als Ausbildungsbetrieb anerkannt und bietet Ausbildungsplätze für IT-SystemElektroniker und Fachinformatiker Systemintegration an. Im Jahr 2010 haben die ersten Auszubildenden ihre Ausbildung am LRZ erfolgreich abgeschlossen. Durch eine im Rahmen der Altersteilzeit freiwerdende Stelle konnte ein Auszubildender erfolgreich übernommen werden. Die bisherigen Erfahrungen mit den Auszubildenden sind so positiv, dass auch mit Beginn des Ausbildungsjahres 2010/2011 zwei weitere Auszubildende eingestellt wurden (1 Fachinformatiker Systemintegration, 1 IT-Systemelektroniker). Auch für das Ausbildungsjahr 2011/2012 ist geplant, wieder zwei Auszubildende einzustellen. Die Bewerberauswahl hierzu hat bereits Ende 2010 in Kooperation mit der Technischen Universität München stattgefunden. 5.9 Betreuung von Diplom-, Bachelor-, Master- und Studienarbeiten Folgende Diplom-, Bachelor-, Master- und Studienarbeiten wurden von Mitarbeitern der Abteilung Benutzernahe Dienste und Systeme betreut: • • Xia, W., Evaluation des TUM–Trouble Ticket Systems als Ersatz für bestehende lokale Konfigurationsmanagementdatenbanken, Fortgeschrittenenpraktikum, Ludwig–Maximilians–Universität München, Januar, 2010. Nguyen, T. H., Erweiterung des TUM Trouble Ticket Systems um IT Service Management Komponenten, Systementwicklungsprojekt, Technische Universität München, März, 2010. Folgende Diplom-, Bachelor-, Master- und Studienarbeiten wurden von Mitarbeitern der Abteilung Kommunikationsnetze betreut: • • • Abeldt, P., Einführung von Multi–Protocol Label Switching (MPLS) im Münchner Wissenschaftsnetz, Diplomarbeit, Ludwig–Maximilians–Universität München, September 2010. Hauser, M., Toolgestützte Umsetzung von Change–Verfahren für VM–Provisioning nach ISO/IEC 20000, Diplomarbeit, Ludwig–Maximilians–Universität München, Juni 2010 Müller, A., Linux-basierte Personal Firewall für den Einsatz am LRZ, Fortgeschrittenenpraktikum, Ludwig-Maximilians-Universität München, November 2010. Folgende Diplom-, Bachelor-, Master- und Studienarbeiten wurden von Mitarbeitern der Abteilung Hochlseitungssysteme betreut: Organisatorische Maßnahmen im LRZ 178 • Schulz, Chr., Beurteilung der Sicherheit von Proxy Zertifikaten im Globus Toolkit, Fortgeschrittenenpraktikum, Ludwig-Maximilians-Universität München, September 2010. 5.10 Veröffentlichungen der Mitarbeiter 2010 ALLALEN M., M. BREHM, H. STUEBEN, Combining MPI with OpenMP Parallelism in Large Scale QCD Simulations, inSiDE Vol. 8, No. 2, Spring (2010) ALLALEN M., H. SATZGER, F. JAMITZKY, Real World Application Acceleration with GPGPUs, inSiDE Vol. 8, No. 1, Spring (2010) BADER R., A. BLOCK, PGAS – Incorporating parallelism into C and Fortran. PRACE workshop, LRZ. Februar 2010. (http://www.prace-project.eu/documents/12_cafupc_rb.pdf) BADER R., A. BLOCK, PGAS concepts for classical HPC programming languages. Vortrag am IDRIS, Frankreich. Mai 2010. (http://www.idris.fr/data/seminaires/2009-2010/Seminaire-IDRIS-du-6-mai2010.html) BADER R., Contributions to WG5 paper N1835 (Requirements for TR of further coarray features, by J. Reid). September 2010. (ftp://ftp.nag.co.uk/sc22wg5/N1801-N1850/N1835.txt) BODE A., IntegraTUM-Lehren aus einem universitären Großprojekt. In: Bode/Borgeest (Hrsgb.): Informationsmanagement in Hochschulen. pp.3-12, Springer, Heidelberg 2010 BODE A., R. BORGEEST, Informationsmanagement in Hochschulen. 446 pp., Springer, Heidelberg, 2010 BENEDICT S., M. BREHM, M. GERNDT, C. GUILLEN, W. HESSE, V. PETKOV, Automatic Performance Analysis of Large Scale Simulations. In: Proceedings of the Euro-Par 2009 Parallel Processing Workshops. Springer, 2010 BIARDZKI C., W. BAUR, B. REINER, Integrierte Speichersystem-Architektur zur Unterstützung hochschulübergreifender IT-Dienste. In: Informationsmanagement in Hochschulen. Springer, 2010 CARLE G., H. REISER, G. CAMARILLO, V. K. GURBANI, (Eds.): Principles, Systems and Applications of IP Telecomunications; Proceedings of IPTComm 2010, Network Architecture and Services, NET 2010-08-1, August 2010 CARLE G., H. REISER, G. CAMARILLO, V. K. GURBANI, (Eds.): Principles, Systems and Applications of IP Telecommunications; Proceedings of IPTComm 2010, ACM Digital Library, 2010 CHRISTADLER I., V. WEINBERG, RapidMind: Portability across Architectures and its Limitations. In: Facing the Multicore-Challenge: Aspects of New Paradigms and Technologies in Parallel Computing (Lecture Notes in Computer Science / Theoretical Computer Sci), Springer 2010 DIAZ M., D. AVRESKY, A. BODE, C. BRUNO, E. DEKEL, Cloud Computing. 271 pp., Springer Heidelberg, 2010 DIEHN M., IntegraTUM Teilprojekt E-Mail: Aufbau eines man-dantenfähigen Groupware-Services und seine Integration in Identity Management und E-Mail Infrastruktur der Technischen Universität München. In: Informationsmanagement in Hochschulen. Springer, Januar 2010 DIEHN M., A. HAARER , A. SCHREINER, M. STORZ, IntegraTUM Teilprojekt E-Mail: Rezentralisierung von E-Mail-Services. In: Informationsmanagement in Hochschulen. Springer, Januar 2010 GONG J., W. TIANDI, R. W. STARK, F. JAMITZKY, W. M. HECKL, H. J. ANDERS, M. LECH, S. C. RÖSSLE, Inhibition of Toll-like receptors TLR4 and 7 signaling pathways by SIGIRR: A computational approach, Journal of Structural Biology, Volume 169, Issue 3, March 2010, Pages 323-330 GONG J., W. TIANDI, N. ZHANG, F. JAMITZKY, W. M. HECKL, S. C. RÖSSLE, R. W. STARK, TollML: a database of toll-like receptor structural motifs Journal of Molecular Modeling, Volume 16, Number 7, 1283-1289 HAMM M. K., S. KNITTL, P. MARCU, M. YAMPOLSKIY, Modellierung Interorganisationaler It– Service–Managementprozesse, Praxis der Informationsverarbeitung und Kommunikation, 2010, K.G. Saur, München, Germany, Dezember, 2010 ILGENFRITZ M., K. KOLLER, Y. KOMA, G. SCHIERHOLZ, V. WEINBERG, Topological Structure of the QCD Vacuum Revealed by Overlap Fermion. In: High Performance Computing in Science and Engineering, Garching/Munich 2009, Springer 2010 Jahresbericht 2010 des Leibniz-Rechenzentrums 179 JAMITZKY F., R. W. STARK, Intermittency in amplitude modulated dynamic atomic force microscopy, Ultramicroscopy Volume 110, Issue 6, May 2010, Pages 618-621 KONIGES A. E., K. YELICK, R. RABENSEIFNER, R. BADER, D. EDER, Supercomputing Tutorial S10: Introduction to PGAS (UPC and CAF) and Hybrid for Multicore Programming. Refereed Tutorial. November 2010. (http://sc10.supercomputing.org/schedule/event_detail.php?evid=tut117) LICHTINGER B., O. HANKA, Secure setup of inter-provider Ethernet services based on a novel naming schema. In: NOMS 2010: 12th IEEE/IFIP Network Operations and Management Symposium. Osaka, Japan, April, 2010 MARCU P., W. HOMMEL, Requirements and concepts for an inter–organizational fault management architecture, In Proceedings of the 9–th RoEduNet International Conference, IEEE Computer Society, Sibiu (Hermannstadt), Romania, Juni, 2010. MARCU P., D. SCHMITZ, A. HANEMANN, S. TROCHA, Monitoring and Visualization of the Large Hadron Collider Optical Private Network, In Proceedings of the 9–th RoEduNet International Conference, IEEE Computer Society, Sibiu (Hermannstadt), Romania, Juni, 2010 SATZGER H., Frankie im Wunderland. In: Aviso. Bayerisches Staatsministerium für Wissenschaft, Forschung und Kunst, 2010 STUEBEN H., M. ALLALEN, Extreme scaling of the BQCD benchmark, Jülich BlueGene/P Extreme Scaling Workshop March 22 - 24, 2010. (http://www.fz-juelich.de/jsc/docs/printable/ib/ib-10/ib-201003.pdf) YAMPOLSKIY M., W. HOMMEL, P. MARCU, M. K. HAMM, An information model for the provisioning of network connections enabling customer–specific End–to–End QoS guarantees. In: Proceedings of the IEEE SCC 2010 International Conference on Services Computing, IEEE Computer Society, Miami, USA, Juli, 2010 YAMPOLSKIY M., W. HOMMEL, B. LICHTINGER, W. FRITZ, M. K. HAMM, Multi–Domain End– to–End (E2E) Routing with multiple QoS Parameters — Considering Real World User Requirements and Service Provider Constraints. In: Proceedings of 2010 Second International Conference on Evolving Internet, 9–18, IARIA, Valencia, Spanien, September, 2010 YAMPOLSKIY M., W. HOMMEL, D. SCHMITZ, M. K. HAMM, Generic Function Schema for Operations on Multiple Network QoS Parameters. In: Proceedings of The Second International Conferences on Advanced Service Computing SERVICE COMPUTATION 2010, IARIA, Lisabon, Portugal, November, 2010 WAGNER S., M. STEINMETZ, A. BODE, M. M. MÜLLER, High Performance Computing in Scienöce and Engineering, Garching/Munich 2009, 780 pp. Springer Berlin, Heidelberg, 2010 WEINBERG V., M. BREHM, I. CHRISTADLER, OMI4papps: Optimisation, Modelling and Implementation for Highly Parallel Applications. In: High Performance Computing in Science and Engineering, Garching/Munich 2009, 51-62, Springer Berlin Heidelberg, 2010 Jahresbericht 2010 des Leibniz-Rechenzentrums 181 6 Regelwerk des LRZ Auf den in den früheren Jahren üblichen Abdruck der Dokumente wird verzichtet. Stattdessen finden Sie hier die Sammlung der URLs für die Webseiten des LRZ, auf denen diese Dokumente zu finden sind. Dies dient u. a. der höheren Aktualität, da auf den Webseiten des LRZ immer die aktuelle Fassung steht. http://www.lrz-muenchen.de/wir/regelwerk/ 6.1 Satzung der Kommission für Informatik http://www.lrz-muenchen.de/wir/regelwerk/satzung/ 6.2 Mitglieder der Kommission für Informatik http://www.lrz-muenchen.de/wir/komm-mitgl/ 6.3 Benutzungsrichtlinien für Informationsverarbeitungssysteme http://www.lrz-muenchen.de/wir/regelwerk/benutzungsrichtlinien/ 6.4 Betriebsregeln des Leibniz-Rechenzentrums http://www.lrz-muenchen.de/wir/regelwerk/betriebsregeln/ 6.5 Richtlinien zum Betrieb des Münchner Wissenschaftsnetzes (MWN) http://www.lrz-muenchen.de/wir/regelwerk/netzbenutzungsrichtlinien/ 6.6 Richtlinien zur Nutzung des Archiv- und Backupsystems http://www.lrz-muenchen.de/services/datenhaltung/adsm/Richtlinien/ 6.7 Gebühren des Leibniz-Rechenzentrums http://www.lrz-muenchen.de/wir/regelwerk/gebuehren/ 6.8 Zuordnung von Einrichtungen zu LRZ-Betreuern http://www.lrz-muenchen.de/wir/betreuer/ 6.9 Betriebs- und Organisationskonzept für den Höchstleistungsrechner in Bayern (HLRB) http://www.lrz-muenchen.de/services/compute/hlrb/rules/organisationskonzept/ 6.10 Nutzungs- und Betriebsordnung für den Höchstleistungsrechner in Bayern (HLRB) http://www.lrz-muenchen.de/services/compute/hlrb/rules/betriebsordnung/ 6.11 Mitglieder des Lenkungsausschusses des Höchstleistungsrechners in Bayern (HLRB) http://www.lrz-muenchen.de/services/compute/hlrb/steering/ 182 Regelwerk des LRZ Jahresbericht 2010 des Leibniz-Rechenzentrums 183 7 Technische Ausstattung 7.1 Speicher BRUTTOKAPAZITÄTEN ONLINESPEICHER (NAS+SAN) Typ Modell Anwendung NAS 2x NetApp FAS 3050 E-Mail LRZ, interne Server, ArbeitsplatzFiledienste, Speicherhosting LMU, WWW NAS 1 x NetApp FAS 3050 Linux compute cluster repository NAS 2 x NetApp FAS 3170 Speicher für LZA-Projekte der BSB 586 TB NAS 1 x NetApp FAS 270c Staging / Testsystem 0,4 TB NAS 1 x NetApp R200 Replikation (asynchrones Spiegeln) 36 TB NAS 2 x NetApp FAS 6070 Speicher für die Wissenschaft (SFW) 117 TB NAS 1 x NetApp FAS 6070 Replikation für den SFW und VMWare 305 TB NAS 2 x NetApp FAS 3170 Metrocluster für VMWare 168 TB NAS 8 x NetApp FAS 3050 Projektspeicherplatz HLRB II Replikation Projektspeicherplatz HLRB II NAS 6 x NetApp FAS 3170 Linux-Computecluster NAS 2 x SUN 7310 Speicher für Datenbanken und VMWare 22 TB NAS 1 x SUN 7210 Replikation für SUN7310 23 TB NAS 2 x NetApp FAS 3170 Metrocluster für Hochschulstart.de 50 TB NAS Gesamt NAS SAN 2 x SUN Flex Line 380 Cache für Archiv- und Backupsystem 49 TB SAN 2 x SUN 6540 Cache für Archiv- und Backupsystem 61 TB SAN 1 x STK D280 Datenbanken, AFS 14 TB SAN 1 x IBM DS3500 Cache für Archiv- und Backupsystem 58 TB SAN 3 x SUN 6780 Cache für Archiv- und Backupsystem 454 TB SAN SGI Paralleles Filesystem des HLRB II 600 TB SAN 6x SGI IS4500 Cache für Archiv- und Backupsystem 170 TB SAN Gesamt SAN 1.406 TB Gesamt NAS+SAN 3.490 TB Kapazität 46 TB 9 TB 97 TB 49 TB 576 TB 2.084 TB Technische Ausstattung 184 Die Tabelle gibt differenziert nach Speicherarchitektur einen Überblick über die Bruttokapazität der Plattenspeichersysteme des LRZ Ende 2010 und deren primäre Verwendung. Die tatsächliche Nutzspeicherkapazität ist um ein Viertel bis ein Drittel geringer, je nachdem wie redundant das System konfiguriert ist (RAID, Checksummen, Hotspare). Auf die NAS-Speicher wird im LAN/WAN über die Protokolle CIFS, NFS und iSCSI zugegriffen. Die SAN-Plattensysteme sind mit den Rechnern und Bandlaufwerken über die Speichernetz-Infrastruktur verbunden. Unter Nearlinesystemen versteht man Speicher, die nicht in direktem Zugriff sind. Der Datenträger (in der Regel eine Kassette) muss erst in ein Laufwerk geladen werden. Die nachfolgende Tabelle gibt die Mindestkapazitäten differenziert nach Typ des Datenträgers an. Durch die Hardwarekomprimierung der Bandlaufwerke wird in der Praxis eine deutlich höhere Speicherbelegung erreicht, als in der Tabelle angegeben. KAPAZITÄTEN DER NEARLINE-SPEICHER 7.2 Bandbibliothek Bandlaufwerke Kassetten IBM TS3500 Tape Library 10 x IBM LTO 4 8 x IBM LTO 5 5.000 7.500 TB Library SUN SL8500 16 x IBM LTO 5 16 x IBM LTO 5 6.500 9.750 TB Library SUN SL8500 26 x SUN T10K 9.300 9.300 TB Gesamt 76 20.800 26.550 TB Rechner und Server 7.2.1 Höchstleistungsrechner SGI Altix 4700 Komponenten (Anzahl und Typ) Gesamter Hauptspeicher (in GB) Systemdaten Anzahl der Typ der KomKompo- ponenten nenten Anzahl der Prozessoren der Komponente Hauptspeicher Aufgabe der Komponente Kapazität Jahresbericht 2010 des Leibniz-Rechenzentrums Komponenten (Anzahl und Typ) Gesamter Hauptspeicher (in GB) 19 Parti- 38912 tionen 185 Systemdaten Hauptspeicher Aufgabe der Komponente Anzahl Typ der Komder Kompo- ponenten nenten Anzahl der Prozessoren der Komponente 19 Je Partition: 19 x 2 TB 512 Montecito Prozessorkerne 6 SharedMemoryPartitionen mit Dual-SocketBlades 13 SharedMemoryPartitionen mit Single-SocketBlades Alle Partitionen sind über das NumaLink4Verbindungsnetzwerk eng gekoppelt. Höchstleistungsrechner für Benutzer aus den Hochschulen in Deutschland; für die Nutzungsberechtigung ist eine spezielle Begutachtung durch den wissenschaftlichen Lenkungsausschuss notwendig. Typ: Parallel-Rechner 7.2.2 Hochleistungs-Linux-Systeme Am LRZ selbst konfigurierter Linux-Cluster, der aus 838 Komponenten mit insgesamt 14.165 GB Hauptspeicher besteht, die mit Gbit, Myrinet oder 10 Gbit Ethernet vernetzt sind. Systemdaten Anzahl Anzahl der Hauptder Typ der Kom- Prozessoren speicher Aufgabe Kompo- ponenten der Kompo- der Komnenten ponente nente 837 Linux-Cluster zur Bearbeitung üblicher, auf Linux verfügbarer Anwendungsprogramme und für Programme, die mittels MPI parallelisierbar sind. Der Cluster besteht aus den im folgenden aufgezählten Komponenten 1 SUN X4100 2 Opteron, 2600 MHz 4 GB Komponente des Linux-Clusters: SGE 6.2u2 Master-Server 1 SUN X4100 4 Opteron, 2600 MHz 8 GB Komponente des Linux-Clusters: Zentraler nagios-Überwachungsserver 18 diverse 2 x 64 GB Komponente des Linux-Clusters: 8 x 2 GB Log-, Monitoring, Installations- u.a. Ser1 x 4 GB ver 7 x 8 GB 4-8 Technische Ausstattung 186 Systemdaten Anzahl Anzahl der HauptTyp der Kom- Prozessoren speicher Aufgabe der Kompo- ponenten der Kompo- der Komnenten ponente nente 1 x 5 GB 4 x 2 GB 1 x 8 GB 9 x 6 GB Test-cluster MEGWARE 4 EM64T, 3600 MHz 2 GB Komponente des Linux-Clusters: x86_64-Interaktivrechner 2 MEGWARE 8 Opteron, 2600 MHz 32 GB Komponente des Linux-Clusters: x86_64-Interaktivrechner 2 INTEL 8 Itanium2 (Montecito), 1600 MHz 16 GB Komponente des IA64-Interaktivrechner 9 MEGWARE 2 Opteron, 2400 MHz 1 x 8 GB 8 x 4 GB Attended Cluster-Housing-Knoten des Lehrstuhls für Bauinformatik der TUMünchen 8 MEGWARE 8 Xeon E5462, 2800 MHz 16 GB Attended Cluster-Housing-Knoten des Lehrstuhls für Geodäsie der TUMünchen 15 SUN 4600 16 Opteron, 2800 MHz 64 GB Attended Cluster-Housing-Knoten des Lehrstuhls für Mathematik der TUMünchen 8 SGI Altix XE 4 240 Xeon, 2333 MHz 16 GB Attended Cluster-Housing-Knoten des Münchner Astro-GRID-Projektes 35 MEGWARE 4 Xeon X3230, 2667 MHz 8 GB Attended Cluster-Housing-Knoten der Bayerischen Staatsbibliothek 37 SUN Opteron, MHz 4 8 GB Komponente des Linux-Clusters: LCG Tier-2 Rechen-Knoten 124 MEGWARE 4 Xeon X3230, 2667 MHz 8 GB Komponente des Linux-Clusters: LCG Tier-2 Rechen-Knoten 68 MEGWARE 8 Xeon L5420, 2500 MHz 16 GB Komponente des Linux-Clusters: LCG Tier-2 Rechen-Knoten 15 MEGWARE 4 Xeon 5060, 3200 MHz 4 GB Komponente des Linux-Clusters: LCG Tier-2 dCache-Knoten 15 diverse 1 2 2600 Linux-Clusters: Jahresbericht 2010 des Leibniz-Rechenzentrums 187 Systemdaten Anzahl Anzahl der HauptTyp der Kom- Prozessoren speicher Aufgabe der Kompo- ponenten der Kompo- der Komnenten ponente nente 13 MEGWARE 4 Xeon 5148, 2333 MHz 4 GB Komponente des Linux-Clusters: LCG Tier-2 dCache-Knoten 10 MEGWARE 4 Xeon L5240, 3000 MHz 8 GB Komponente des Linux-Clusters: LCG Tier-2 dCache-Knoten 10 FMS Opteron, MHz 2 GB Komponente des Linux-Clusters: LCG Tier-2 dCache-Knoten 2 MEGWARE 16 Quad-Core Opteron, 2400 MHz 132 GB Attended Cluster-Housing-Knoten des LMU Exzellenz-Cluster 20 MEGWARE 8 Xeon L5420, 2500 GHz 32 GB Attended Cluster-Housing-Knoten des LMU Exzellenz-Cluster 112 MEGWARE 8 Xeon L 5420, 2500 GHz 16 GB Attended Cluster-Housing-Knoten des LMU Exzellenz-Cluster 1 MEGWARE 4 Xeon E5504, 2000GHz 12 Attended Cluster-Housing-Knoten der LMU, LS Prof. Ruhl 12 MEGWARE 6 Xeon X5500, 2660GHz 48 Attended Cluster-Housing-Knoten der LMU, LS Prof. Ruhl 6 NVIDIA Tesla 960 GPUs S1070-1/2MX16 16 Attended Cluster-Housing-Knoten der LMU, LS Prof. Ruhl 20 SUN Opteron, 4 2600 MHz 8 GB Komponente des Linux-Clusters: Serielle x86_64-Cluster Knoten 36 MEGWARE 8 Opteron, 2600 MHz 32 GB Komponente des Linux-Clusters: x86_64-Cluster Knoten für parallele MPI- und 8-fach Shared Memory Jobs 234 MEGWARE Opteron, 2600 MHz 8 GB Komponente des Linux-Clusters: x86_64-Cluster Knoten für serielle und parallele 4-fach Shared Memory Jobs 1 SGI Altix 4700 256 Montecito, 1600 MHz 1024 GB IA64-SMP-Rechner: • 2 Prozessorkerne dediziert für OS • 14 Prozessorkerne dediziert für interaktives Arbeiten • 240 Prozessorkerne dediziert für par. Jobs 2200 2 4 Technische Ausstattung 188 Systemdaten Anzahl Anzahl der HauptTyp der Kom- Prozessoren speicher Aufgabe der Kompo- ponenten der Kompo- der Komnenten ponente nente 1 SGI Altix 512 ICE8200 Xeon E5540, 2533 GHz 1536 GB X86_64-MPP-Rechner 1 SGI uv1000 256 Xeon X7550, 2000 GHz 528 GB X86_64-SMP-Rechner 7.2.3 Grid-Rechner Anzahl Hersteller Typ Anzahl Prozessor kerne Hauptspeicher Aufgabe Grid Managementserver (Unicore, Monitoring und Webserver) 3 Sun X4100 und 2-4 X2200 M2 2-8GB 2 Diverse Pentium III, 2-4 AMD Opteron 0,25-16GB Grid Managementserver (Monitoring) und User-Interface 3 Sun X4150 X4100 4-16GB und 2-8 LCG Service Node 7.2.4 Hochleistungs-Graphik-System Systemdaten (Bei Systemen, die aus mehreren Komponenten bestehen, stehen die Daten der einzelnen Komponenten in den Zeilen darunter) System Hersteller und System-Typ GrafikHochleistungsCluster Mit 10 Gbit-E Am LRZ vernetzte AMD selbst konfiguriert Opteron Systeme 5 GrafikHochleistungsCluster Mit 10 Gbit-E Am LRZ vernetzte Intel selbst konfiguriert Xeon Systeme 3 Struktur Aufgabe Anzahl der Prozessoren der Komponente Hauptspeicher der Komponente FSC Opteron 2400 MHZ 2 8 GB Immersive 3D-Projektionstechnik (im Visualisierungs-Labor) als RechenCluster für eine Holobench SGI VSS40 Intel Xeon 5160 3 GHz Nvidia Quadro FX5600 mit Gsync 2 32 GB Immersive 3D-Projektionstechnik (im Visualisierungs-Labor) als RechenCluster für eine Holobench Anzahl der Kompo- Typ der Komponenten nenten Jahresbericht 2010 des Leibniz-Rechenzentrums System Hersteller und System-Typ 189 Systemdaten (Bei Systemen, die aus mehreren Komponenten bestehen, stehen die Daten der einzelnen Komponenten in den Zeilen darunter) Struktur Anzahl der Kompo- Typ der Komponenten nenten Anzahl der Prozessoren der Komponente Hauptspeicher der Komponente Aufgabe SUN Fire Remote Visualisie- X4600 rungssysteme 1 Mit 10 Gbit-E vernetztes AMD Opteron System SUN Fire X4600 mit 4 16 Nvidia QuadroplexEinheiten mit insgesamt 4 Quadro FX5500 Grafikkarten 128 GB Remote Visualisierung von umfangreichen Datensätzen SUN Fire X4600 4 Mit 10 GbitE vernetztes AMD Opteron System 8 AMD Quad-Core Opteron 16 128 GB Nvidia Quadro FX5800 Grafikkarte 240 GPUs 4 GB Remote Visualisierung von umfangreichen Datensätzen, speziell im Rahmen von D-GRID Intel Xeon System Intel Xeon Quadcore 8 62 GB GPGPU System FluiDyna TWS 2 Nvidia Tesla Grafikkarte 240 GPUs GPGPU Testsystem 4 GB 7.2.5 Server-, Benutzer- und Mitarbeiter-Arbeitsplatzrechner Anzahl Hersteller Typ Anz. Proz. Hauptspeicher Aufgabe ca. 350 PCs und andere Desktop-Workstations als Arbeitsplätze ca. 18 Dell Dual QuadCore 2,8 GHz 2 ca. 180 Dell Intel Core i5 3,2 GHz 1 8 GB Benutzerarbeitsplätze LRZ 1-4 GB Mitarbeiter-Arbeitsplätze, incl. Operateure, Hotline, Beratung, stud. Hilfskräfte, Windows XP, VISTA oder Linux Technische Ausstattung 190 Anzahl Hersteller Typ Anz. Proz. Hauptspeicher Aufgabe ca. 90 Dell, FujitsuSiemens Intel Core i5 M 2.66 Ghz 1 256MB - 4 Laptops für Präsentationen, Notebooks für GB Mitarbeiter ca. 25 Dell, Apple Verschiedene 1-4 0,5-4 GB Benutzerarbeitsplätze für spezielle Geräte (Multimedia ACAD-Arbeitsplätze, Scanner, Multimedia, Videoschnittplatz) 30 Dell Dual Core 3,2 GHz 1 4 Sun SPARC Verschiedene 1 0,5-1GB Compute-Server (2 davon für allg. Nutzer, 2 davon LRZ-intern) 2-32 4-92 GB Zentrales Verbundsystem, Lokalsysteme (Datenbanken und OPACs) 4 GB Arbeitsplätze in Kursräumen BVB- Server und Storage 21 Sun SPARC Verschiedene 14 Sun Verschiedene 1-8 46 FSC Verschiedene 1-8 SUN Storage FC und SCSI Anzahl Hersteller Typ 8-32 GB Firewall, Suchmaschinen-Cluster 1-8 GB Suchmaschinencluster, OPACS, weitere Webdienste, Allegro Datenbanken, Windows und Citrix Server, Mailserver, Netzüberwachung. 16 TB Storage für Datenbanken Anz. Proz. Hauptspeicher Aufgabe 83 Linux-Server für AFS, Backup- und Archivierungsdienste 14 Advanced Unibyte Xeon 2,80 GHz 23 IBM Xeon bis 3,00 GHz 2 SGI Xeon 2,66 GHz 8 10 VMware Xeon 2,53 GHz 1-8 4 Dell Pentium III 1,0 GHz 2 0,25-2 GB AFS 13 Sun AMD Opteron 2,59 GHz 4 bis 16 GB Backup, Archivierung 5 IBM AMD Opteron bis 2,59 GHz 2 6 GB Backup, Archivierung 12 Sun Xeon 2,83 GHz 16 bis 74 GB Backup, Archivierung Anzahl Hersteller Typ 1-2 2-64 Anz. Proz. 2-4 GB AFS 2-132 GB Backup, Archivierung 8 GB NAS-Backup, Test 0,5-4 GB Webservice, Software-Management Hauptspeicher 35 Linux-Server für Maildienste 18 Advanced Unibyte Xeon bis 3,60 GHz 2-4 2-8 GB - 17 VMware Xeon 2,53 GHz 1-2 1-4 GB - Aufgabe Jahresbericht 2010 des Leibniz-Rechenzentrums Anzahl Hersteller Typ 191 Anz. Proz. Hauptspeicher Aufgabe 51 Linux-Server für Webdienste 1 Advanced Unibyte Xeon 2,80 GHz 4 21 VMware Xeon 2,53 GHz 1-2 0,5-8 GB Moodle, Proxy, Apache, Zope 29 Sun AMD Opteron bis 2,59 GHz 1-4 8-16 GB Apache, Zope Anzahl Hersteller Typ Anz. Proz. 2 GB Zope Hauptspeicher Aufgabe 18 Linux-Server für Datenbanken 14 VMware Xeon 2,53 GHz 4 Sun AMD Opteron 2,59 GHz Anzahl Hersteller Typ 1-2 0,5-16 GB SQL 4 16 GB SQL Anz. Proz. Hauptspeicher Aufgabe 62 Linux-Server für e-Directory-Dienste 53 VMware Xeon 2,53 GHz 1-2 1-6 GB SIM 9 Sun AMD Opteron 2,59 GHz 1-2 2-8 GB SIM Anzahl Hersteller Typ Anz. Proz. Hauptspeicher Aufgabe 33 Linux-Server für Konsolzugänge und Leitwarten-PCs 15 Avocent - 1 1 VMware Xeon 2,53 GHz 2 8 Dell Pentium III bis 1,4 GHz 2 8 Dell Pentium 4 3,20 GHz 1 Dell Core2 Duo 3,00 GHz Anzahl Hersteller Typ - Serielle Konsolen 1 GB Konsole für externe Benutzer 0,25-2 GB Leitwarte, LOM-Gateway 1-2 1 GB Leitwarte 4 4 GB Leitwarte Anz. Proz. Hauptspeicher Aufgabe 18 Linux-Server für Grafik- und Multimedia-Dienste 2 Advanced Unibyte Xeon 2,80 GHz 2 2 GB Printing 3 SGI Xeon 3,0 GHz 4 3 GB Grafik-Cluster 5 FMS AMD Opteron 2,40 GHz 2 3-7 GB Grafik-Cluster 2 Dell Xeon bis 3,0 GHz 2-4 4 VMware Xeon 2,53 GHz 1-2 2 Sun AMD Opteron 2,59 GHz 2 2-8 GB Grafik-Test 0,5-2 GB Printing, Streaming 2 GB Printing Technische Ausstattung 192 Anzahl Hersteller Typ Anz. Proz. Hauptspeicher Aufgabe 25 Linux-Server für Hosting und Housing externer Kunden 3 Advanced Unibyte Xeon bis 3,20 GHz 4 1 Sun Xeon 3,0 GHz 4 17 VMware Xeon 2,53 GHz 1 Dell Pentium III bis 1,4 GHz 3 Sun AMD Opteron bis 2,59 GHz Anzahl Hersteller Typ 1-8 4-16 GB e-Learning, Webservice 8 GB e-Learning 0,5-32 GB Hosting 2 2-4 Anz. Proz. - KDE 2-8 GB VMware-Server, Bibliotheksverwaltung Hauptspeicher Aufgabe 66 Linux-Server für verschiedene Dienste 6 Advanced Unibyte Xeon 2,80 GHz 2-4 48 VMware Xeon 2,53 GHz 1-4 1 Dell Pentium III 1,26 GHz 9 Sun AMD Opteron 2,59 GHz 2 Dell Xeon 2,67 GHz 2 1-2 24 2-4 GB Installation, Monitoring 0,5-4 GB Lizenzverwaltung, Monitoring, Tests 1 GB Nagios 2-4 GB VoIP, Up.Time, News, Splunk 24 GB VoIP Jahresbericht 2010 des Leibniz-Rechenzentrums 7.3 193 Netzkomponenten 7.3.1 Router Aktive Ports 10GE Aktive Ports 1GE Aktive Ports FE Aktive Ports Ethernet 48 236 8 0 LRZ-Router 71 56 1 0 Anzahl Hersteller/Typ Einsatz 8 Cisco 6509 Catalyst BackboneRouter 4 Cisco 6509 Catalyst 1 Cisco 7206VXR Anbindung Triesdorf 0 2 0 0 1 Cisco 2821 Anbindung Straubing 0 0 2 0 18 Cisco 1811/1812 Standortanbindung 0 0 42 0 7 Cisco 1721 Standortanbindung 0 0 0 14 6 Cisco 1811/1812 Site2Site VPN 0 0 13 0 1 Cisco 801 ISDNBackup 0 0 0 2 2 F5 BigIP 8900 Server Load 4 Balancer 0 0 0 3 F5 BigIP 3400 Server Load 0 Balancer 11 0 0 51 Router gesamt 305 66 16 123 7.3.2 Switches Anzahl Hersteller/Typ 2 HP E8212zl 23 HP E5412zl 62 HP E5406zl 3 HP5308xl 175 HP E4208vl 44 HP E4204vl verfügbare TP-Ports verfügbare ports Glasfaser- 10/100/1000 10GE 100/1000 10GE 5.217 32 2.177 157 259 - 6 - 23.381 - 627 3 Technische Ausstattung 194 verfügbare TP-Ports verfügbare ports 21.410 - 3.232 - 24 - - - 240 - - 140 686 - 10 5 1.704 73 - 40 1.188 - 12 - HP3400cl-48G 618 - 6 8 4 HP 6410cl-6XG - 16 - 8 51 HP 2824 25 HP 2848 2.415 - 9 - 10 HP E2610-48 51 HP E2610-24 117 HP E2610-24pwr 5.233 - 60 - 3 HP E2610-48pwr 8 HP E2610-24/12pwr 11 HP E2615-8-PoE 51 HP E2650 60 HP E2626 2 HP E2626-pwr 4 HP E2600-8-PoE 2 HP6108 7 Anzahl Hersteller/Typ 177 HP 4108gl 111 HP 4104gl 1 HP 4000 5 HP E6600-24XG 5 HP E6600-48G-4XG 7 HP E2910al-24G 11 HP E2910al-48G 7 HP2900-24G 32 HP2900-48G 22 HP E2810-24G 14 HP E2810-48G 13 109 Glasfaser- 1 4.140 - 76 - HP E2510 170 - 8 - 5 HP 2524 125 - 1 - 1 Cisco Nexus7000 - - - 256 1.126 Switches gesamt 66.919 121 6.225 617 7.3.3 WLAN-Komponenten Anzahl Hersteller/Typ Verwendung Standards Radios 1077 HP MSM 310 Access Point 802.11b/g 1 Jahresbericht 2010 des Leibniz-Rechenzentrums 195 Anzahl Hersteller/Typ Verwendung Standards Radios 14 HP MSM 310 Gebäudeanbindung 802.11a/g 1 39 HP MSM 320 Access Point 802.11b/g 2 296 HP MSM 422 Access Point 802.11b/g/n 2 12 HP MSM 422 Gebäudeanbindung 802.11n 1 1 HP MSC3200 Controller 6 HP M111 Wireless Client Bridge 802.11b/g 1 1445 WLAN gesamt 7.3.4 Netz-Server Anzahl Hersteller/Typ Verwendung Betriebssystem 4 Cisco ASA5540 VPN-Server proprietär 1 Cisco 3030E VPN-Server proprietär 2 Cisco AS5350XM Modem/ISDNServer, SIP- proprietär Gateway 1 Cisco ASA5580 Firewall proprietär 2 12 GB 1 Meinberg Lantime NTP-Server Linux 1 32 MB 4 Oxygen X2201 DNS-Server Linux 4 4 GB 1 Sun Fire X2100 M2 DHCP Linux 2 2 GB 2 Oxygen X1101 DHCP Linux 2 1 GB 2 Sun Fire X4100 Radius Linux 4 2 GB 1 Sun Fire X4100 VoIP Linux 2 4 GB 3 Sun Galaxy VoIP Linux 2 4 GB 2 Oxygen X3200 Natomat Linux 4 4 GB 1 Sun Fire X4100 Natomat Linux 4 16 GB 3 Sun Fire X4150 Secomat Linux 8 64 GB 1 Dell PE2550 Accounting Linux 1 2 GB 1 Dell PE2550 IDS Linux 1 512 MB 1 Oxygen X3200 Monitoring Linux 4 4 GB 2 Sun Fire X4150 Netzmanagement Linux 8 8 GB 1 Dell GX150 DSL-Server Linux 1 256 MB 2 Sun Fire X2100 Bibliotheksproxy Linux 2 2 GB 𝟑𝟕 Server gesamt Prozessoren Hauptspeicher 52