Das Kunden-Magazin von Hitachi Data Systems
Transcription
Das Kunden-Magazin von Hitachi Data Systems
Nummer 17 Das Kunden-Magazin von Hitachi Data Systems Harmony Trust Respect Pioneering Spirit Challenges Sincerity Fairness Honesty Integrity Philosophie Seit der Firmengründung im Jahr 1910 handelt Hitachi getreu der unternehmensweiten Philosophie, einen gesellschaftlichen Beitrag durch Technologie zu leisten. In den rund 100 Jahren des Bestehens von Hitachi haben sich die Welt und das gesellschaftliche Leben enorm verändert. Unseren Pioniergeist, der auf Harmonie und Aufrichtigkeit beruht, haben wir jedoch nie verloren. »Wa« Harmonie »Makoto« Aufrichtigkeit Hitachi bewegt sich ständig nach vorn. Das Unternehmen setzt dabei auf offene und ausgiebige Diskussionen. Sobald wir uns auf ein Ziel verständigt haben, gehen wir dieses als geschlossene Einheit an. Der Begriff Harmonie lässt sich auf zweierlei Weise interpretieren; so bezieht er sich zum einen auf die Harmonie innerhalb und zwischen den Unternehmen der Hitachi Group und zum anderen auf das Verhältnis zwischen der Hitachi Group und der Gesellschaft im Allgemeinen. Als Mitglied der Weltgemeinschaft strebt jeder Mitarbeiter bzw. Funktionsträger von Hitachi danach, jederzeit aufrichtig und integer zu handeln. Unsere Handlungen werden nicht von kurzfristigen Gewinnen oder Verlusten beeinflusst, sondern basieren auf ethisch-moralischen Entscheidungen. » K a i t a k u s h a - S e i s h i n « Pioniergeist Um die fundamentalen Herausforderungen der Weltgemeinschaft zu bewältigen, ist Hitachi bestrebt, der Zeit immer einen Schritt voraus zu sein und so die Erwartungen der Gesellschaft und unserer Kunden durch ständige Innovationen zu erfüllen. Editorial Sehr geehrte Leserinnen und Leser, 2010 feiert Hitachi Data Systems das hundertjährige Bestehen des Hitachi Mutterkonzerns. Wir sind sehr stolz, Mitglied dieser großen Hitachi Familie zu sein. Hitachi Ltd. hat in Forschung und Entwicklung Industriegeschichte geschrieben. In 100 Jahren wurden Technologien von Weltrang zur Marktreife gebracht. Doch selbst als Weltkonzern blieb Hitachi immer den Werten seiner frühen Anfänge verpflichtet. Ein hohes ethisches Wertesystem zeichnet das Unternehmen während all dieser langen Zeit aus. Es prägt nicht allein den hohen Qualitätsanspruch an die eigenen Produkte, sondern auch eine Unternehmenskultur, die einen respektvollen Umgang pflegt und die guten Beziehungen zu Mitarbeitern, Partnern und Kunden achtet. Horst Heftberger Geschäftsführer Hitachi Data Systems Österreich Unser Kundenmagazin berichtet Ihnen in dieser Ausgabe daher nicht nur von den Pionierzeiten Hitachis und ihren vielen Entwicklungserfolgen. Es erzählt auch die Geschichte eines japanischen Weltkonzerns, der mit technischem Sachverstand, hohem wissenschaftlichen Engagement und großer sozialer wie ökologischer Verantwortung agiert, der auch wir uns verpflichtet fühlen. Unsere Lösungen und Services im Storage zielen nicht umsonst auf die besonderen Anliegen unserer Unternehmenskunden. Wir bieten weltweit führende Technologien wie etwa zur Virtualisierung im Storage. Wir entwickeln mit den Solid State Disks den Speicher der kommenden Generation und wir arbeiten an neuen Konzepten wie dem Cloud Computing. Auch davon berichtet Ihnen unser Magazin. Aufgrund ihrer Marktführerschaft übernimmt die Hitachi Data Systems längst auch innerhalb des Hitachi Konzerns weltweite Verantwortung. In der strategischen Ausrichtung Hitachis für die Herausforderungen der Zukunft etwa bildet der Bereich Data – neben Automotive und Logistik – eine der drei tragenden Säulen der operativen, wissenschaftlichen und technologischen Orientierung Hitachis. Gemeinsam mit unseren Kunden und Partnern werden wir uns den vielen vor uns liegenden Zukunftsaufgaben stellen, gemeinsame Wege finden und in diesem Jahr auch 100 Jahre Entwicklungsarbeit von Hitachi gemeinsam feiern. Viel Spaß bei der Lektüre unseres Kundenmagazins wünscht Ihnen Ihr Horst Heftberger Hitachi Data Systems | True Storage Concept | Nummer 17 3 True Storage Concept Nr. 17 Infos auf: www.hitachidatasystems.de Thema Editorial 100 Jahre Hitachi 3 Hu knows Speicher-Prioritäten für 2010 6 Von der Platte geputzt? SSD wird als Speichertechnologie der Zukunft gehandelt 10 Technologie Pioniergeist und Industriegeschichte 100 Jahre Hitachi – Innovationen eines Weltkonzerns mit Ambition Von Wolkenmachern und Cloud-Enablern 14 Von der Bandmechanik zur Virtualisierung Heinz-Peter Dörper und Dr. Georgios Rimikis schwelgen in alten Zeiten Konsolidierung und Virtualisierung gehen Hand in Hand 26 Der Speicher aller Klassen Hitachi Content Platform für agile Clouds 30 22 Impressum Herausgeber: Hitachi Data Systems GmbH Deutschland Redaktion: Jürgen Krebs und Barbara Götz, Hitachi Data Systems GmbH Konzept, Text und Lektorat: redACtionsbureau Heinz Bück und Hitachi Data Systems GmbH Autoren: Heinz Bück; Stefan Karl; Uwe Kemmer; Dr. Georgios Rimikis; Hu Yoshida; Heinz-Peter Dörper, Dirk Walde; Andreas Wagner; Hitachi Data Systems. Die Firmen sind für die Inhalte der jeweiligen Artikel verantwortlich. Grafikdesign: simplicate GmbH, Agentur für Kommunikation, Stuttgart Fotos: Hitachi Data Systems, Kurt Aebi, Atos Origin, Dennree sowie Stockfotos Copyright: Teilweiser oder vollständiger Abdruck unter Angabe der Quelle gestattet. Hitachi Data Systems ist im amerikanischen Amt für Patente und Handelsmarken als Handelsmarke eingetragen. Hitachi NAS 3080, Hitachi NAS 3090, HNAS – powered by BlueArc ®, Hitachi Content Platform, Hitachi Content Archive Platform, Thunder 9500V, Hitachi Universal Storage Platform, Universal Storage Platform V, Universal Storage Platform VM, Hitachi Lightning 9900, Hitachi Lightning 9900 V, Hitachi Storage Replication Adapter, Hitachi Dynamic Provisioning, Hitachi Network Controller, AMS200, AMS2100, AMS2300, AMS2500, WMS100, SMS100, Hitachi TrueCopy, Hitachi Dynamic Link Manager, Hitachi Tiered Storage Manager, Hitachi Adaptable Modular Storage, Hitachi IT Operations Analyzer, Hitachi Storage Resource Manager, Hitachi Data Discovery Suite, Hitachi Storage Services Manager, Hitachi Tuning Manager, Hitachi ShadowImage, USP Performance Monitor, Hitachi Resource Manager, Hitachi Universal Replicator, Hitachi Universal Volume Manager, Hitachi Data Protection Suite, Hitachi Business Continuity Manager, Hitachi High Availability Manager und Hitachi Virtual Partition Manager sind Handelsmarken von Hitachi Data Systems. Andere Handels- und Dienstleistungsmarken, die in dieser Kundenzeitung erwähnt werden, sind Marken anderer Unternehmen. © 2010 ∙ Printed in Germany ∙ KU 7.0 – 04.10 4 Hitachi Data Systems | True Storage Concept | Nummer 17 Events auf: www.my-hds.de/events Technologie Anwenderberichte Wissen statt fühlen Managed Services schaffen optimale und verlässliche Lösungen Trends Krankenhaus-Daten voll im Griff 32 St. Martinus Hospital in Olpe Natürliches speichern 34 Naturkostspezialist Dennree setzt auf Hitachi Data Systems 38 Hochverfügbarkeit für Daten Atos Origin vertraut auf Services von Hitachi Data Systems 36 [email protected] www.hds.de [email protected] www.hds.com/ch [email protected] www.hds.com/at Frankfurt Hitachi Data Systems GmbH Im Steingrund 10 63303 Dreieich-Buchschlag T +49 (0)6103 804-0 F +49 (0)6103 804-1111 Dübendorf Hitachi Data Systems AG Kriesbachstrasse 3 8600 Dübendorf T +41 (0)44 8026464 F +41 (0)44 8203940 Wien Hitachi Data Systems GmbH Office Campus Gasometer Guglgasse 17–19 Eingang Erdbergstraße 234 1110 Wien T +43 (1)245 82-0 F +43 (1)245 82-250 Hitachi Data Systems | True Storage Concept | Nummer 17 5 Speicher Management Hu knows: Speicher-Prioritäten für 2010 HU YosHida Chief Technology Officer Hitachi Data Systems Während viele Branchen auf den angekündigten globalen Wirtschaftsaufschwung für das Jahr 2010 warten, steigt die Wachstumsrate ihres Speicherbedarfs weiterhin an. Die Notwendigkeit kosteneffizienter Storage-Infrastrukturen wächst. Zwischen unliebsamen Trends und knappen Budgets stehen Entscheidungen an. IT-Abteilungen sehen sich tagtäglich mit der Aufgabe konfrontiert, die exponentielle Zunahme von Daten in ihrem Unternehmen zu verwalten. Den Verantwortlichen steht derzeit oft nur ein sehr begrenztes finanzielles Budget zur Verfügung. Das erschwert die Modernisierung und Anschaffung jener Technologien, die gerade helfen würden, die Kosten zu senken. Doch anstatt wie bisher nur immer noch mehr Speichersysteme hinzuzufügen, sollten die Budgets genutzt werden, um die vorhandenen Investitionen voll auszuschöpfen. Die bestehende Infrastruktur muss kosteneffektiver und zukunftsorientierter eingesetzt werden. Im Folgenden sind für IT-Experten und Entscheider einige der wichtigsten Punkte aufgeführt, die bei Investitionen im laufenden Jahr beachtet werden sollten. Virtualisierung des Datenzentrums Virtualisierung ist ein entscheidender Vorreiter einer zukünftigen dynamischen Infrastruktur. Die Virtualisierung des Datenzentrums bietet viele Vorteile, aber auch etliche Herausforderungen, die bewältigt werden müssen. Insgesamt gesehen wird der Energieverbrauch gesenkt. Bei einzelnen Komponenten variiert der Verbrauch jedoch. Es existieren zwar weniger Server, jeder einzelne Server wird aber immer wichtiger und er stellt höhere Anforderungen an die Speicher- These: Storage Reclamation Service hebt verborgene Schätze Das Ergebnis eines Health-Checks zur Speicherauslastung kann ernüchternd sein. Während viele glauben, ihre vorhandenen Speicherressourcen mit 80 Prozent auszulasten, beträgt die effektive Nutzung de facto kaum 40 Prozent. Ein Storage Reclamation Service macht ungenutzte Speicherkapazitäten wieder verfügbar und hebt verborgene Schätze. 6 ressourcen als je zuvor. Zwar können Anwendungen nach Belieben dynamisch umverteilt werden, doch auch das muss von den Speicherressourcen unterstützt werden. Und auch wenn der Gesamtumfang des Datenzentrums kleiner wird, kann die Effizienz dennoch suboptimal ausfallen. Vernünftige Skepsis ist durchaus geboten. Doch es gibt geeignete und kostengünstige Möglichkeiten, um diese Herausforderungen zu bewältigen und die Effizienz der Datenzentren dabei zu verbessern. Speicher-Belastung beachten Da mehr Arbeitslasten auf Multicore-Prozessoren virtualisiert werden und Netzwerk-Bandbreiten mittlerweile auf 8 Gbps bei Fibre Channel (FC) beziehungsweise bzw. 10 Gbps beim Ethernet angestiegen sind, erhöht sich auch die Belastung der zugrunde liegenden Speicher-Infrastruktur. Sowohl hinsichtlich der Kapazität als auch angesichts der Performance. Es ist daher wichtig, dass die Speicher-Infrastruktur die virtualisierte Umgebung unterstützt und dass sie sowohl horizontal als auch vertikal skaliert werden kann. Ein vertikal skalierbares Speichersystem, das mehr Rechenleistung, Anschlüsse, Cache und Festplattenplätze für eine weitreichende Verteilung der Performance zur Verfügung stellt, entspricht den Anforderungen der Lastspitzen von großen Servervirtualisierungen. Die horizontale Skalierbarkeit indessen wird benötigt, um die Kosten zu senken und Betriebsstörungen von neu hinzugefügter Kapazität oder bei Upgrades einer neu installierten Technologie zu vermeiden. Für 2010 erwarten wir eine steigende Nachfrage nach solchen Speichersystemen, weil nur sie den wachsenden Ansprüchen an schnellere Netzwerke, Prozessoren und virtuelle Betriebssysteme wie VMware und Hyper V wirklich gerecht werden. Hitachi Data Systems | True Storage Concept | Nummer 17 Cloud Storage Cloud Computing wird oft als Metapher für das Internet verwendet. Cloud Storage dient dazu, die Komplexität der IT-Infrastruktur zu verbergen, und ermöglicht den Zugriff auf Speicherkapazitäten nach dem Motto: „pay as you grow”. Cloud wird 2010 verstärkt wahrgenommen werden, wobei private und öffentliche Cloud Service Provider den Fokus auf Elastizität, Betriebssicherheit, Mandantenfähigkeit und Sicherheit richten werden. Der Schlüssel zum Erfolg, wie ihn zum Beispiel die früheren dot.com Service Provider erlebten, liegt für Cloud Provider darin, ihre Ressourcen wirksam einsetzen zu können. Eine wesentlich effizientere Verwaltung der Speichergröße im Vergleich zu ihren Endanwendern ist vonnöten. Speichervirtualisierung und die Möglichkeit zum dynamischen vertikalen und horizontalen Skalieren sind dabei die wesentlichen Erfolgsfaktoren. Zu erwarten ist daher ein zunehmender Einsatz von Cloud Storage, wenn zentrale Forderungen wie etwa Sicherheit, Mandantenfähigkeit und Zahlungsmodelle verbessert werden sollen. Automatisierte Tiered Storage Da die Unterschiede bei Preis und Performance immer weiter auseinandergehen, wird der Einsatz von Tiered Storage mit der Einführung von Flash-Laufwerken und TB SATA Disks immer attraktiver. Die Verwendung von automatisiertem Tiered Storage Management verhindert den enormen Overhead durch das Bewegen und Kopieren von Daten sowie die Kosten von teuren Disk-Laufwerken, da nur geringe Speicherkosten für inaktive Daten und Kopien anfallen und der Gebrauch vom High-Performance Tier 1 Storage optimiert wird. Viele IT-Abteilungen haben sich für die Automatisierung des Tiered Storage Managements entschieden, welches auf Policies basiert, um so eine höhere Wirtschaftlichkeit und Effizienz Hitachi Data Systems | True Storage Concept | Nummer 17 zu erreichen, ohne festgesetzte Service-Levels im Betrieb zu vernachlässigen. Erst wenn das automatisierte Tiered Storage Management sowohl mit Speichervirtualisierung als auch mit dynamischem Thin Provisioning kombiniert wird, werden größtmögliche Kostensenkungen und deutlich geringere Betriebskosten erreicht werden können. Managed Services Um Datenspeicher zu verwalten, benötigt man erfahrene Vollzeit-Mitarbeiter. Früher war ein Pool aus betriebsinternem Personal verfügbar, um diese vielen Routinearbeiten zu erledigen. Dies ist heutzutage angesichts hoher Personalkosten nicht mehr möglich. In den meisten IT-Abteilungen werden Provisionierung, neue Applikationen oder das SANPerformance Reporting nun mithilfe von Remote Managed Services verwaltet. Da der Anspruch in diesem Bereich weiter wächst, sind neue Angebote zu erwarten, die eine effiziente und kosteneffektive Alternative für die rundum verwalteten, 24 Stunden laufenden Real Time Applikationen und ihrer zugehörigen Datenspeicher darstellen. Die Nutzung solcher Dienste kompensiert zugleich interne Wissenslücken und vermeidet, dass erfahrene Mitarbeiter aus umsatzstarken Projekten herausgenommen werden müssen, um interne administrative Aufgaben zu übernehmen, weil sonstiges Fachwissen fehlt. Zukunftsfähige umweltgemäße IT IT-Abteilungen sind ständig ausgelastet, wenn nicht gar überlastet, besonders durch die zusätzlichen Aufgaben, die ihnen als Folge der Wirtschaftskrise angetragen wurden. Aber Geschäftsleitungen sollten vorsichtig sein, dies als Rechtfertigung dafür zu sehen, dass die Dinge doch auch so recht gut liefen, oder entscheidende Projekte auf die lange Bank zu schieben. Zukunftsfähige IT-Praktiken bieten viel zu große Chancen, um Werte zu sichern und dem Unternehmen Wettbewerbsvorteile zu verschaffen. In 2010 wird eine größere Rationalisierung von Projekten im Bereich Green IT stattfinden, die mehr Unterstützung von Unternehmensprogrammen erhalten. Eine neue Position wird in den IT-Abteilungen entstehen, die Funktion eines um Nachhaltigkeit bemühten IT-Managers, der dafür verantwortlich ist, Green-IT-Programme zu identifizieren, zu realisieren und zu verwalten. Denn Datenzentren werden mehr auf den Energieverbrauch achten müssen, mit einer genaueren Überprüfung des festgelegten Energieverbrauchs. Vom technischen Standpunkt aus betrachtet folgt daraus eine Verlagerung des Augenmerks auf Server, 7 Speicher und die Virtualisierung des Datenzentrums sowie auf Cloud Computing und Cloud Storage. Sicherheit IT-Manager müssen einen Kompromiss zwischen geringeren Sicherheitsrisiken und der Erstellung der bestmöglichen In frastruktur hinsichtlich Datendurchsatz, Verfügbarkeit, Skalierbarkeit, Kosten und Komplexität finden. Jedes Unternehmen muss seine eigenen Pro- und Contra-Entscheidungen treffen, die einerseits auf ihre eigene Situation zugeschnitten sind. So stellt sich zum Beispiel stets aufs Neue die Frage, ob die verwendete Infrastruktur den gesetzlichen und regulativen Anforderungen oder der gebotenen Sorgfaltspflicht entspricht. Andererseits steht die Sicherung geschäftskritischer Daten immer ganz hoch oben an. IT-Manager, die Investitionen in Speichersysteme oder den Einsatz von Fremddienstleistungen für das Jahr 2010 planen, müssen unternehmensbezogen ihre Prioritäten setzen und die Hauptanliegen einfordern, etwa die Vertraulichkeit der Daten, den Datenschutz, das Löschen von Informationen auf temporär belegten Speichermedien oder das datenschutzkonforme, sichere Löschen von Festplatten. These: Rationelle Archivierung schafft Produktivität IDC schätzt, dass Inhaltsdaten mit einer jährlichen Zuwachsrate von 121% den größten Wachstumsanteil bei der Datenhaltung einnehmen. Dies ist leicht nachzuvollziehen. Denn diese Daten werden von Jahr zu Jahr mehr und mehr. Zusätzlich dazu können 60 bis 80% der strukturierten und unstrukturierten Daten in einem Datenzentrum als veraltet gelten. Sie könnten demnach in ein Datenarchiv verschoben werden, allein um die verarbeiteten Daten zu reduzieren, die tagtäglich verwaltet und verwahrt werden müssen. Ethernet Konvergenz (FCOE/DCIB) Die Industrie entwickelt sich immer mehr zu einem dynamischen Infrastrukturnetzwerk. Verstärkt werden darin Server eingesetzt werden, auf denen jeweils mehrere VMs laufen und die hohe Bandbreiten-Verbindungen erfordern, um stabil mit virtuellen Speichern und virtuellen Netzwerken in Verbindung zu kommunizieren. Mit der Zeit bringt dies folgende Vorteile: Geringere Kosten durch den erhöhten Einsatz von 8 Server, Speicher und Netzwerk sowie von zusammengelegten Strukturen werden begleitet durch geringere Verkabelung und Konsolidierung von HBAs und NICs. Arbeitsabläufe verringern sich durch die erhöhte Auslastung der Infrastruktur bei geringerem Energieverbrauch. Die Umsetzung der Verbindung von Server mit Speicher durch FC oder Ethernet wird zunehmen, je geringer der Preis für CNAs und 10 Gbps Infrastrukturen wird. Zu erwarten ist eine Umsetzung auf Speicherseite durch neue Industrie-Standards, die Multipathing und Netzwerk-Auflockerungen ermöglichen. Es existieren ebenso hohe Investitionen in Fibre Chanel Infrastrukturen, die auf 8 Gbps FC verteilt werden können. Da die Verteilung auf 8 Gbps FC mit weniger Betriebsunterbrechungen verbunden ist als die Verteilung auf 10 Gbps FCoE, steht jedoch zu erwarten, dass die Verbreitung von FCoE auf Speicherseite länger brauchen wird. Performance mit Flash oder SSD Auch wenn flash-basierende Laufwerke im Vergleich zu gängigen Festplattenlaufwerken als unerschwinglich gelten, bieten sie doch große Vorteile bei der Performance, vor allem eine sehr geringe Wartezeit und sehr schnelle I/Os. Sie sind zudem auch besonders energieeffizient. Es ist zu erwarten, dass mehr flash-basierende Technologien in die Lösungsportfolios integriert werden, da das Bewusstsein der Anwender sich schärft und der Bedarf wachsen wird. Jedoch sollte vor der Übernahme auf die erhöhte Datensicherheit durch Verschlüsselung bei SSD-Laufwerken geachtet werden, bevor weitere Schritte veranlasst werden. Content Archive Platform Obwohl Inhaltsdaten der am schnellsten wachsende Datentyp sind, ist es aufgrund ihrer statischen Beschaffenheit am Hitachi Data Systems | True Storage Concept | Nummer 17 einfachsten, diese zu verwalten. Wenn sie in einer Content Archive Platform aufgenommen wurden, ist ein Backup nicht nötig, solange man mindestens zwei Kopien besitzt und die Lebensdauer automatisch verwaltet werden kann. Danach können sie indiziert werden und sind somit immer noch im direkten Zugriff, komprimiert, dedupliziert und auf günstigen Disks mit hoher Kapazität gespeichert, während eine Verschlüsselung weiterhin für die Datensicherheit sorgt. Für diesen am schnellsten wachsenden Datentyp muss eine Content Platform in der Lage sein, auf zig Petabytes zu skalieren und mehrere Datenformate zu unterstützen. Daher ist eine Nutzung von Archiv-Plattformen zu empfehlen, die genau diesen Ansprüchen gerecht werden. Dynamisches Provisionieren Das beste Einzeltool zur Senkung der Betriebskosten ist das Dynamic Provisioning. Thin Provisioning à la Hitachi verhindert die Verschwendung von Investitionen durch unnötig belegten oder ungenutzten Speicherplatz. Es reduziert die Kosten, die beim Verschieben und Kopieren von großen Datenträgern entstehen, und stellt bis zu 40 % und mehr Kapazität von existierenden großen Datenträgern bereit. Verringert das Provisioning die Speicherung von Stunden auf Minuten, so erleichtert zugleich das Wide-Striping diese Prozesse spürbar. Die Performance wird erhöht, weil der I/O auf mehrere Festplattenplätze verteilt wird. In 2010 gilt es, die Herausforderungen anzunehmen, aus vorhandenen Ressourcen kosteneffiziente Storage-Infrastrukturen aufzubauen. Ungeachtet der knappen Budgets stehen vielerorts dringend Entscheidungen an und die sollten mit Blick auf die Zukunft Energie und Geld sparen. Die Technologien sind vorhanden. Hitachi Data Systems | True Storage Concept | Nummer 17 9 Thema Von der Platte geputzt? SSD wird als Speichertechnologie der Zukunft gehandelt. Kann und sollte sie HDDs wirklich verdrängen? Im Enterprise Storage jedenfalls sehen die technologische Entwicklung wie auch Marktprognosen sehr differenzierte Einsatzmöglichkeiten für beide. Mit dem ersten Auftreten der Solid State Disks in Notebooks und erst recht der SSD-Laufwerke in Server- und StorageAnwendungen wurde vorlaut das nahe Ende der Festplatte verkündet. Die Vorteile der auf FlashSpeicher basierten SSD liegen auf der Hand: keine beweglichen Teile mehr und daher auch kein Risiko eines mechanischen Ausfalls. Hinzukommen hohe Solid State Disk (SSD) Datentransferraten und extrem kurze Zugriffszeiten. Das klingt verlockend und auf den ersten Blick erscheinen diese Vorteile wie das sichere Todesurteil für die klassischen Aufzeichnungsverfahren auf magnetischen Datenträgern. Doch werden beide Speichertechnologien – HDD und SSD – in den kommenden Jahren gewiss ihre Berechtigung haben und behalten, je nach Art der Anwendung. These: HDD und SSD werden sich ideal ergänzen! Hitachi Data Systems unterstützt mit ihren Speichersystemen USP V/VM und der AMS2000 Familie bereits die SSDs, vor allem um spezielle Performance-Anforderungen zu erfüllen. Nicht umsonst wurde genau deshalb in der AMS2000 eine SAS-Architektur gewählt. Der Trend zu Performance ist aber auch in der Plattenentwicklung zu sehen. 10 Uwe Kemmer Customer Support Engineer Hitachi Global Storage Technologies SSD im Enterprise-Segment Die Besonderheiten des Consumer-Marktes sollen hier außer Acht bleiben. Bei bestimmten Anwendungen hat der FlashSpeicher die Festplatte tatsächlich schon komplett verdrängt, etwa bei den MP3-Playern. Andererseits spielen SSDs beim klassischen PC wohl auch in den nächsten Jahren sehr wahrscheinlich keine gravierende Rolle. Doch uns interessiert hier vielmehr das Enterprise Segment und die Frage, in welcher Anwendung der Einsatz von SSDs wirklich Sinn macht und wann der Festplatteneinsatz die größeren Vorteile bietet. Wir werden sehen, dass die Festplatte im Enterprise-Einsatz auch die nächsten Jahre noch weiterhin in großen Stückzahlen verwendet werden wird. Daher ist es sinnvoll, einen Blick in die Zukunft zu werfen, um zu sehen, welches Interface und welcher Formfaktor sich bei Festplatten durchsetzen wird und um welche Rotationszahlen es sich dabei dreht. Gesamtspeichermarkt im Fluss Wenn man den Gesamtspeichermarkt betrachtet, so ist zu erkennen, dass der klassische Festplattenmarkt stagniert, der Umsatz in den nächsten fünf Jahren jedoch weiterhin auf einem relativ konstanten hohen Niveau bleiben wird. Dies wird natürlich auch von neuen Anwendungen wie externen Festplatten oder dem Festplatteneinsatz bei Windows CE Anwendungen getrieben, wie etwa den digitalen Videorekordern, die einen großen Anteil am Gesamtmarkt haben. Das Segment mit dem größten Umsatzwachstum jedoch stellt die Solid State Disk dar, die bei sinkenden Preisen und steigenden Kapazitäten in immer mehr Anwendungen eingesetzt werden wird. Den genannten Vorteilen der Solid State Disk stehen jedoch auch technologische und preisliche Nachteile gegenüber. Der Preis pro GB ist bei den Enterpise SSDs im Vergleich zur Festplatte aktuell zehnmal teurer. Die Schreibgeschwindigkeit ist nicht bedeutend höher als die der Festplatte, Hitachi Data Systems | True Storage Concept | Nummer 17 wobei die limitierte Anzahl von Schreibzyklen des FlashSpeichers auch noch mit nachlassender Geschwindigkeit bei längerem Einsatz einhergeht. Schreibzyklen der Single- und Multi-Level Cell In den nächsten Jahren wird der Preis pro GB bei SSDSpeicher im Enterprise-Markt jedoch sinken. Denn auch in diesem Segment wird zukünftig vermehrt der kostengünstigere MLC-Speicher eingesetzt. Die Multi Level Cell kann nämlich mehr als ein Bit an Informationen pro Zelle speichern. Dies ist ein Vorteil gegenüber dem hochwertigeren und teureren SLC-Speicher, da die Single Level Cell nur das Speichern eines Bits pro Zelle erlaubt. Doch SLC-Speicher zeichnen sich vor allem durch eine erhöhte Anzahl von Schreibzyklen pro Flash-Zelle aus. Derzeit sind das im Enterprise-Bereich rund 200.000 Zyklen beim SLC-Speicher. Der MLC-Speicher hingegen liegt mit gut 30.000 Zyklen selbst bei einer guten Qualität des Flash-Speichers deutlich darunter. Um den technologischen Herausforderungen bezüglich einer konstanten hohen Geschwindigkeit und einer sehr guten Zuverlässigkeit im Enterprise-Markt gerecht zu werden, kam bisher nur SLC-Speicher zum Einsatz. Nur er lässt die erforderlich hohe Anzahl von Schreibzyklen einer Zelle ohne Risiko eines vorzeitigen Datenverlustes zu. Durch ein immer besseres Management bei der Verteilung der Schreibzugriffe (Wear Leveling) und durch eine ausgereiftere Firmware zur Performance-Optimierung jedoch wird es in naher Zukunft auch möglich sein, MLC-Speicher im Enterprise-Storage zu verwenden. Speicher, Anwendungen und Tiers Aktuell kommen SSD-Speicher nur in Tier-0 Speicheranwendungen zum Einsatz, bei denen höchste I/O-Raten mit der höchsten Zuverlässigkeit verbunden werden. Aufgrund der sinkenden Preise wird sich dieses Segment innerhalb der Anwendungs-Pyramide weiter nach unten in weniger exklusive Regionen verschieben. Vor- und Nachteile der SSD vs. HDD Vorteile SSD • keine bewegten mechanischen Teile • kein mechanischer Verschleiß • geringe Fehlerraten und Ausfallwahrscheinlichkeit • hohe Datentransferraten, vor allem beim Lesen • kurze Zugriffszeiten, hohe I/O-Raten • niedriger Stromverbrauch, weniger Kühlung Vergleich zur Festplatte: • 10 Mal so teuer • Schreibgeschwindigkeit unbedeutend höher • limitierte Anzahl Schreibzyklen des Flash-Speichers • nachlassende Geschwindigkeit bei längerem Einsatz Enterprise-Festplatten mit 10.000 bis 15.000 U/min im Formfaktor von 2,5“ oder 3,5“ bieten auch in naher Zukunft weiterhin hohe Zuverlässigkeit bei gleichzeitig sehr hohen Datenraten. Sie werden sogar langfristig das Tier-1 Speichersegment eher beherrschen. Aktuelle Spitzenkapazitäten von 600 GB beim 3,5“ Formfaktor, welche ab 2010 sogar schon auch in 2,5“ erhältlich sein werden, sind und bleiben bei diesen hohen Kapazitäten preislich weitaus attraktiver als Solid State Drives. Im stark kostengetriebenen Tier-2 Segment, wo der Preis pro GB einer der entscheidenden Faktoren ist, werden Festplatten mit 7200 U/min weiterhin marktbeherrschend bleiben. Festplattenkapazitäten von derzeit 2 TB und sogar 4 TB ab 2011 bieten bei steigender Zuverlässigkeit und verbesserten Servertechnologien unschlagbare Argumente zugunsten der Festplattentechnologie. Hitachi Data Systems | True Storage Concept | Nummer 17 11 Zukunft der Enterprise-Festplatte Während vor 10 bis 15 Jahren eine Verdoppelung der Kapazität innerhalb eines jeden Jahres möglich war und üblich schien, zeigt sich jedoch heute, dass man für einen solch hohen Wachstumsfaktor im Festplattensegment inzwischen 2 bis 3 Jahre benötigt. Neue Aufzeichnungs-Technologien werden es in den nächsten Jahren ermöglichen, die Aufzeichnungsdichte und damit die Kapazitäten weiter zu steigern. So erlaubt Bit Patterned Media das Schreiben der Festplattendaten in sehr kleinen festen Strukturen. Heat Assisted Recording setzt vor dem Schreiben ein punktuelles Erhitzen der magnetischen Schicht mittels eines Lasers ein, um neuartige, stabilere magnetische Materialien nutzen zu können. Eine physikalische Limitierung ist also bei der Steigerung der Festplattenkapazitäten in den nächsten Jahren nicht zu erwarten. Allerdings muss bei weitem mehr Technologieeinsatz als in der Vergangenheit investiert werden, um diese auch zu verwirklichen. Units x 1000 50.000 40.000 30.000 20.000 10.000 0 2008 2009 SCSI FC-AL 2010 SAS 2011 2012 Cap S-ATA 2013 Cap SAS Abb. 2: Interface im RZ-Betrieb, Quelle: HGST Schnittstellen und Marktanteile Units x 1000 50.000 40.000 30.000 20.000 10.000 0 2008 2009 S-ATA 2010 2011 SAS, FC-AL 2012 2013 SSD Der Anteil der Hard Disk Drives beziehungsweise Solid State Drives mit Fibre-Channel-Interface auf der Komponentenseite geht stark zurück. Die dominierenden Interface-Varianten werden Serial Attached SCSI (SAS) und Serial ATA (Advanced Technology Attachment - kurz SATA) mit Transfergeschwindigkeiten von 6 Gbit/s sein. Auch in den kostengetriebenen Tier-2 Speicheranwendungen, wo der Preis pro Gigabyte den Ausschlag gibt, wird SAS als Interface weitere Marktanteile von SATA übernehmen. Es sind in Zukunft mehr Festplattenmodelle mit hoher Kapazität (> 1 TB), langsamer Drehzahl und SAS Interface zu erwarten. Abb. 1: HDD / SSD im RZ-Betrieb, Quelle: HGST Units x 1000 35.000 30.000 Marktprognosen zufolge (vgl. Abb. 1 und 2) werden Festplatten in naher Zukunft den Speichermarkt auch im Enterprise-Segment dominieren. Die Stückzahl der SSDs steigt zwar von Jahr zu Jahr, doch bleibt dies im Vergleich zu den hergestellten Festplatten ein relativ kleiner Anteil. Das liegt auch darin begründet, dass im Bereich Flash-Speicher sehr hohe Investitionen notwendig sind, um die entsprechenden Fertigungskapazitäten zu schaffen. 25.000 20.000 15.000 10.000 5.000 0 2008 2009 10K 3,5“ 2010 15K 3,5“ 2011 10K 2,5“ 2012 2013 15K 2,5“ Abb. 3: Laufwerk nach Umdrehungszahl / Formfaktor im RZ-Betrieb, Quelle: HGST 12 Hitachi Data Systems | True Storage Concept | Nummer 17 Bei den Enterprise-Festplatten und auch bei SSDs wird in naher Zukunft ausschließlich 2,5“ als Formfaktor eingesetzt werden. Zwar werden aufgrund der größeren erhältlichen Kapazitäten aktuell noch rund 40 bis 50% der EnterpriseFestplatten im 3,5“ Format verkauft, allerdings ist dieser Trend stark rückläufig. 2,5“ Festplatten haben den großen Vorteil der geringeren Stromaufnahme, geringeren Kühlung und natürlich des verbauten Volumens, so dass es mit diesem Formfaktor möglich ist, Performance und Stromverbrauch innerhalb eines Systems besser zu optimieren. Während im Highend Enterprise Segment bei 2,5“ und auch bei 3,5“ heute noch 15.000 U/min „State of the Art“ sind, werden zukünftig 2,5“ SAS-Modelle nur noch mit 10.000 U/min auf den Markt kommen. Der Grund hierfür liegt im sehr hohen Entwicklungsaufwand und den damit verbundenen Kosten für Modelle mit 15.000 U/min. Ihr Vorteil der gegenüber Festplatten mit 10.000 U/min höheren I/Os ist im Vergleich zu SSDs, die sich preislich langsam diesem Segment annähern und eine weitaus höhere I/O Leistung bieten, im Ergebnis zu gering. Hitachi Data Systems | True Storage Concept | Nummer 17 Fazit: HDD oder SSD? Beide Speichertechnologien werden abhängig von verschiedenen Faktoren wie Preis, Kapazität, Geschwindigkeit und Zuverlässigkeit eingesetzt werden, und zwar in den jeweils für sie am besten geeigneten Anwendungen und Tiers. Sicherlich wird es Überschneidungen bei ihren Einsatzgebieten geben. Doch die einzig wahre Technologie gibt es auch in naher Zukunft nicht. Dafür ist der Markt zu groß und die Bedürfnisse und Anforderungen zu unterschiedlich. HDD und SSD haben beide ihre eigene Berechtigung. Die Speichersysteme von Hitachi Data Systems wissen beide bei ihren jeweiligen Stärken zu nehmen und setzen sie genau dort ein, wo sie sich rechnen. 13 100 Jahre Hitachi Pioniergeist und Industriegeschichte 100 Jahre Hitachi - Innovationen eines Weltkonzerns mit Ambition Dr. Georgios Rimikis Manager Solution Strategy Hitachi Data Systems Hitachi Ltd. steht für eine weltweit einmalige Pioniergeschichte. Sie begann zu Anfang des Zwanzigsten Jahrhunderts in der Gründerzeit Japans und dauert bis heute an. 2010 feiert das Unternehmen sein 100-jähriges Firmenjubiläum. Die postmoderne Erfolgsstory wird zum Fortsetzungsroman des digitalen Zeitalters. also ein hoch innovatives Unternehmen genannt wird, dann zu Recht deshalb, weil es in seiner hundertjährigen Geschichte eine solche Fülle von Entwicklungen zur Marktreife und zum Praxiseinsatz gebracht hat, dass unser Streifzug durch die Firmengeschichte vielfach nur Schlaglichter werfen kann. Gründerjahre im japanischen Kaiserreich Gründerhütte in Ibaraki, Japan Die Geschichte Hitachis liest sich wie die Chronik der nachindustriellen Revolution, ein Geschichtswerk über Technik, Forschung und Entwicklung des 20ten und 21ten Jahrhunderts. In 100 Jahren ist Hitachi zu einem Weltkonzern aufgestiegen, mit hohen Ambitionen. Eine Innovation, so lernen und lehren Soziologen, ist nicht etwa bloß eine Neuerung. Derer gibt es viele. Wahre Innovation ist das Etablieren und die kollektive Akzeptanz neuer Methoden, Prozeduren und Technologien. Wenn Hitachi 1915 1910 Hitachi wird von Namihei Odaira als Reparaturwerkstatt für Elektroartikel gegründet Erste Eigenproduktion des Unternehmens: drei elektrische 5-PS-Motoren 14 Produktion einer Wasserturbine mit 10.000 PS 1924 Großtechnische Produktion der ersten in Japan hergestellten, mit Gleichstrom betriebenen E-Lokomotive Von Namihei Odaira als Reparaturwerkstatt für Elektroartikel gegründet, nahm Hitachi 1910 die Herstellung ihrer ersten drei Elektromotoren auf, mit einer Leistung von gerade einmal 5 PS. Doch ihre Produktion legte den Grundstein zu einer schnell wachsenden und alsbald einmaligen Expertise. Sie wird Hitachi im Bereich Elektrotechnik und Energiewirtschaft zum Marktführer in Japan und zum führenden Akteur in der Welt machen. Schon 1915 bedient das Unternehmen ganz andere Dimensionen, mit einer Wasserturbine von 10.000 PS oder 7.355 kW. Ab 1924 wird die elektrische Energie in Antrieb umgesetzt, die großtechnische Produktion der ersten in Japan hergestellten Elektro-Lok wird aufgenommen. Sie ist Prototyp und Urmutter von E-Zügen, die Hitachi zum „Shin- 1931 Herstellung einer elektrolytischen Zelle (hydraulisch) mit 10.000 A 1932 1943 Herstellung des ersten elektrischen Hitachi-Kühlschranks Herstellung einer Francis-Wasserturbine mit 85.000 kW und eines Wechselstromgenerators mit 70.000 kVA Hitachi Data Systems | True Storage Concept | Nummer 17 kansen“, dem berühmten japanischen Hochgeschwindigkeitszug, ins 21te Jahrhundert unserer Tage führt. Elektrotechnik und Energiewirtschaft Entwicklung und Produktion gehen bei Hitachi von Beginn an Hand in Hand. 1931 werden elektrolytische Zellen mit 10.000 A hergestellt, ein Jahr später der erste elektrische Hitachi-Kühlschrank. Diese erste Orientierung am Verbrauchermarkt wird kennzeichnend für Hitachi bleiben, die bis heute Unternehmenskunden und Konsumenten gleichermaßen bedient. Hitachi Ltd. 100th.hitachi.com Gründung von Hitachi America Ltd. Gründung von Hitachi Europe Ltd. Listing an der New Yorker Börse Gründung von Hitachi Asia Pte. Ltd. Gründung der Hitachi Foundation Gründung von Hitachi (China) Ltd. Gründung der Hitachi (China) Research & Development Corporation Die Energiewirtschaft wird in den Vierziger Jahren zum bevorzugten Terrain. Noch während des Zweiten Weltkrieges gehen 1943 eine Francis-Wasserturbine mit 85.000 kW und ein Wechselstromgenerator mit 70.000 kVA in Produktion. 1955 liegt deren Leistungsvermögen bereits bei 100.000 kW beziehungsweise bei 93.000 kVA. Während 1952 die Herstel- 1954 1952 Herstellung einer zweistufigen Pumpturbine mit 21.000 kW Fertigstellung der ersten großen Kaltwalzstraße in Japan 1955 1959 1958 Herstellung einer Francis-Wasserturbine mit 100.000 kW und eines Wechselstromgenerators mit 93.000 kVA Hitachi Data Systems | True Storage Concept | Nummer 17 Turbinen und Fusionsreaktoren Die Energiewirtschaft bleibt für Hitachi eine entscheidende Domäne. 1961 wird ein experimenteller Kernreaktor fertiggestellt. Die friedliche Nutzung der Atomenergie ist ein Politikum, das für Japan eine ganz besondere Dimension hat und kaum 15 Jahre nach Hiroshima und Nagasaki ein Trauma berührt. Es dauert abermals knapp 15 Jahre, bis 1974 das erste Kernkraftwerk mit einer Leistung von 460.000 kW in Japan in Betrieb genommen wird. Fast zehn Jahre später, 1985 gelingt Hitachi mit dem T-60 E die Herstellung des ersten Tokamak-Geräts für Break-even-Plasma-Experimente. Der Tokamak steht für ein physikalisches Konzept der Kernfusionsreaktoren, bei dem das heiße rotierende Plasma in einem Torus von Magnetfeldspulen eingeschlossen wird. Der Torus hat jene wulstförmige Geometrie, die wir von Autoschläuchen oder Schwimmreifen kennen. Der Begriff Tokamak ist dem russischen Akronym токамак entlehnt, das abkürzend für „тороидальная камера в магнитных катушках“ steht und die toroidale Kammer in den Magnetspulen bezeichnet. Weltweite Konzernausdehnung 1959 1982 1982 1988 1985 1994 2005 lung einer zweistufigen Pumpturbine von 21.000 kW gelang, wird 1954 bereits die erste große Kaltwalzstraße für Japan fertiggestellt. Stahl ist noch stets der entscheidende Rohstoff der industriellen Fertigung. Wenige Jahrzehnte später werden ihn Kunststoffe zunehmend ablösen. Elektronik und Mikroelektronik Während die globale Industrialisierung mit ihrem immer größeren Energiebedarf für Serienfertigung die erste Hälfte des Zwanzigsten Jahrhunderts prägt, revolutioniert die Mikroelektronik die Massenproduktion und -kommunikation in seiner Herstellung von elektronischen Rechnern auf Transistor-Basis Gründung von Hitachi America, Ltd. Elektronenmikroskope, mit dem Grand Prix der Weltausstellung in Brüssel ausgezeichnet 1964 Herstellung der ersten Wagen für den Hochgeschwindigkeitszug „Shinkansen“ 1961 Fertigstellung eines experimentellen Kernreaktors Herstellung einer Einschienenbahn, die den Flughafen Haneda mit Hamamatsu-cho in Tokio verbindet 15 zweiten Hälfte. Auch hier ist Hitachi Entwickler, Forscher und Wegbereiter. 1964 ist Tokio zugleich der Austragungsort der Olympischen Sommerspiele. Dazu wird die Tokioter Innenstadt mit Tokios internationalem Flughafen in Haneda von Hitachi mit einer Einschienenbahn verbunden. Die rund 13 km lange Strecke entsteht binnen 16 Monaten Bauzeit. „Haneda Monorail“ ging pünktlich in Betrieb und ist seitdem erfolgreich unterwegs. Doch nicht nur in der Horizontalen, sondern auch in der Vertikalen feierte Hitachi Geschwindigkeitsrekorde. 1968 zum Beispiel wurden Hochhausaufzüge weiterentwickelt, die mit einer Geschwindigkeit von 300 m/min. verkehren. Heute saust der schnellste Aufzug Japans in Yokohama mit 750 m pro Minute durch den Landmark Tower. Das schreit nach Helm und Hosenträgern. Die technische Innovation führt uns von den starken zu den schwachen Strömen, wo Hitachi inzwischen ebenfalls weltweit führendes Know-how erworben hat. 1958 werden ihre Elektronenmikroskope mit dem Grand Prix der Weltausstellung in Brüssel ausgezeichnet. 1959 kommen von Hitachi elektronische Rechner auf Transistor-Basis. Das Computerzeitalter liegt in den Geburtswehen. Zwischen 1960 und 1965 werden die ersten CPUs entwickelt, und die magnetischen Bandsysteme steigern ihre Transferraten zur Datenspeicherung von 10 auf immerhin 100 KB/s. Hitachi Rail www.hitachi-rail.com Highspeed auf Schienen Im Jahr 1964 werden von Hitachi die ersten Wagen für den Shinkansen, das japanische Schnellzugnetz hergestellt, 17 Jahre bevor in Europa der französische TGV 1981 Paris mit Lyon verbindet. Der Name „Shinkansen“ – gebildet aus „shin“ für „neu“, aus „kan“ für „Haupt-“ und „sen“ für „Strecke“ – steht bis heute für Schnelligkeit und Sicherheit. Die „neue Hauptstrecke“ Japans bildet ein eigenes Hochgeschwindigkeitsnetz aus, das baulich vom Personennahverkehr und vom Güterverkehr getrennt ist. Weniger seine mögliche Höchstgeschwindigkeit von prinzipiell weit über 400 km/h als vielmehr seine hohe Durchschnittsgeschwindigkeit von mehr als 200 km/h – einschließlich Bahnhofsstopps – zeichnen den Shinkansen aus. Dabei ist er eines der sichersten Verkehrsmittel weltweit, das bislang keinen tödlichen Unfall erfuhr. Zugleich ist seine Pünktlichkeit sprichwörtlich. Wie zu lesen ist, hat ein Lokführer mehr als 15 Sekunden Verspätung schriftlich zu begründen. Vom Makro- zum Mikrokosmos Schon 1969 wird ein Online-Banking-System vorgestellt, zu einer Zeit als Europäer auf Reisen ein internationales Postsparbuch im innereuropäischen Zahlungsverkehr benutzen und den Euroscheck erfanden, den wir 2001 wieder verga- Entwicklung eines Hybrid-LSI 1968 Entwicklung von Hochhausaufzügen mit einer Geschwindigkeit von 300 m/min. Entwicklung des computerge- 1969 Fertigstellung eines Online-Banking-Systems Entwicklung und Massenproduktion von Farbfernsehern, die ausschließlich auf Transistortechnik beruhen 16 Entwicklung 1970 stützten Verkehrsleitsystems für 1975 der Hitachi High Crown Control Mill den Hochgeschwindigkeitszug „Shinkansen“ 1973 1974 Entwicklung eines neuartigen Bildsensors 1978 Weltweit erste erfolgreiche Magnetfeldbeobachtung auf Mikroebene mithilfe der Elektronenstrahl-Holografie 1982 Listing an der New Yorker Börse Gründung von Hitachi Europe Ltd. Inbetriebnahme des ersten 460.000-kWKernkraftwerks in Japan Herstellung des weltweit ersten Feldelektronenmikroskops mit Rekordauflösung Fertigstellung der ersten Allzweck-Computerserie Experimentelle Farbkamera mit solider Verkleinerungsfunktion Hitachi Data Systems | True Storage Concept | Nummer 17 ßen. 1970 kam durch Hitachi ein computergestütztes Verkehrsleitsystems zum Einsatz, für den Shinkansen versteht sich. 1973 wird die Entwicklung eines neuartigen Bildsensors bekannt gegeben. Elektronik und Optik rationalisieren zunehmend Logistik und Produktion und sie revolutionieren die Massenkommunikation. Noch 1969 hatte Hitachi Farbfernseher, die ausschließlich auf Transistortechnik beruhen, in die Massenproduktion genommen. Die schwarzweiße Fernsehwelt hatte ein Ende, das Colour-TV beschreibt seitdem die Welt und oft genug immer noch gerne in Schwarzweiß. Es ist der 20. Juli 1969 in den USA und der 21. Juli in Europa, als um 3.56 Uhr MEZ der erste Mensch den Mond betritt. Die Erkundung des Universums schlägt die Menschheit in den Bann der Unendlichkeit eines expandierenden Weltalls. Währenddessen und parallel dazu geht die Forschung bereits in die entgegengesetzte Richtung, mit Riesenschritten Nanometer um Nanometer, Planck-Länge um Planck-Länge in atomare Strukturen. Die Miniaturisierung der Bausteine und Werkzeuge greift Raum – allerkleinsten Raum – und sie erobert den Mikrokosmos. 1978 gelingt Hitachi die Herstellung des weltweit ersten Feldelektronenmikroskops mit einer Rekordauflösung, die Aufnahmen im atomaren Bereich möglich macht. Ebenfalls aus 1978 datiert eine experimentelle Farbkamera mit Verkleinerungsfunktion. 1982 wird die weltweit erste erfolgreiche Magnetfeldbeobachtung auf Mikro ebene mithilfe der Elektronenstrahl-Holografie möglich. Die Wissenschaft richtet sich vom Makro- auf den Mikrokosmos. Bereits in den 70er Jahren vertreibt die BASF Datentechnik Hitachi Mainframes. Am 18.1.1991 wird die 1000ste installierte CPU gefeiert. die Business Class im Rechenzentrum, sprechen wortreiches COBOL, die Common Business Oriented Language, und werden dankbar mit Lochkarten gefüttert. Die Ergebnisse ihrer Rechenkünste hämmern Lineprinter auf Endlospapier. Verständigung will geschaffen werden, nicht nur zwischen Mensch und Maschine, auch zwischen Maschinen und Komponenten. Hitachi sorgt 1977 für die IBM-Kompatibilität ihrer CPUs, die seitdem auch Europa begeistern. Noch beherrschen die Mainframes die Datenverarbeitung, bekommen aber bald ernsthafte Konkurrenz durch den Personal Computer. Sein Erfolg im Massenmarkt wird 1978 durch den IBM PC eröffnet, der mit dem Prozessor 8086 und seinen Nachfolgern Intel zum Welterfolg verhilft. Hitachi wird den Consumermarkt mit Speicherbausteinen und Festplatten bedienen und den Speichermarkt für Unternehmenskunden Computer - Mainframes - Rechenzentren mit Archivierungslösungen erobern. 1984 beginnt die Mas- Mit der Fertigstellung der ersten Allzweck-Computerserie 1974 dämmert das Computerzeitalter herauf. Großrechner stellen 1985 1984 Beginn der Massenproduktion von 256-Kilobit DRAMs Großtechnische Herstellung des ersten Tokamak-Geräts (T-60 E) für Break-evenPlasma-Experimente Gründung der Hitachi Foundation zur Förderung des Austausches zwischen Japan und den USA in den Bereichen Kultur, Bildung und Wissenschaft Hitachi Data Systems | True Storage Concept | Nummer 17 1988 senproduktion eines 256 Kbit Dynamic Random Access Memory. Gründung von Hitachi Asia Pte. Ltd. 1990 Entwicklung des weltweit schnellsten 1989 Supraleiter-Computers Entwicklung eines supraleitfähigen Magnet-Resonanz-TomographieGeräts Errichtung von zwei Forschungsund Entwicklungszentren in den USA und zwei Laboratorien in Europa Einführung eines Supercomputers mit der seinerzeit höchsten Verarbeitungsgeschwindigkeit Entwicklung einer Inverter 1991 gesteuerten Elektrolok mit der weltweit höchsten Steuerkapazität Entwicklung hochempfind licher Bildsensoren 17 Supraleiter-Computers. 1990 entsteht ein Supercomputer mit der seinerzeit höchsten Verarbeitungsgeschwindigkeit. Mit dem Übergang zu den 90er Jahren werden die Bandeinheiten sukzessive von Kassetten-Systemen abgelöst, deren Laufwerke bald flinke Roboter hastig vollstopfen und wieder entleeren. 1994 wird die original 32-Bit-RISC-Prozessor SuperH-Familie vorgestellt. Hitachi hat zugleich ihre Halbleiterspeicher weiterentwickelt. Der 7900 Semiconductor, monströser Übervater heutiger Flash-Disks, prahlt mit stolzen 512 MB. 1995 kommen Geräte zur fiberoptischen Übertragung mit 10 Gbit/s heraus. Im selben Jahr kommt mit Tetragon die erste RAID-Lösung auf den Markt, die Urmutter der berühmten Hitachi USP V. 1998 ein System zur optischen Datenübertragung mit 320 Gbit/s. Rechenzentrum aus „Alten Zeiten“ Tapes - Kassetten - Speicherwelten Die IT-Evolution nimmt Fahrt auf und überschlägt sich alsbald in immer neuen Spezies und Mutationen. Bandmaschinen von Hitachi übernehmen Backup und Datenaustausch. Magnet Tape Subsysteme der neueren Generation steigern 1989 ihre Transferraten auf 6 MB/s. 1989 wird die erste Großserie von wassergekühlten CPUs der High Density Module aufgelegt. Ebenfalls 1989 folgt die Entwicklung des weltweit schnellsten Getragen von Forschung und Entwicklung Die Entwicklung eines supraleitenden Magnet-ResonanzTomographie-Geräts, das mit den bekannten Schnittbildern in der medizinischen Diagnostik eingesetzt wird, festigt 1989 Hitachis weltweite Kompetenz im medizinischen Sektor. Im Hitachi Data Systems www.hds.com Hitachi setzt die Trends und die Benchmarks auch im Storage: 1998 gelingt die Entwicklung des 128-Megabit Einzelelek tronen-Speichers, 1999 eine zuverlässige eigenständige Echtzeit-Managementtechnologie. Aus 2000 stammt eine bahnbrechende Methode zur senkrechten Magnetaufzeichnung mit 52,5 Gbit/s. Sie wird Grundlage für weitere Speicherdichterekorde, wenn etwa 2005 das Verfahren so perfektioniert ist, dass 20 GB auf ein Microdrive passen und Terabytes von Daten auf eine 3,5“ HDD. Mithilfe dieser Technologie startet im Jahre 2006 die Massenproduktion von 2,5“-Festplatten. Die Enterprise Plattform USP unterstützt seit 2004 Unternehmen dabei, ihre Geschäftsprozesse mittels Virtualisierung zu optimieren. Vom Highend kommen neue Speichertechnologien für den Midrange Bereich. Die modulare AMS2000 Familie dominiert seit 2009 weit vor dem Mitbewerb im Bereich Preis-/Leistung den SPC-1-Benchmarktest. Entwicklung des Hochgeschwindigkeitszugs „Shinkansen“ mit neuer Höchstgeschwindigkeit von 270 km/h 1993 Entwicklung eines Kapillaren-ArrayDNA-Sequenzers 18 1994 Entwicklung der original 32-BitRISC-Prozessor SuperH-Familie Gründung von Hitachi (China) Ltd. 1998 Entwicklung eines Systems zur optischen Datenübertragung mit 320 Gbit/s Entwicklung des 128-Megabit Einzelelektronen-Speichers 1995 Entwicklung des Super TFT LCD-Moduls mit Ultraweitwinkel Entwicklung eines Geräts zur fiberoptischen Übertragung mit 10 Gbit/s 1999 Entwicklung einer zuverlässigen eigenständigen Echtzeit-Managementtechnologie 2000 Entwicklung einer Methode zur senkrechten Magnetaufzeichnung mit 52,5 Gbit/in2 Hitachi Data Systems | True Storage Concept | Nummer 17 SNP-Typinferenz. Damit werden SAPs, d.h. Veränderungen im Genom, in der Pharmakologie zur Verbesserung von Arzneimitteltherapien untersucht. Als die Mainframes ganze Räume füllten… selben Jahr werden zwei Forschungs- und Entwicklungszentren in den USA und ebenfalls zwei Laboratorien in Europa eingerichtet. F&E ist die Triebfeder zu immer weiteren Innovationen in allen Kernbereichen von Hitachi, etwa bei Optik und Healthcare: 1991 sind es hoch empfindliche Bildsensoren, 1995 ein Super TFT LCD-Modul mit Ultraweitwinkel. Ein Kapillarsequenzer macht 1993 Furore und immer wieder die Logistik: Im selben Jahr bringt Hitachi den Shinkansen auf eine Höchstgeschwindigkeit von 270 km/h, nachdem schon 1991 eine computergesteuerte Elektrolok mit der weltweit höchsten Steuerkapazität vorgestellt worden war. Medizintechnik und Gesundheitswesen Die Superlative wechseln einander ab und beschleunigen sich in dem Maße, wie Hitachis weltweites Engagement in den verschiedenen Sparten, Branchen und Industrien wächst. Auf 2001 etwa fallen die Entwicklung eines mobilen Web-Gateways und eines Anwendungsprozessors für Mobiltelefone, auf 2002 das weltweit erste Notebook mit geräuschärmerem Flüssigkeitskühlsystem, der kleinste 0,3 mm2 kontaktfreie ICChip der Welt sowie ein kompaktes DNA-Analysesystem für Healthcare ist längst zu einem Kernbereich der Hitachi F&E geworden. 2003 gelingt ihr die erfolgreiche Messung der Gehirnfunktionen von Kleinkindern mithilfe optischer Topografie und zugleich die Vermarktung eines kompakten, hochpräzisen Hochgeschwindigkeits-Fingervenenerkennungssystems. 2006 werden Grundlagenexperimente zur Anwendung optischer Topografie als Schnittstelle zwischen Gehirn und Gerät durchgeführt. Zukunfts- und Klimaforschung Ein System für Notariats- und Zertifizierungsbehörden im E-Government belegt Hitachis Kompetenz auch bei Software und Dokumentenverwaltung in 2001. Hard- und SoftwareLösungen gehen Hand in Hand, auch im Bereich Storage, wo Hitachi im Enterprise Bereich zum Weltmarktführer für Speichertechnologien und Datenhaltung aufsteigt. 2004 baut Hitachi das weltweit kleinste Sensor-NetTerminal mit einer Batterielebensdauer von mehr als einem Jahr. Auf der Weltausstellung 2005 im japanischen Aichi stellt das Unternehmen EMIEW vor, einen mobilen Roboter, der die Stimme seines Besitzers erkennt und Gegenstände reichen oder umhertragen kann. Zukunftsforschung steht für den Weltkonzern weit oben an. Dabei sind Energieeinsparung und Umweltschutz für Hitachi ein erklärtes hohes Anliegen, sowohl auf Seiten der F&E als auch in der eigenen praktischen Realisierung in ihren weltweiten Unternehmen. Die Abmachungen von Kyoto und die Herausforderungen der weltweiten Klimaveränderung sind nach dem Scheitern von Kopenhagen in 2009 eine umso dringlichere Entwicklung des weltweit ersten Notebooks mit geräuscharmem Flüssigkeitskühlsystems 2002 Entwicklung von Notariats- 2001 und Zertifizierungsbehörden- Entwicklung des kleinsten 0,3 mm2 kontaktfreien IC-Chips der Welt Entwicklung eines kompakten DNA-Analysesystems für SNP-Typing 2003 Systemen für das E-Government Entwicklung eines mobilen WebGateway-Systems Entwicklung eines Anwendungs prozessors für Mobiltelefone Hitachi Data Systems | True Storage Concept | Nummer 17 Entwicklung des weltweit kleinsten Sensor-Net-Terminals mit einer Batterielebensdauer von mehr als einem Jahr 2004 Entwicklung einer hochtemperatur- Entwicklung und Vermarktung eines kompakten, hochpräzisen Hochgeschwindigkeits-Finger venenerkennungssystems Erfolgreiche Messung der Gehirnfunktionen von Kleinkindern mithilfe optischer Topografie beständigen bleifreien Lötpaste 2005 Gründung der Hitachi (China) Research & Development Corporation Sprengstofferkennungssystem erhält TSA-Zertifizierung (USA) Vorstellung des „EMIEW“ auf der Weltausstellung 2005 im japanischen Aichi: ein mobiler Roboter, der die Stimme seines Besitzers erkennt und Gegenstände reichen oder umhertragen kann 19 Hitachi Oasis Ganzkörper-Hochfeld-MRT-System gemeinsame Aufgabe für Unternehmen, Bürger und Verbraucher geworden. CO2-Reduzierung, Energieeinsparung und Schonung der Ressourcen sind dabei oberstes Gebot und hohe Vorgaben für neue Entwicklungs- und Modernisierungsziele innerhalb der Weltgemeinschaft. Geleitet von sozialer Verantwortung Hitachi steht nicht umsonst für eine einmalige Pioniergeschichte des zurückliegenden Jahrhunderts. Der Konzern wird in den kommenden Jahrzehnten weitere Kapitel dieser Erfolgsstory schreiben. Dabei will er sich erklärtermaßen verstärkt den ökologischen Forderungen unserer Welt stellen. Anfang 2010, dem Jahr seines 100-jährigen Firmenjubiläums, startete das Unternehmen in den USA eine wegweisende Kampagne zu seiner technologischen Weiterentwicklung, ihr Motto: „We are all connected“. Ziel der strategischen Ausrichtung werden in den kommenden Jahren für Hitachi die Bereiche „Automotive“, „Energy“ und „Data“ sein. Damit stehen nicht zuletzt die logistischen, ökonomischen und ökologischen Herausforderungen unserer Epoche, wenn nicht sogar der Menschheit, im Mittelpunkt der Konzernstrategie. Data bildet dabei selbst eine der drei zentralen Säulen. Ihr kommt damit maßgebliche Verantwortung und tragende Bedeutung in der Übereinkunft ökonomischer und ökologischer Ansprüche im Bereich Datenhaltung zu. Dabei können Kosten- und Energieeffizienz gemeinsam praktikable Wege zu CO2-reduzierten Speichersystemen in einer dynamischen Infrastruktur weisen. Hitachi Data Systems – selbst ein global agierendes Tochterunternehmen – verfügt über das dazu notwendige Know-how. Schließlich steht es als einer der weltweiten Marktführer im Storage auch innerhalb des Weltkonzerns strategisch und technologisch mit an der Spitze. Weitere Informationen unter www.hitachi.com/environment Prototyp des weltweit kleinsten Noncontact RFID powder IC Chips (Abmessungen 0,05 mm x 0,05 mm) 2007 Prototyp des 2-Mbit nonvolatilen SPRAM Chips mithilfe von Magnetisierungsumkehrung durch Spin Injection Entwicklung von EMIEW 2, eines kleinen leichtgewichtigen interaktiven Roboters 2006 Nachweis über Elektrolumineszenzphänomene beim Anlegen von elektrischem Strom an ultradünnem Siliziumfilm Grundlagenexperiment zur Anwendung optischer Topografie als Schnittstelle zwischen Gehirn und Gerät 2008 Entwicklung einer Lithium-Ionen Batterie begründet eine Systemtechnologie zum Einsatz in High-speed Diesel Hybrid-Zügen Entwicklung einer Technologie für kleine, doch sehr effiziente Elektromotoren, die auf seltene Metalle verzichtet Massenproduktion von 2,5-Zoll-Festplatten mithilfe der Technologie zur senkrechten Magnetaufzeichnung 20 Hitachi Data Systems | True Storage Concept | Nummer 17 Endlich ein intelligenterer HBA. Von Brocade. DER NEUE HBA VON BROCADE IST EINE INTELLIGENTERE MÖGLICHKEIT, SERVER MIT SPEICHERN ZU VERBINDEN. Mit einer einzigen Server-Speicher-Infrastruktur kommen Sie weiter, ohne jemals in einer Sackgasse zu landen. Die HBAs von Brocade rationalisieren die Prozesse im Rechenzentrum, helfen Ihnen, das Management zu vereinheitlichen und innovative anpassungsfähige Netzwerkfunktionen zu implementieren. Weitere Informationen unter: www.brocade.com/smarterconnection © 2009 Brocade Communications Systems, Inc. Alle Rechte vorbehalten. Brocade und das Brocade B-wing Symbol sind eingetragene Markenzeichen von Brocade Communications Systems, Inc. 100 Jahre Hitachi Von der Bandmechanik zur Virtualisierung Heinz-Peter Dörper, Senior Customer Engineer, und Dr. Georgios Rimikis, Manager Solution Strategy, schwelgen in alten Zeiten. Hitachi Data Systems ist Teil des hundertjährigen Forschungs- und Entwicklungs-Abenteuers eines Weltkonzerns. Es führt uns zurück in die Zeiten der wassergekühlten Mainframes, der mechanischen Bandsysteme und Hochleistungsbanddrucker. Alle zehn Jahre wird die IT gewahr, welch junge Branche sie doch eigentlich ist. Das geht schon seit den Achtziger Jahren so. Ebenfalls seit Jahren bekommt sie „erste“ Fältchen und auch, wenn sie es nicht so recht glauben mag, sie kriegt schon einige Dekaden zusammen. IT mag in 100 Jahren Hitachi einen vergleichsweise überschaubaren Zeitraum belegen. Dafür sind ihre hoch beschleunigten Innovationszyklen ja auch wesentlich kürzer als anderswo, sagt jedenfalls die IT. Fünf Dekaden IT in 100 Jahren Hitachi Als HDSler muss man jedenfalls schon zu zweit antreten, um 2010 an Jahren mit dem Welt- und Mutterkonzern Hitachi Ltd. gleichzuziehen. Doch was es da alles zu erzählen gibt, von Tapes, CPUs und Bandeinheiten, das passt auf keine Kuhhaut. Auf der Suche nach historischem Material aus der Geschichte der Hitachi Data Systems trafen sich Dr. Georgios Rimikis und Heinz-Peter Dörper in Düsseldorf, erinnerten sich an so manche Geburts- und Sternstunde und schwelgen in den guten alten Zeiten. Wenn alte Mainframer wie Heinz-Peter Dörper, Senior Customer Engineer der Hitachi Data Systems in Düsseldorf, erzählen, scheint es, als ob IT-Archäologen von IT-Dinosauriern berichten. Da wiegen fünf Dekaden IT 100 Jahre Hitachi wie nichts auf. Sie haben wassergekühlte CPUs von Millionenwert installiert und haben mit Robotern gerungen, die seinerzeit die Systeme mit Bandkassetten fütterten. Sie haben in den vornehmsten Rechenzentren der Republik gearbeitet und spontan Überstunden und Schichten geschoben, sobald Hitachi Data Systems 7900 Semiconductor-Disk Subsystem/ Halbleiterspeicher, Kapazität 512 MB 22 G. Rimikis: „Tja, die guten alten High Density Module... Hitachi Data Systems | True Storage Concept | Nummer 17 Not am Mann war, ob an Wochenenden oder in Silvesternächten. „Hemdsärmeliger waren sie, jene Gründerjahre“, schmunzelt Heinz-Peter Dörper im Rückblick. Von Bandeinheiten und Banddruckern Patrick D. Cowden General Manager Hitachi Data Systems GmbH Tonnenschwere CPUs und voluminöse Speichersysteme waren seinerzeit Hirn und Gedächtnis im Big Business. Fleißige Hochleistungsdrucker standen für Geschäftswelt und Goldgräberzeiten des Wirtschaftswunders. Kein Wunder, dass sich in den ersten Bandeinheiten der 60er Jahre die Zuverlässigkeit von Hitachi mit deutscher Wertarbeit vereinten, stand doch die BASF seit ihrer Erfindung des Tonbandes von 1934 für die Güte der Tapes und für Datentechnik in Deutschland. Erfolgreich bis weit in die Neunziger Jahre hinein, hat Hitachi die Bandeinheiten geliefert, die mit Medien „made in Germany“ bestückt waren. Sie wurden von BASF und deren späteren Töchtern vertrieben und waren in vielen Unternehmen in Europa zu finden. Patrick D. Cowden, heute Chef im Hause Hitachi Data Systems in Deutschland, erzählt nur zu gerne aus jenen Tagen: „Mein Onkel hat damals bei der BASFDatentechnik gearbeitet und mir wärmstens empfohlen, in die EDV einzusteigen. Ich hab’s nie bereut.“ Elektronische Datenverarbeitung Eigentlich gab es IT zu Anfang der IT gar nicht. Das war alles EDV, elektronische Datenverarbeitung, und die bot, ein wenig ... von 1998. Die waren wassergekühlt.“ Hitachi Data Systems | True Storage Concept | Nummer 17 geheimnisumwittert, technisch führend und hoch solide, Rechenprozesse auf bester Mechanik. 1957, so berichten die Annalen von Hitachi, nutzen fortschrittliche Magnetic Devices 56 unbewegliche Schreibleseköpfe. Die Datensicherungen der Gründerjahre waren an Bänder gebunden. Das weiß man seit den frühen James Bond Filmen von Sean Connery. Oft genug dienten die leicht transportierbaren Bänder auch dem Austausch von Informationen zwischen befreundeten Unternehmen. Heute kann man den Inhalt eines solchen Bandes als Anhang einer E-Mail versenden. Die Magnetic Tape Subsysteme von Hitachi, seit 1960 für Low, Middle und High Speed auf dem Markt, verzehnfachten 1965 in fünf Jahren ihre Transferraten immerhin von 10 auf 100 KB/s. Im Jahre 1977 gelang Hitachi durch ihre IBM kompatiblen CPUs ein entscheidender Durchbruch in die interoperable Welt. Zwischen 1950 und Anfang 1960, zu Zeiten der früheren Großrechner wie HIPAC 101, 103 und HITAC 301 hatte es nichts gegeben, was einem heutigen Betriebssystem vergleichbar wäre. Hitachis erstes vollständiges Operating System wurde in 1964 entwickelt. Von 1974 an war das führende Virtual Operating System der VOS-Serie das Hitachi Mainstay OS, und zwar für die Computer der HITAC M Serie. VOS ist in Japan immer noch im Einsatz und wurde nie aufgegeben. Bandmaschinen für Mainframes Hitachi arbeitet an Speicherbausteinen. Zentnerschwere Speicherplatten von bis zu 80 kg vereinen Controller und Cache. 1984 geht ein 256 Kbit Dynamic Random Access Memory in Serie. Bandmaschinen von Hitachi sorgen für zuverlässiges Backup. Die Magnet Tape Subsysteme steigern sich 1989 H.-P. Dörper: „Gott sei Dank waren die auch dicht. Stell Dir mal vor...“ 23 auf Transferraten von 6 MB/s. Gleichzeitig gehen die ersten wassergekühlten CPUs der High Density Module in Großserie. Schon 1991 feiert Hitachi die 1000ste allein durch die damalige BASF-Tochter COMPAREX installierte Central Processing Unit. Das waren andere Zeiten, selbst noch in den Achtzigern, als Mainframes von Technikern mit dem Stethoskop auf Herz und Lunge abgehört, um Schäden aufzuspüren, wie HeinzPeter Dörper erzählt. Kunden jener Tage waren so renommierte Unternehmen wie die Berliner Eternit, MTU München, die Hannoveraner Conti oder Quelle in Nürnberg. Zuverlässigkeit der Produkte und die Flexibilität des Kundendienstes zeichnen Hitachi bis heute aus. Herbert Kurzfeld, Kundenberater und Supporter der ersten Stunden bei der BASF-Datentechnik, erinnert sich an ein Projekt, wo Not am Mann war, weil eine IBM CPU abgebrannt war. Binnen drei Tagen wurde eine neue Hitachi CPU bestellt, über das Wochenende installiert und in Betrieb genommen. Projekte gingen damals noch vis à vis zwischen Kundenberater und IT-Chef selbst über den Tisch, wenngleich immer mit akribischen Qualitätskontrollen. Bei Eternit in Berlin im Jahr 1977, der ersten Installation auf deutschem Boden, erzählt Herbert Kurzfeld, kam gleich ein ganzer Stab von Kollegen aus Japan, die die Installation begleitet haben und die sich zum Abschluss des Projekts vom ordnungsgemäßen Zustand überzeugten. Beschleunigte Speicherwelten Ende der Achtziger Jahre akquiriert Hitachi die Electronic Data Systems. Aus ihr geht die Hitachi Data Systems hervor. Obwohl die Produkte über die BASF-Datentechnik und später deren Tochter im europäischen Markt bereits seit den G. Rimikis: „High Quality halt – für damals gut 200.000 Mark.“ 24 Base Processing Unit für die CMOS-basierte HDS Pilot Series™. Siebziger Jahren vertrieben werden, ist nun Hitachi auch über die HDS seit 1990 in Europa vertreten. Wenngleich seit 1993 nicht in allen europäischen Ländern, wird HDS von Hitachi 1999 auch in Deutschland neu gegründet. Als Vertriebsgesellschaft für die Hitachi Speicherprodukte operiert seitdem die Hitachi Data Systems GmbH im deutschen Markt. EDV wird IT. Rechenzentren werden Data Center. Die Speicherwelten H.-P. Dörper: „Na, das war aber vor dem Verfall der Hardwarepreise! Anfangs sogar für 1 Million!“ Hitachi Data Systems | True Storage Concept | Nummer 17 Seit Ende der Achtziger entwickelt Hitachi ihre Halbleiterspeicher weiter. Es sind die Väter der heutigen Solid State Disks. Der 7900 Semiconductor brachte es in den Neuzigern auf sage und schreibe 512 MB. 1995 erobern zugleich die RAID-Systeme den Markt. TETRAGON (HDS 7700), die Urmutter der USP V, wird zum Inbegriff von Zuverlässigkeit und Leistung. Ein junger Produktmanager namens Dr. Georgios Rimikis, heute Manager Solution Strategy, betreute damals jenen Markt, den man heute als EMEA bezeichnen würde. Er ist der Namensgeber dieses fast legendären Produktes. Mit durchdachter und bewährt sorgfältiger Entwicklung und extrem hoher Zuverlässigkeit wird TETRAGON sehr erfolgreich. Entwicklung der Virtualisierung Lieferte damals über 100 MIPS und 4GB Speicher in einem kompakten und umwelteffizienten Gehäuse. beschleunigen sich. Hatten früher Bandmaschinen das Backup im Unternehmen sichergestellt, so waren mit Beginn der Neunziger Jahre die Kassettensysteme auf dem Vormarsch. Heute verwendet man mehr und mehr auch Laufwerke als Backup-Medium. Die Evolution im Storage geht immer schneller vonstatten. Speichervirtualisierung ist heute in aller Munde und unterstützt Unternehmen, ihre Geschäftsprozesse zu optimieren. Hitachi hatte bereits Jahre zuvor mit der Entwicklung der Virtualisierung sukzessive angefangen. 1995 überzeugte die TETRAGON 2000 (HDS 7700) und etwas später die TETRAGON 2100 (HDS 7700E) mit globalem Cache sowie der Trennung von Verwaltungsinformationen und den Daten selbst. Mit Lightning kommt im Jahr 2000 die Einführung der ersten, skalierbaren Crossbar Switch Architektur. 2002 bringt die Lightning V virtuelle Storage Ports für mehr Verbindungsmöglichkeiten über einen physikalischen Port. Sie stellt zudem die zweite Generation der Crossbar Switch Architektur und die Bildung unabhängiger Bereiche im Speichersystem (Hitachi Storage Domains) bereit. Die Daten wachsen ins Unermessliche. IT wird ITK. Clouds ziehen am Horizont der Speicherwelten auf. Geschäftsabläufe wurden überall rationalisiert und formalisiert. Das Prozessmanagement der modernen Unternehmensführung hat die Hemdsärmeligkeit der Gründerjahre zusehends verdrängt. Doch auch Freiheitsgrade gingen damit verloren. „Irrtum“, so scherzen die Mainframer augenzwinkernd, „wurde durch Planung ersetzt.“ Doch auch wenn sich die Instrumente und Mechanismen von Management und Service verändert haben und Managed Services neue Arbeitsformen in der ITK schufen, für die Consultants zählt, wofür Hitachi Data Systems seit eh und je und immer noch steht: die persönliche Beziehung unter Kollegen, Kunden und Partnern, von Mensch zu Mensch. G. Rimikis: „Tja, wir hätten sie verkaufen sollen, anstatt sie zu verwahren.“ Hitachi Data Systems | True Storage Concept | Nummer 17 25 Technologie Von Wolkenmachern und Cloud-Enablern Konsolidierung und Virtualisierung gehen Hand in Hand. Dr. Georgios Rimikis Manager Solution Strategy Hitachi Data Systems Die Erfahrungen meines Landmanns Ikarus haben gezeigt, dass Bewegung in der Wolke faszinierend sein kann, vorausgesetzt, man hält die Spielregeln ein. Dädalus war erfolgreich, weil er der Sonne angemessen fernblieb und die elementare wächserne Physik seiner Infrastruktur beachtete, um auch wieder landen zu können. Technologien funktionieren meistens bestimmungsgemäß, auch Cloud. Wichtig sind die Voraussetzungen und die Umgebung ihres Einsatzes. Fakt ist, dass Unternehmen große Erwartungen an die CloudTechnologien knüpfen. Für sie ist und bleibt gerade in angespannten wirtschaftlichen Zeiten das Datenwachstum eine der größten und kostspieligsten Herausforderungen ihrer IT. Ja, es gibt in kritischen Zeiten sogar Branchen und Geschäftsbereiche, bei denen das Datenwachstum sogar noch stärker zunimmt als in normalen Phasen: Analysen, um neue Geschäftsmöglichkeiten zu erschließen, oder neue Regulierungen- und Compliance-Anforderungen sind oft der Grund. Der Druck, Kosten zu reduzieren, und die Notwendigkeit, mit weniger mehr zu erledigen, war nie so groß wie heute. Deshalb werden auf das Cloud Computing große Hoffnungen gesetzt. Denn IT-Verantwortliche wissen, dass Konsolidierung und Virtualisierung heutzutage Hand in Hand gehen. Cloud-Architekten Zugleich ist der diffuse Stoff der Cloud-Diskussion manchmal recht undeutlich, allein schon begrifflicher Art. Um deshalb gleich vorab alle nebulösen Mutmaßungen darüber auszuräumen, was Hitachi Data Systems seriöserweise zur Cloud beitragen kann, sei klargestellt, dass wir uns nicht als Cloud Service Provider sehen und auch nicht als ein solcher gesehen werden möchten, sondern allenfalls als Cloud Enabler oder Architekten im großen Cloud Universum. Wir liefern die Produkte, Technologien und Methoden, die es erlauben, dass Clouds überhaupt gebildet und dass die Services dieser Clouds effizient angeboten und sicher erbracht werden können. Denn Wolke hin, Nebel her: die Daten müssen ja zunächst einmal auch physikalisch irgendwo residieren. Allein dazu gibt es eine Fülle von Forderungen, nicht zuletzt an die Datensicherheit. 26 These:Sie haben nichts davon, wenn sich Ihre Cloud in Luft auflöst. Es gibt viele und manche durchaus berechtigte Bedenken, die den Einsatz von Cloud-Technologien betreffen: rechtliche Einschränkungen, Sicherheit oder etwa den Datenschutz. Die Datensicherheit ist unbestritten eine Spezialität von Hitachi Data Systems und damit etwas, das wir guten Gewissens zum Cloud Storage beitragen können. Darüber hinaus bietet die neue Hitachi Content Platform (HCP) eine Mandantenfähigkeit (Multitenancy). Denn damit erst besteht die Möglichkeit, den gebotenen Schutz für geschäftskritische Daten in Clouds unternehmensspezifisch zu realisieren. Cloud Sicherheit Wir von Hitachi Data Systems liefern also die Instrumente oder, wenn Sie so wollen, die Fundamente, die dazu dienen, eine zuverlässige Cloud zu bilden. Sie haben wirklich nichts davon, wenn sich Ihre Cloud auf verteilten Servern und einfach gestrickten Storage-Systemen verflüchtigt und sich die erhofften, ja bitter notwendigen Kostenersparnisse in Luft auflösen, weil die Daten nicht zum gewünschten Zeitpunkt verfügbar oder die archivierten Dokumente nicht zugänglich sind. Wir haben im Speichermarkt einen sehr guten Ruf, vor allem im Bezug auf Sicherheit und Hochverfügbarkeit. Beide sind essentiell für eine Cloud. Ein Speichersystem mit einer Verfügbarkeit von 100% liefert eine andere Gesamtverfügbarkeit an die Cloud als eines mit 99,9 %. Doch das ist pure Mathematik. Wir jedenfalls haben nicht nur die Hard- und Software, sondern auch die Manpower und die Expertise dafür. Hitachi Data Systems | True Storage Concept | Nummer 17 Cloudfähige Lösungen Wir bieten faktisch Virtualisierungslösungen für bis zu 247 PB Speicher pro System, für alle auf dem Markt gängigen Speichersysteme, für heterogene Umgebungen und alle Betriebssysteme (zOS, Unix, Windows, Linux). Wir schaffen Konvergenz für file-, block- und content-basierte Daten, die ebenfalls hinter der Virtualisierungsplattform residieren können. Hinzukommt ein Tiered Storage Management, das den Wert der Daten an den Wert des Speichers koppelt und auf Policies basiert. Das ist übrigens sehr interessant für periodisch erscheinende Prozesse. Mit unserer logischen Partitionierung machen wir es möglich, dass wir dem Abnehmer aus einer Ansammlung von Speicherressourcen genau die richtige und die für sein Geschäft passende bereitstellen, ohne dass die eine Partition von der anderen etwas weiß. Das bedeutet nach unserem Verständnis und für den Kunden, verlässlich, konsolidiert und trotzdem unabhängig zu bleiben. Wir bieten durch den Hitachi High Availability Manager (HAM) unterbrechungsfreie Migrationen nicht nur des virtualisierten Speichers, sondern auch der virtualisierenden Instanzen! Die Mandantenfähigkeit der Hitachi Content Platform (HCP) erlaubt die Trennung der gespeicherten Daten in unternehmensspezifischen Bereichen und liefert neue Datenschutzmöglichkeiten. Sie beinhaltet Suchmechanismen, mit denen sich Files und Content im Multi-Peta-Byte-Bereich nach eigenen Suchkriterien durchsuchen lassen. Das Dynamic Provisioning von Hitachi Data Systems reduziert zudem Kosten, erhöht die Leistung des Systems und verringert zugleich dessen Verwaltungsaufwand. Dies ist mehr als herkömmliches Thin Provisioning, weil es mittels Virtualisierung über die Grenzen des Systems hinausgeht. Es wird ein einheitlicher Pool an Speicherressourcen bereitgestellt, der logisch den Applikationen zugewiesen ist. Eine durchgängige Managementplattform integriert alle Speicherelemente der Storage Cloud. Cloud Provider Cloud Computing ist ein interessantes Konzept, das neue Möglichkeiten eröffnet und gewiss neben anderen Konzepten koexistieren wird. Die notwendigen technischen Instrumente und Technologien wie Virtualisierung, Konvergenz etc. sind vorhanden und bewährt. Die IT und ihre Speicherinfrastruktur spielt in diesem Zusammenhang eine wichtige Rolle. Und sie hat zwei Seiten, die unternehmenseigene des Kunden und die der Service-Anbieter auf Seiten der Cloud Provider. Hitachi Data Systems | True Storage Concept | Nummer 17 Eine große Herausforderung an uns als Speicherhersteller und zugleich unser eigenes großes Ziel ist bei all dem, in Zusammenarbeit mit den Applikationshäusern sicherzustellen, dass die Anwendung entscheidet, wann sie Speicher benötigt, und dass sie selbständig von der Speicherklasse bedient wird, die für sie am besten geeignet ist. Noch ist das Zukunftsmusik. Doch beim Cloud Computing will der Kunde ja einen Service, der Ergebnisse für seine Geschäftsprozesse liefert und keine Storage-Bausteine, um die er sich selber kümmern muss. Genau das ist Sache des Cloud Providers. Anforderungen an Storage Clouds • Automatisierung – Integration – Flexibilität • schnelle Skalierbarkeit zu enorm großen Kapazitäten (PB) • schnelle Provisionierung des Speichers • auf Policies basierende Datenmigration • Sicherheit – Datenschutz – Hochverfügbarkeit – Standardisierung Seine in der Cloud angebotenen Serviceleistungen müssen den Geschäftszielen seines Kunden entsprechen. Daher gehört zum Cloud Computing neben den bereitgestellten Komponenten eine vorab definierte Infrastruktur und eine Definition der Leistungsmerkmale, für die man ja sein gutes Geld gibt, zumal mit der Hoffnung, welches zu sparen. 27 Cloud Strukturen Die Bereitstellung der Cloud Services erfolgt in der Public Cloud über das Internet, so dass Applikationen extern betrieben und Daten extern gespeichert werden. Nutzbar wird das Ganze über ein Web-Interface oder dynamische Infrastruktu- Cloudfähige Applikationen Cloud Storage Im Bereich privater Cloud, im Sinne von Cloud Storage, haben wir mit unserer Art controllerbasierter Storage-Virtualisierung bereits vor einigen Jahren die Grundlagen gelegt. Neue Technologien wie die Mandantenfähigkeit der Hitachi Content Platform (HCP) eröffnen im Cloud-Segment neue Möglichkeiten. Anwendungen und Dienste, die sich aus heutiger Sicht für den Bezug aus der Cloud eignen: • Enterprise Resource Planning (ERP) • Supply Chain Management (SCM) • Customer Relationship Management (CRM) • Data Warehousing • Personalwesen, Beschaffung und Buchhaltung • Backup, Remote Mirroring und Disaster Recovery • Archivierung • Spezielle: Web Conferencing, Wikis, Blogs Wege zum Cloud Computing Einstiege für Unternehmen, die ihre bestehende IT-Umgebung in ein Cloud Computing überführen möchten: • Virtualisierung des Speichers sowie der Server • Einübung von unterbrechungsfreier Datenmigration • Migrationswege in der Cloud in Testumgebung • Auswahl eines Anbieters mit Kontinuität im Markt • Standardisierte Schnittstellen und offene Industriestandards einsetzen • IT-Mitarbeiter auf Prozess- und Businesslevel ausbilden Dennoch gibt es etliche rechtliche Bedenken, die vor allem im Bereich Public Cloud verhaftet sind. Standardisierung und einheitliche Schnittstellen müssen noch durchgängig geschaffen werden. Die Storage Networking Industry Association (SNIA) hat deshalb eigens eine Cloud-Storage-Gruppe gebildet, die sich des Themas annimmt. Die SNIA hat beispielsweise eine Arbeitsgruppe gegründet, die ein neues Cloud Data Management Interface (CDMI) entwickelt hat, das interoperables Cloud Storage und Datenmanagement ermöglichen soll. Vielerorts gibt es nach wie vor Bedenken, was Verfügbarkeit, Sicherheit und Compliance angeht. Wirklich nicht zu unterschätzen sind der teils hohe Integrationsaufwand von Clouds. Cloudwillige Unternehmen sollten jedenfalls frühzeitig Vorbereitungen treffen. 28 ren, bei denen die Applikationen – bestenfalls mit minimalen Kenntnissen der Anwender – in Echtzeit zu beziehen sind. Die Erwartung lautet selbstverständlich: höchste Skalierbarkeit bei Datenmenge und -nutzung, einfache Integrierbarkeit mit unternehmenseigenen Systemen der Anwenderseite. Andere hegen genau hier große Skepsis, ihre IT ins Web zu verlagern und Abhängigkeiten einzugehen. Aus Sicht der Cloud Provider wird das Cloud Computing zudem dann erst attraktiv, wenn der Dienstleister damit in der Lage ist, seine angebotenen Services für eine Großzahl von Kunden bereitzustellen. Konsolidierung und Virtualisierung sind bei Hitachi Data Systems kein Widerspruch, sie gehen Hand in Hand. Denn die controllerbasierte Virtualisierung bietet eine Konsolidierung unter einem einheitlichen Management Layer. Fazit Natürlich wird die Cloud einen Reifeprozess durchleben. Schließlich unterliegt auch IT bestimmten evolutionären Gesetzen und nur wenig gelingt über Nacht. Doch die Cloud muss funktionieren. Denn Pannen kommen teuer zu stehen. Dafür stehen die Cloud Enabler und die Provider gemeinsam ein. Aus ihrer Zusammenarbeit werden mit der Zeit weitere und weit größere Chancen in der Cloud entstehen, während die Risiken minimiert, ja bestenfalls eliminiert werden. Hitachi optimiert ihre Technologien laufend dorthin. Hitachi Data Systems | True Storage Concept | Nummer 17 Was Was SieSie schon immer über schon immer zu Backup & Recovery, Deduplizierung, Virtualisierung Open-Source- und Cloud-Backup wissen wollten ... wissen wollten ... NEU! : loaden n w o d stenlos o k t z t Je rage.de/ rchSto a e S . w ww dium/ Kompen Entscheiderwissen für Datacenter & Virtualisierung Technologie Der Speicher aller Klassen Hitachi Content Platform für agile Clouds Dirk Walde Archive Solution Manager Hitachi Data Systems Cloud Computing ist ein viel versprechender Weg, Anwendungen im Unternehmen als IT-Services intern bereitzustellen oder über öffentliche Netze zugänglich zu machen. Private und Public Clouds liefern Applikationen, Daten und Speicher, wann, wie und wo auch immer sie gebraucht werden. Die agilen Cloud-Technologien von Hitachi beschleunigen und vereinfachen den Aufbau solcher Cloud-Computing-Umgebungen. Hitachi Data Systems liefert hierzu mit der Hitachi Content Platform (HCP) als Kernstück die branchenweit bestintegrierte Speicherlösung, um einen einheitlichen Pool an virtualisierten Block-, File- und Content-Speichern zu erzeugen. Agile Lösungen Die Content- und Infrastruktur-Clouds von Hitachi Data Systems erlauben den nahtlosen Zugriff auf alle Informationen und IT-Ressourcen. Daher erzeugen die branchenweit führende Hitachi Universal Platform V bzw. VM, die preisgekrönte Hitachi Adaptable Modular Storage (AMS) wie auch die Hitachi Content Platform (HCP) gleichermaßen jene einheitlichen virtuellen Speicherpools. Sie sind mit allen benötigten CloudEigenschaften versehen, um jede Art von IT-Service bedienen zu können, je nach Bedarf, je nach Budget und je nach den besonderen Sicherheitserfordernissen für geschäftskritische Daten. All diese Dienste werden normalerweise als serverbasierte Lösungen bereitgestellt, die allesamt auf Abruf Speicher für anfragende Anwendungen liefern und damit interne wie externe Nutzer von Cloud Services versorgen. passungsfähigkeit, und dies auf eine kosteneffektive Art, die auf den vorhandenen IT-Investitionen aufsetzt. Datensicherheit geht vor Diese Eigenschaften erlauben es den Unternehmen, ihre Daten sicher zu trennen und verschiedene Funktionen und Service-Levels für unterschiedliche Datenbestände und -arten zu nutzen. Denn Datensicherheit geht vor allem anderen. Gerade unter diesem Aspekt eignet sich die HCP für eine schrittweise Einführung des Cloud Computing im Unternehmen, weil sich geschäftskritische Services ganz nach den eigenen Sicherheitsbedürfnissen sukzessive einführen lassen. Dieser einzigartige Ansatz setzt nicht umsonst auf eine durchgängige Infrastruktur, die verlässlich, skalierbar, mandantenfähig und Inhaltsbasierter Speicher Die Hitachi Content Platform – die vormalige Hitachi Content Archive Platform (HCAP) – stellt als eine solch durchgängige Plattform eine intelligente, inhaltsbasierte Speicherlösung dar. Diese bedient über ein einheitliches Speichermanagement alle Speicherklassen und hilft insbesondere, die unstrukturierten Daten in den Griff zu bekommen. Die entscheidenden Merkmale, die die HCP für die Cloud prädestinieren, sind dabei vor allem ihre mandantenfähige Architektur. Hinzukommen aber auch die intelligenten Verschlüsselungsmechanismen, ihre Aufbewahrungs- und Verwendungsdienste sowie ihre praxisbewährte Hochverfügbarkeit. Mit der HCP lassen sich IT-Ressourcen konsolidieren, automatisieren und langfristig dynamisch nutzen. So entsteht höchste Sicherheit und An- 30 mehrstufig angelegt ist. Zugleich bietet die HCP für den laufenden Betrieb all jene Features, die sowohl die Anwendungen als auch die Administration effektiv unterstützen: eine integrierte Suche, sichere Migration und Archivfunktionalitäten, die auch so dringend benötigte Aufgaben wie die rechtskonforme Aufbewahrung von Daten berücksichtigt. Entstanden und verbessert in langer praktischer Erfahrung mit der HCAP stellt die HCP zugleich höchste Leistungsfähigkeit zur Verfügung. Sicherheit bei der Virtualisierung der IT-Assets und individuelle Bereitstellung von Cloud-Service-Optionen machen sie damit zur bevorzugten Wahl cloudwilliger Unternehmen. Dabei unterstützt Hitachi das gesamte Spektrum an Infrastrukturund Content-Services in öffentlichen, privaten und hybriden Clouds. Hitachi Data Systems | True Storage Concept | Nummer 17 Homogene und hybride Cloud Die Hitachi Content Platform hat sich bei Archivierung, Content-Ablage und effektivem Backup unter allerhöchsten Anforderungen bewährt. Dabei ermöglicht der durchgängige und zugleich offene Ansatz den Partnern von Hitachi Data Systems, ihre eigenen Lösungen und Services zu integrieren. Schließlich geht es darum, die gewünschten CloudEigenschaften im Dienste des Kunden herstellerübergreifend auszubauen. Zudem zeichnen sich Hitachi Speicher-Systeme durch ihre flexible Partitionierung und Replikation aus. So können Daten sowohl für öffentliche als auch für private Clouds voneinander getrennt werden. Dies erlaubt die Nutzung einer einzigen Infra struktur als hybride Cloud, die beiden Bedürfnissen getrennt und gleichermaßen gerecht wird. Mit der Replikationsfunktionalität von Hitachi, die eine Replikation „in the box“ bietet, ist es zudem möglich, Inhalte, die auf einer anderen Plattform erzeugt werden, über die Hitachi Content Platform unmittelbar in der öffentlichen Cloud zugänglich zu machen. Provisionierung inbegriffen Hitachi Dynamic Provisioning Software macht es Speicher-AdmiHitachi Content nistratoren leicht, eine große Zahl Platform virtueller Disks vorab zu definieren, während faktisch nur der minimal benötigte physikalische Speicher vorgehalten wird, um Anforderungen möglichst kurzfristig bedienen zu können. Sind zusätzliche Speicherkapazitäten erforderlich, können diese im dynamisch vorgehaltenen Speicherpool allokiert werden. Auf die agile Cloud-Infrastruktur hat dies keinen Einfluss, sie bleibt jederzeit verfügbar. Business Continuity Die Hitachi Content Platform ist deshalb eine so leistungs starke Lösung, weil sie Archivierung, Business Continuity und Hitachi Data Systems | True Storage Concept | Nummer 17 Content-Ablage ebenso vereint wie Notfall-Wiederherstellung und E-Discovery. Objektnummerierung und Archivierungsservices für Aufbewahrung und Verbleib sind in der tagtäglichen Arbeit von hohem praktischen Nutzen, nicht zuletzt von großer wirtschaftlicher Bedeutung, was eine effiziente Betriebskostensenkung anbetrifft. Ebenso lassen sich verschiedene SLAs und Funktionen für unterschiedliche Datensätze nutzen. Vor allem aber ihre mandantenfähige Architektur ist ein entscheidendes Plus im Cloud Storage. Mandantenfähigkeit Mit ihrer neuen Funktion der Mandantenfähigkeit stellt die Hitachi Content Platform eine Umgebung bereit, die innerhalb einer gemeinsam genutzten Infrastruktur individuelle Sicherheit und Datenschutz auch für mehrere Beteiligte gewährleistet. Durch die Vielzahl an unterstützten Protokollen und Technologien von Drittanbietern hilft Hitachi Data Systems den IT-Verantwortlichen, ihre Investitionen in Hard- und Software auch weiterhin bestmöglich zu nutzen. Auch Altsysteme können durchaus Cloud-Eigenschaften übernehmen. Eine komplette Erneuerung der Hard- und Software ist gar nicht notwendig. Dies alles macht die Einführung der agilen CloudInfrastruktur von Hitachi wirtschaftlich, zumal auch bestehende Anwendungen nicht angepasst werden müssen. So besteht auch beim Übergang in die Clouds optimaler Investitionsschutz. Vorteile der agilen Cloud-Infrastruktur von Hitachi Data Systems • Reduzieren von Investitionskosten (CAPEX) • Senkung der Betriebskosten (OPEX) • Konsolidierung und Mandantenfähigkeit • Speicheranforderung „just in time“ • Verbesserung des Return on Assets (ROA) • Deutlich verbesserte Auslastung • Ältere Inhalte werden Teil der Cloud • Storage Service Level Management • Verschiedenste QoS-Speicherklassen • Services zur Datenmobilität • Erweiterte Business Continuity • Hochverfügbarkeit • Verbesserter Datenschutz • Einsparung von Lizenzgebühren • Unterbrechungsfreie Migration • Erhöhte Ausfallsicherheit 31 Technologie Wissen statt fühlen Managed Services schaffen optimale und verlässliche Lösungen. Andreas Wagner Director Global Services Hitachi Data Systems Die optimale Einrichtung und ständige Überwachung von Speicherumgebungen sind Voraussetzungen für einen kosteneffizienten und verlässlichen Betrieb. Hitachi Data Systems stellt mit Managed Services im Rahmen seiner Professional Services hochqualifizierte Spezialisten zur Verfügung. Damit liefert Hitachi Data Systems das komplette Know-how, das zum optimalen und effizienten Betrieb komplexer IT-Umgebungen notwendig ist. Wer könnte besser Best Practices und Leitlinien vorgeben als der Hersteller selbst? Die momentane Praxis vieler IT-Abteilungen sieht leider immer noch so aus, dass Entscheidungen größtenteils auf Gefühlsbasis stattfinden. Hier will Hitachi Data Systems mit seinen Managed Services Fakten und Wissen an die Stelle von Gefühlen setzen. Egal ob es um Planung, Optimierung oder Betrieb geht, stets gilt es, eine Fülle von Faktoren in Einklang zu bringen, seien es SLAs, Gesetze, Kosten oder die Performance. Praxisnahe Lösungen, aber immer auch der Mensch stehen im Mittelpunkt unserer Überlegungen. Ausgebildete, erfahrene Consultants bringen eine langjährige Erfahrung ein, die bewährte Methoden und effiziente Operationen auf die besonderen Verhältnisse vor Ort überträgt. Auch das ist es, was unsere Techniker auszeichnet. Denn unser Service ist so individuell, wie unsere Kunden selbst. Remote und vor Ort Hitachi Managed Services können überall und jederzeit flexibel abgerufen werden, ob dauerhaft verlässlicher Service gefragt ist oder ob Lücken temporär gefüllt werden müssen. Sie werden prinzipiell auf zweierlei Weise erbracht, als Fernwartungsservice wie etwa für Fernüberwachung und Remote Management oder als Vorort-Service bei Administration und Support. Residency Services Eigene Kapazitäten sind in vielen Unternehmen heutzutage oftmals ausgeschöpft. Unternehmensinterne Expertise, die für ein effizientes, flexibles und kostenbewusstes Management von Speicherinfrastrukturen benötigt wird, ist oft nicht mehr in allen Bereichen verfügbar. Weil sich die geschäftlichen Anfor- Hitachi Services Hitachi Managed Services So vielfältig wie Ihr Unternehmen Hitachi Managed Services zum Management, Betrieb und Support der Speicherinfrastruktur umfassen: • System- und Speicherverwaltung und Konfiguration • Speicherzuordnung/Provisionierung • Performance-Analyse und Problemlösung • Tagesaktuelle Erbringung zugewiesener Speicher an Server • Speicherbericht/-analyse • Kapazitätsmanagement • Störungsmanagement/Problemmanagement • Änderungsmanagement • Custom Residency – Know-how vor Ort Wir sind da, wo Sie uns brauchen. 32 Hitachi Data Systems | True Storage Concept | Nummer 17 derungen aber kontinuierlich weiterentwickeln, muss auch die Speicherinfrastruktur laufend angepasst werden, um Schritt zu halten und konkurrenzfähig zu bleiben. Hitachi Data Systems Residency Services stellen dazu Fachkräfte und Know-how individuell zur Verfügung. Erst ein einheitliches Speichermanagement kann die vorhandenen Speicherinvestitionen maximal ausschöpfen. Unsere Services beinhalten deshalb die komplette Speicherbereitstellung und -verwaltung sowie zusätzlichen Wissenstransfer, falls fehlende Fachkenntnisse innerhalb der IT aufgefangen werden müssen. Abhängig von den jeweiligen Geschäftsanforderungen können unsere Managed Services begleitend vor Ort, remote oder in einer Kombination aus beidem erbracht werden. In der Regel sind unsere Services auf eine Dauer von drei bis zu zwölf Monaten ausgelegt. Selbstverständlich können längere Laufzeiten vereinbart werden. Services-Portfolio Das umfangreiche Angebot von Managed Services von Hitachi Data Systems ist darauf ausgerichtet, unsere Kunden bei einer Vielzahl von unternehmerischen Herausforderungen zu unterstützen. Mit deren Hilfe erreichen die Unternehmen einen höheren und schnelleren Return on Invest ihrer Speicherinfrastruktur oder sie füllen kritische Personal- und Knowhow-Lücken. Sie verbessern die Auslastung der Systeme und erhöhen somit auch die Zufriedenheit der Mitarbeiter innerhalb der verschiedenen Geschäftseinheiten, weil sie helfen, die Service-Level-Vorgaben zu erfüllen. Experten für SAN, Mainframe oder Open Systems wie auch unsere Consultants für die Replikation erhöhen die Performance der Infrastruktur. Sie optimieren deren Leistung, indem sie nicht nur standardisierte Prozesse und Werkzeuge nach ITIL anwenden, sondern auch bewährte Hitachi Data Systems Best Practice implementieren. Sie schließen kritische Personallücken, transferieren Know-how und sorgen auch nach Abschluss ihrer Serviceleistungen für eine effektive innerbetriebliche Schulung der Unternehmensmitarbeiter. Damit auch sie in der Lage sind, ihre Speicherinfrastruktur optimal zu betreiben. Hitachi Services Hitachi Residency Services So individuell wie Ihre IT • Systemadministration • Speicherbereitstellung • Speicheradministration und -konfiguration • Datenaufbewahrung und Datenschutz • Reports zur Speichernutzung und Performance • Verwaltung der Speicherkapazitäten • Störungs- und Problemmanagement • Change Management • Konfigurationsmanagement • Dokumentation und deren Aktualisierung • Transition Services • Best Practice von Hitachi Data Systems Wir sind da, wo Sie uns brauchen. Hitachi Data Systems | True Storage Concept | Nummer 17 33 Healthcare Krankenhaus-Daten voll im Griff St. Martinus-Hospital GmbH Gesetzliche Regelungen fordern von Krankenhäusern erhebliche Anpassungen in der IT – Patientendaten müssen sicher und langfristig gespeichert und in der Folge effizient archiviert werden. Das St. Martinus-Hospital in Olpe geht diese Anforderungen jetzt in einer zweiten Stufe mit der neuen Storage-Lösung AMS2100 von Hitachi Data Systems an. Die bestimmenden Themen im IT-Bereich des Gesundheitswesens rund um die Krankenhäuser sind nach wie vor zwei Schwerpunkte – die digitale Bildspeicherung (PACS) sowie das Krankenhaus-Informations-System (KIS). Darüber hinaus sind Krankenhäuser vielleicht noch mehr als andere, „normale“ Unternehmen gezwungen, ihre Kosten zu senken. Momentan findet auf dem Krankenhausmarkt ein Verdrängungswettbewerb statt, den laut Aussage einiger Experten (vergleiche etwa Lohmann-Report) viele Häuser nicht überleben werden. Damit insbesondere die nicht in großen Krankenhausketten organisierten Einrichtungen eine Chance am Markt haben, müssen sie besonders darauf achten, ihre IT-Infrastruktur besonnen und langfristig auf Effizienz und Nachhaltigkeit zu trimmen. Auch das St. Martinus-Hospital in Olpe muss gemäß diesen Herausforderungen handeln und setzt bereits seit einigen Jahren KIS- und PACS-Systeme ein. Bereits 2006 mussten die Verantwortlichen aus diesem Grund ihre IT entsprechend anpassen und setzten auf eine Storage-Lösung der Reihe AMS 200 von Hitachi Data Systems, um die durch KIS und PACS ausgelösten Speicheransprüche abzudecken. Der Erfolg und die breite Akzeptanz des Systems sowie die stetig steigenden Datenmengen führten jedoch bereits im Jahre 2008 an die Grenzen der installierten Systeme. „Unser medizinisches Personal hat die digitalen Systeme schnell akzeptiert“, bestätigt Ingo Steiger, IT-Verantwortlicher beim St. Martinus-Hospital. „Die aktuelle Situation im Gesundheits wesen macht einen zunehmenden Einsatz von EDV-Systemen erforderlich. Es wird immer wichtiger, große Datenmengen bereitzuhalten.“ Immerhin sind einzelne Dateien etwa bei einer Untersuchung mit dem Kernspintomographen bis zu mehrere hundert Megabyte groß. Um sich auf die steigenden Datenmengen und weitere speicherintensive Anwendungen wie Desktopvirtualisierung, Datensicherung sowie sichere Archivierung vorzubereiten, stand eine Erweiterung der Systeme im Raum. Steiger wandte sich auf Grund der guten Erfahrungen im vorangegangenen Projekt an das Systemhaus Computacenter. Dort hat man viel Erfahrung mit IT-Lösungen im Krankenhausumfeld. „Zwei bis dato erfolgreich umgesetzte Projekte mit der seit Kurzem verfügbaren AMS2000 Serie haben uns veranlasst, nicht nur über eine Aufrüstung nachzudenken“, so St. Martinus-Hospital Olpe Die Katholische Hospitalgesellschaft Südwestfalen gGmbH ist eine modern geführte Unternehmensgruppe, die im Jahr 2000 aus dem Zusammenschluss der beiden Krankenhäuser St. Martinus-Hospital, Olpe, und St. Josefs-Hospital, Lennestadt, hervorging. Mittlerweile vereint die Gesellschaft unter ihrem Dach neben den beiden Krankenhäusern 3 Pflegeeinrichtungen, 2 Dialysezentren, 2 Medizinische Versorgungszentren. Unsere Gesellschaft ist der größte Ausbildungsanbieter für qualifizierte Berufe im Gesundheitswesen im Kreis Olpe. Über 1200 Mitarbeiter kümmern sich in den Einrichtungen um die Genesung der Patienten und das Wohlbefinden der Bewohner. Das St. Martinus-Hospital ist ein Krankenhaus der Grund- und Regelversorgung mit den anerkannten Teilgebieten Kardiologie, Dialyse/Nephrologie, Infektionsabteilung (10 Planbetten) und den Schwerpunkten Unfall- und Wiederherstellungschirurgie, Gefäß- und Visceralchirurgie, Angiologie, Gastroenterologie, internistische Onkologie, Schmerztherapie, operatives Brustzentrum, gynäkologische Onkologie und einer interventionellen Radiologie. 34 Hitachi Data Systems | True Storage Concept | Nummer 17 Heiko Börger von Computacenter. Und so konnten daher zeitnah drei mögliche Konzepte zur Erweiterung beziehungsweise Anpassung der Speichersysteme angeboten werden. 1.Erweiterung des bestehenden Systems um ein weiteres Storage-Shelf 2.Ein weiteres AMS 200 StorageSystem als mittelfristiger Ausbau 3.Die Installation einer AMS2100 zur Erweiterung des Speichervolumens und Neuverteilung der vorhandenen Daten auf beide Systeme zur Optimierung der I/O Last Schnell kamen die beteiligten Parteien zu dem Schluss, dass eine Erweiterung des bestehenden Systems durch ein zusätzliches Shelf oder den Einsatz einer weiteren AMS 200 für die zukünftigen Entwicklungen nicht ausreichen würde. Zudem zeigten die Berechnungen, dass der Umstieg auf das Nachfolgesystem AMS2100 nur geringfügig höhere Anschaffungskosten bedeutete, die insbesondere in Relation zum Mehr an Leistung jedoch nicht ins Gewicht fielen. Des Weiteren erhofft man sich in Olpe Einsparungen bei den Betriebskosten des neuen Systems, etwa durch die optimierte Konfiguration oder Wartung der AMS und auf Grund der eingebauten Energiesparfunktion zur Reduzierung der Umdrehungsgeschwindigkeit der Festplatten. Reale Vorteile aus Virtualisierung Nachdem die Entscheidung für die AMS2100 fiel und die Rahmenbedingungen mit Computacenter definiert wurden, ging es direkt in die Umsetzungsphase. Die Storage-Systeme wurden eingebunden und die bestehenden Daten übernommen beziehungsweise die Lasten auf beide Systeme verteilt. Bei der Konfiguration der Systeme wurden die bisherigen Parameter beibehalten und nur auf das neue System übernommen. Die Fibre-Channel-Platten arbeiten mit 64-K-Blöcken und sind damit ideal für schnelle Datenbankzugriffe geeignet. Bei den SATA-Platten nutzt das Krankenhaus 256-K-Blockgrößen. So lassen sich große Datenmengen mit hoher Geschwindigkeit vom und zum Speichersystem übertragen. Auch nutzt man weiterhin in allen Bereichen SATA-Platten statt Fibre-Channel-Pendants, da sie in Verbindung mit dem leistungsfähigen Controller der AMS2100 mehr als ausreichend für die Anwendungen sind. Hitachi Data Systems | True Storage Concept | Nummer 17 Auch die Virtualisierung greift auf das Storage-System zu und garantiert damit eine hohe Verfügbarkeit und Zuverlässigkeit der Anwendungen. Dabei profitiert auch die KIS-Applikation von der Virtualisierung, da sich die High-Availability-Funktionalität der eingesetzten Lösung äußerst vorteilhaft auf die Sicherheit der Systeme auswirkt. Mittlerweile sind mehr als 40 Serversysteme virtualisiert und auf 4 ESX Server gehostet. Die Daten stehen zentral, über redundante Pfadanbindungen, in den beiden SANs zur Verfügung. Zusätzlich besteht noch ein Cluster aus 2 Servern für die Praxissoftware der MVZs und die User-Verzeichnisse. Neben PACS und KIS liegen die Benutzerverzeichnisse und eine Praxissoftware mit fünf angebundenen Praxen in der AMS2100. Die optionale Path-Manager-Software sorgt dafür, dass beim Ausfall einer Verbindung automatisch auf die zweite umgeschaltet wird. Derzeit ist das System mit einer Kapazität von 12 Terabyte ausgerüstet, was einer Erweiterung von 50 Prozent gegenüber dem alten System entspricht. Neben der Anwendungsseite nutzt das St. Martinus-Hospital die StorageLösungen auch für Backup-Zwecke. Zusätzlich werden die gesicherten Daten aus dem Backup2Disk-Bereich auf ein Bandlaufwerk LTO4 (Linear Tape Open) kopiert. Sicherheit durch Remote Management Die AMS2100 wird durch Hitachi remote überwacht, so dass die Techniker im 13 x 5 Servicezentrum als Erste benachrichtigt werden, wenn das System nicht mehr innerhalb seiner normalen Parameter arbeitet. Die AMS erkennt dabei Ausfälle, lange bevor sie akut werden, und benachrichtigt selbstständig einen Techniker. Die IT-Abteilung bekommt höchstens noch einen Anruf, wenn sich die AMS2100 nicht täglich beim Servicezentrum meldet. Damit ist neben der reinen Kapazitätserweiterung auch die Anforderung nach der Verfügbarkeit und Sicherheit des Systems gewährleistet. 35 IT-Outsourcing Hochverfügbarkeit für Daten Atos Origin vertraut auf Services von Hitachi Data Systems Wer das Datenmanagement fremder Unternehmen übernimmt, verfügt über ein verantwortungsvolles Geschäftsmodell. Atos Origin ist ein Spezialist im IT-Outsourcing mit mehr als 20 Jahren Erfahrung. Um die nötige IT-Security für die gehosteten Daten seiner Kunden gewährleisten zu können, hält die in Essen beheimatete deutsche Tochtergesellschaft des Konzerns die Sicherungsmechanismen stets auf dem neuesten Stand der Technik. Jüngstes Projekt zur weiteren Optimierung der IT-Sicherheitsstrukturen war ein in Zusammenarbeit mit Hitachi Data Systems entwickeltes Konzept für ein effizientes Data Warehouse Backup. Hierfür entwickelten die Abteilung Global Services von Hitachi gemeinsam mit Atos Origin ein Verfahren zur rotierenden Spiegelung der Daten. Besondere Anforderungen stellte die Anbindung des Backups an die Schnittstelle des Data Warehouse. Nachdem der Kostendruck in Unternehmen nicht erst seit der jüngsten globalen ökonomischen Schieflage eine bestimmende Komponente ist, suchten viele Firmen bereits seit dem Platzen der New-Economy-Blase verstärkt nach Möglichkeiten zum IT-Outsourcing. Von diesem Trend konnte die im Jahr 2000 aus der französischen Atos und der niederländischen Origin entstandene Atos Origin bei der eigenen Geschäftsentwicklung profitieren – die Zeichen standen und stehen auf Wachstum: Zu den Kunden des IT-Dienstleisters zählen namhafte Firmen aus der Telekommunikationsbranche, dem Automobilbau sowie weitere bekannte Firmen aus verschiedenen Sektoren. Eines haben all diese Unternehmen gemeinsam – sie haben Atos Origin ihre IT anvertraut. Dies bedeutet jedoch, dass das Outsourcing-Unternehmen bei steigenden Datenmengen und trotz Wachstums jederzeit für den reibungslosen Ablauf aller zugesagten Leistungen geradestehen muss. Optimierung der Backup-Mechanismen Die ihnen übertragene Aufgabe nehmen die für die Rechenzentren in Ratingen und Essen zuständigen Mitarbeiter sehr ernst. „Die zu sichernden Data Warehouses haben zwar auf kurze Sicht keine vitale Funktion für unsere Kunden. Sie sind jedoch unverzichtbarer Bestandteil der langfristigen Strategieplanung und auch kurzfristiger taktischer Maßnahmen, zum Beispiel aus dem Bereich Marketing oder im Fall eines Mobilfunkanbieters bezüglich der Netzauslastung. Aus diesem Grund ist auch für den Bereich der Warehouses Hochver- 36 fügbarkeit die Maxime“, erläutert Jörg Backschues von Atos Origin die Bedeutung einer reibungslos und zuverlässig funktionierenden IT-Landschaft. „Deswegen sind wir immer auf der Suche nach Möglichkeiten, unsere Backup-Mechanismen weiter zu verbessern.“ Dabei vertraut Atos Origin nicht nur auf die eigenen Experten, sondern auch auf externe Spezialisten. Mit Hitachi Data Systems hat das Unternehmen einen Partner gefunden, der mehr als nur Technologien bietet, wie Backschues bestätigt: „Wir stehen in einer engen Kooperation auf Augenhöhe und vertrauen uns gegenseitig. Daher waren wir zum Beispiel auch in der Lage, das neue Design für unser Data Warehouse Backup gemeinsam zu entwerfen.“ Entkopplung von Datensicherung und Produktionsprozess Insgesamt galt es, ein stimmiges Backup-Konzept für das gesamte Datenvolumen von 120 Terabyte Daten zu definieren, von denen 40 Terabyte auf die Produktivdaten entfallen. Der Rest verteilt sich gleichmäßig auf eine doppelte Sicherung. Die Notwendigkeit, an dieser Stelle den Hebel anzusetzen, hat sich durch die zunehmend längeren Backup-Zeiten der alten Lösung ergeben: Mit den eingesetzten Tapes konnten die Sicherungen teilweise nur noch alle zwei Wochen durchgeführt werden, außerdem sank die Performance der Applikationen während des Sicherungsprozesses. Das Projektteam schrieb sich daher als Anforderung ins Lastenheft, ein wöchentlich stattfindendes Backup auf Band zu ermöglichen. Eine Ausla- Hitachi Data Systems | True Storage Concept | Nummer 17 gerung des Sicherungsprozesses in die Storage-Landschaft sollte zusätzliche Entlastung bringen – Ziel war es, Sicherung und Produktionsprozess der Daten zu entkoppeln. Die Storage-Infrastruktur bei Atos Origin erwies sich dabei nach Anschaffung einer Universal Storage Plattform (USP) von Hitachi Data Systems als den aktuellen Herausforderungen gewachsen. Die entscheidende Anforderung war demzufolge die Integration der Applikation in die Speicherlandschaft. Um dieser Notwendigkeit angemessen begegnen zu können, erstellte das Team um Jörg Backschues den Projektanforderungen entsprechend in Zusammenarbeit mit werden konnten – die Primärdaten sollten nicht verändert werden können. Somit war die größte Herausforderung nicht die Infrastruktur, sondern die Verknüpfung der Applikationen mit dem Unternehmensspeicher über die Anpassung der Schnittstelle. „Wir verstehen bekanntermaßen eine Menge von Storage – nicht umsonst sind wir Technologieführer bei der Controllerbasierten Speichervirtualisierung und werden auch als solcher wahrgenommen“, so Andreas Wagner weiter. „Wir wollen künftig erreichen, diese Wahrnehmung auch für unsere Services zu erhalten. Über das nötige Know-how verfügen wir.“ Die von beiden Unternehmen entwickelte Anpassung basiert auf dem Hitachi-Replication-Manager, einer Software zur Kontrolle der ShadowImage-Operationen für den Einsatz in offenen Systemen. Die Implementierung konnten die Experten unter Einhaltung aller gesetzten technischen Vorgaben innerhalb von drei Monaten bei nahezu völliger Aufrechterhaltung des Betriebs umsetzen. Die eigentliche Migrationsphase nahm nur ungefähr eine Woche in Anspruch. „Die reibungslose Zusammenarbeit mit dem Team der Global Services war der Garant für den Erfolg dieses Projekts“, bestätigt Backschues die ausgezeichnete Leistung des Projektteams von Hitachi Data Systems. Performance-Steigerung bei Reduzierung der Festplattenzahl Atos Origin Firmengebäude Hitachi Data Systems eine Anbindung an die Schnittstelle des auf einem Solaris-Betriebssystem laufenden Data Warehouse. „Die Anbindung musste mächtig genug sein, um das Management der Sicherung über Hitachi ShadowImage – einer heterogenen Software zur Replikation von Daten – übernehmen zu können“, so Andreas Wagner, Leiter der Global Services von Hitachi Data Systems. „Das Backup-Konzept sah eine 1:2 Spiegelung vor: Die 40 Terabyte Produktivdaten sollten im rotierenden Verfahren abwechselnd gespiegelt werden. Durch dieses Konzept ist die ständige Verfügbarkeit einer Sicherungsinstanz gewährleistet, auch wenn die Sicherung der Produktivdaten gerade läuft.“ Die Global Services wurden von Hitachi zur Umsetzung individueller Bedürfnisse von Unternehmen im Bereich strategischer IT-Maßnahmen etabliert. Diesem Credo folgend entwickelte das Projektteam die Anbindung an die DataWarehouse-Schnittstelle so, dass keine Daten überschrieben Hitachi Data Systems | True Storage Concept | Nummer 17 Dank der neuen Lösung ließ sich die Performance des Data Warehouse enorm steigern. Bemerkenswert ist dies vor allem, weil die Zahl der Festplatten im Vergleich zur alten Lösung reduziert wurde: Die insgesamt 120 Terabyte Nettospeicher verteilen sich nun auf eine geringere Anzahl von Hard Disks mit einer von 72 auf 146 Gigabyte erhöhten Kapazität, wobei die Performance trotz der Mehrbelastung für die einzelnen Platten stieg. Zudem ist die Gesamtlösung skalierbar und auf eine Ausweitung der Funktionalitäten ausgelegt. „Darüber hinaus können wir die Lösung bei vielen unserer Kunden einsetzen“, so Backschues. „Insbesondere beim Punkt Vorratsdatenspeicherung spielen die Data Warehouses eine wichtige Rolle. Daher war uns die Flexibilität für künftige Anforderungen sehr wichtig.“ Für die Vorratsdatenspeicherung bedarf es zum Beispiel einer dritten Speicherinstanz, die eine Verfügbarkeit von 99,999 Prozent erreichen muss. Die neue Backup-Struktur ist diesen Anforderungen bereits heute gewachsen – und sie gewährleistet zudem das, was alle Kunden von Atos Origin am meisten benötigen: Zuverlässigkeit bei niedrigen Kosten. 37 Lebensmittellogistik Natürliches speichern Naturkostspezialist Dennree setzt auf Hitachi Data Systems Bei Logistikexperten wie dem Naturkostgroßhändler Dennree müssen neben den Waren auch die Daten der Unternehmens-IT sicher „gelagert“ werden – eine effiziente und skalierbare Speicherumgebung ist das technische Rückgrat der Qualität der vertriebenen Produkte. Dank einer virtualisierten Umgebung mit Hardware von Hitachi Data Systems ist Dennree für das geplante Unternehmenswachstum gut vorbereitet. Das zugehörige Konzept inklusive Ausfallsicherheit erarbeitete das Team gemeinsam mit dem Lösungspartner EDV-BV. Die Erfolgsgeschichte von Dennree beginnt 1974 als EinMann-Unternehmen: Thomas Greims, der auch heute noch Geschäftsführer ist, baute in jenem Jahr ein kleines Logistiknetz für die Chiemgauer Demeter-Bauern für Verkaufsstellen in München auf. 35 Jahre später verfügt das Unternehmen über acht Regionallager und Verkaufsniederlassungen und eine eigene Zentrale in Österreich. 180 LKW übernehmen den Transport der Naturkostwaren, die auf einer Fläche von 28.000 Quadratmetern gelagert werden. Seit Ende des Jahres 2000 betreibt Dennree auch einen eigenen Online-Shop. Die Unternehmens-IT muss daher straff organisiert und klar strukturiert sein, um das Geschäftsmodell zu unterstützen: Kunden müssen bestellte Ware schnell und zuverlässig erhalten. EDV-BV Die EDV-BV steht als unabhängiger Lösungspartner und Systemintegrator im Rampenlicht in der Oberpfalz. Wir setzen auf innovative Technologien und strategisch wichtige Hersteller. Themen wie Virtualisierung, Konsolidierung, Energiekosten, der Umgang mit großen Datenmengen, Sicherheit und Disaster Szenarien stehen für uns ganz oben. Bei der Realisierung ganzheitlicher ITLösungen und komplexer Projekte übernehmen wir die Umsetzung. Profitieren Sie von unserem tiefen fachlichen Know-how und lassen Sie sich anstecken von unserer Motivation und unserem Spaß an der Arbeit. Teamwork bei der EDV-BV bewirkt, dass ganz gewöhnliche Menschen ganz außergewöhnliche Ergebnisse erzielen. Die Wünsche der Mitarbeiter und Kunden verlieren wir dabei nie aus den Augen. Weitere Informationen unter: www.edv-bv.de 38 Virtualisierung ist Dreh- und Angelpunkt Anfang 2008 zeichnete sich ab, dass die vorhandene Infrastruktur nicht mehr den Bedürfnissen des Unternehmens entsprach, sowohl was die Leistungsfähigkeit als auch die Handhabung anging. Darüber hinaus stand bei Dennree im Lastenheft, eine hochverfügbare Umgebung aufzubauen. „Wir haben uns entschlossen, einen tiefgehenden Strategiewechsel bei unserer Unternehmens-IT einzuleiten“, bestätigt Rainer Porzel, CIO bei Dennree. „Kerngerüst ist eine modernisierte virtuelle Speicherumgebung. Zu diesem Zweck haben wir zwei Universal Storage Platforms (USP VM) beschafft. Aus unserer Sicht ist die dort realisierte Virtualisierung auf Controller-Ebene die effektivste und leistungsfähigste.“ Ein festplattenbasiertes System – ebenfalls in zweifacher Ausführung – zur Speicherung und Archivierung von file-basierten Daten komplettiert die neue Storage-Umgebung bei Dennree. Rechenzentrum mit doppelter Power Im August 2008 begann die Migration nicht geschäftskritischer Daten und Systeme wie Exchange und einiger weiterer Datenbanken. Im Verlauf der Transitionsphase errichtete Dennree mit Unterstützung von EDV-BV die Struktur für ein weiteres Rechenzentrum im selben Gebäude. Die zweite USP VM kommt hier zum Spiegeln der Daten zum Einsatz. Eine Herausforderung war es, die virtualisierte Umgebung des alten Systems auf die USP VM umzuziehen. „Es waren einige Anpassungen der vorhandenen VMware-Umgebung nötig. Zudem haben wir die Systeme erweitert und hinsichtlich Hochverfügbarkeit optimiert“, erklärt Alexandra Reis, Geschäftsführerin bei EDV-BV. „Zur Kommunikation zwischen Storage und VMware setzen wir den Storage Replication Adapter (SRA) von Hitachi Data Systems ein.“ Hitachi Data Systems | True Storage Concept | Nummer 17 Mit Hilfe des Site Recovery Manager (SRM) ist nun ein nahezu unterbrechungsfreies Wechseln zwischen den beiden Rechenzentren möglich. Dennree nutzt diese Option aber nicht ausschließlich, um Failover-Prozesse starten zu können und damit Hochverfügbarkeit zu gewährleisten. Die IT-Strategie ist auf ein Rechenzentrum konzentriert, durch die doppelte Rechenleistung erreicht das Unternehmen aber einen signifikanten Gewinn bei der gesamten Performance. Rechenzentrum 1 Rechenzentrum 2 TCP/IP Verbindung MS-VMManager-3 MS-VMManager-2 VM VM VM VMPool1 VM VM VM VM VMPool2 VM VM VM VM VM VMPool6 VM USP VM S/N: 25935 VM VM VMPool1 VM VM VMPool5 VM VM VM VM VMPool4 VM VM VM VM VM-Host-1 VM-Host2-1 VM-Host-2 VM-Host2-2 VM-Host-3 VM-Host2-3 VM-Host-4 VM-Host2-4 VM-Host-5 VM-Host2-5 Spiegelung per True Copy VM USP VM S/N: 25979 „Bildlich gesprochen haben wir einen zweiten Motor eingebaut“, erklärt Porzel. „Der springt nicht nur an, wenn der andere Motor ausfällt, sondern auch, wenn wir schneller fahren wollen oder müssen.“ Dennoch legt Dennree sowohl auf Desaster Recovery als auch Failover größten Wert. Dementsprechend konzipierte das Team die neue StorageUmgebung so, dass auf Knopfdruck innerhalb kürzester Zeit ein Schwenk von einem Rechenzentrum auf das andere möglich ist: Halbstündlich führt das System zwischen 6 und 20 Uhr automatisch Snapshots aus – im Fehlerfall wird der letzte Snapshot zurückgespielt; die Administratoren können dank des SRM mit einem einzigen Knopfdruck die etwa 60 virtuellen Maschinen auf den verbliebenen fünf Servern neu starten. Thin Provisioning und Striping ergänzen Virtualisierung Das Gesamtkonzept sah überdies vor, auch Thin Provisioning einzuführen und somit die Virtualisierung zu ergänzen. „Virtualisierung ist nicht das Ziel, sondern nur ein Wegstück. Das eigentliche Ziel ist eine agile IT-Infrastruktur. Um dieses Ziel zu erreichen, sind daher weitere Schritte wie Thin Provisioning nötig“, erläutert Siegmund Kaminski, Director Commercial Hitachi Data Systems | True Storage Concept | Nummer 17 Sales bei Hitachi Data Systems. „Thin Provisioning ermöglicht, die Speicherzuweisung an die Host-Systeme unabhängig vom tatsächlich vorhandenen physikalischen Speicherplatz durchzuführen. Dadurch kann mehr Speicher an die Hosts verteilt werden, als tatsächlich in Hardware-Form vorhanden ist. Es wird also mehr Speicher angezeigt, als de facto vorhanden ist – die Auslastung steigt und der Speicher kann später und bedarfsgerecht beschafft werden.“ Dabei ist die Größe des Speichers schon jetzt trotz Thin Provisioning mit einem relativ hohen Puffer versehen, da Dennree über ein sehr hohes Datenwachstum verfügt. Alle zugewiesenen LUNs können zudem über Striping parallel den gesamten angegebenen Speicherpool nutzen. In Kombination verfügt das Rechenzentrum so nicht nur über eine hohe Leistungsfähigkeit, sondern auch über großzügige Reserven. Das Ergebnis dieser Maßnahmen kann sich sehen lassen: Die benötigte Zeit für Auswertungen und Berichte der Datenbanken konnte Dennree von zehn Stunden auf etwa 45 Minuten senken. IT-Business-Alignment: Zuverlässige Lieferung dank IT Insgesamt verfügt Dennree über etwa 15 Terabyte hochverfügbaren Speicher. Rainer Porzel zeigt sich zufrieden: „Wir konnten gemeinsam mit Hitachi Data Systems und EDV-BV das gesamte Projekt in nur etwa drei Monaten abwickeln. Alles verlief wie geplant.“ Bei allen technischen Möglichkeiten und Sicherungsvorkehrungen ist Porzel dennoch froh, dass es bisher noch kein Desaster-Szenario gegeben hat. „Jede Kommune und jede Stadt hat eine Feuerwehr. Aber genau so ist jeder froh, wenn es nicht brennt. Wenn unser Rechenzentrum steht, stehen auch unsere LKWs. Und 1.700 Kunden erhalten ihre bestellte Ware nicht.“ Dank der redundanten Architektur und der integrierten Failover-Mechanismen werden die Abnehmer von Dennree auch in Zukunft ihre Waren pünktlich und frisch geliefert bekommen – vom Chiemgau bis an die Nordsee. 39