Das Kunden-Magazin von Hitachi Data Systems

Transcription

Das Kunden-Magazin von Hitachi Data Systems
Nummer 17
Das Kunden-Magazin von Hitachi Data Systems
Harmony
Trust
Respect
Pioneering
Spirit
Challenges
Sincerity
Fairness
Honesty
Integrity
Philosophie
Seit der Firmengründung im Jahr 1910 handelt Hitachi getreu der unternehmensweiten Philosophie, einen gesellschaftlichen Beitrag durch Technologie zu leisten. In den rund 100 Jahren des Bestehens von Hitachi haben sich die Welt und
das gesellschaftliche Leben enorm verändert. Unseren Pioniergeist, der auf Harmonie und Aufrichtigkeit beruht, haben
wir jedoch nie verloren.
»Wa«
Harmonie
»Makoto«
Aufrichtigkeit
Hitachi bewegt sich ständig nach vorn.
Das Unternehmen setzt dabei auf offene
und ausgiebige Diskussionen. Sobald wir
uns auf ein Ziel verständigt haben, gehen
wir dieses als geschlossene Einheit an.
Der Begriff Harmonie lässt sich auf zweierlei Weise interpretieren; so bezieht er sich
zum einen auf die Harmonie innerhalb und
zwischen den Unternehmen der Hitachi
Group und zum anderen auf das Verhältnis
zwischen der Hitachi Group und der Gesellschaft im Allgemeinen.
Als Mitglied der Weltgemeinschaft strebt
jeder Mitarbeiter bzw. Funktionsträger von
Hitachi danach, jederzeit aufrichtig und integer zu handeln. Unsere Handlungen werden nicht von kurzfristigen Gewinnen oder
Verlusten beeinflusst, sondern basieren auf
ethisch-moralischen Entscheidungen.
» K a i t a k u s h a - S e i s h i n « Pioniergeist
Um die fundamentalen Herausforderungen
der Weltgemeinschaft zu bewältigen, ist
Hitachi bestrebt, der Zeit immer einen
Schritt voraus zu sein und so die Erwartungen der Gesellschaft und unserer Kunden durch ständige Innovationen zu erfüllen.
Editorial
Sehr geehrte Leserinnen und Leser,
2010 feiert Hitachi Data Systems das hundertjährige Bestehen des Hitachi Mutterkonzerns. Wir
sind sehr stolz, Mitglied dieser großen Hitachi Familie zu sein. Hitachi Ltd. hat in Forschung und
Entwicklung Industriegeschichte geschrieben. In 100 Jahren wurden Technologien von Weltrang
zur Marktreife gebracht. Doch selbst als Weltkonzern blieb Hitachi immer den Werten seiner
frühen Anfänge verpflichtet.
Ein hohes ethisches Wertesystem zeichnet das Unternehmen während all dieser langen Zeit aus.
Es prägt nicht allein den hohen Qualitätsanspruch an die eigenen Produkte, sondern auch eine
Unternehmenskultur, die einen respektvollen Umgang pflegt und die guten Beziehungen zu
Mitarbeitern, Partnern und Kunden achtet.
Horst Heftberger
Geschäftsführer
Hitachi Data Systems Österreich
Unser Kundenmagazin berichtet Ihnen in dieser Ausgabe daher nicht nur von den Pionierzeiten
Hitachis und ihren vielen Entwicklungserfolgen. Es erzählt auch die Geschichte eines japanischen
Weltkonzerns, der mit technischem Sachverstand, hohem wissenschaftlichen Engagement und
großer sozialer wie ökologischer Verantwortung agiert, der auch wir uns verpflichtet fühlen.
Unsere Lösungen und Services im Storage zielen nicht umsonst auf die besonderen Anliegen
unserer Unternehmenskunden. Wir bieten weltweit führende Technologien wie etwa zur Virtualisierung im Storage. Wir entwickeln mit den Solid State Disks den Speicher der kommenden
Generation und wir arbeiten an neuen Konzepten wie dem Cloud Computing. Auch davon
berichtet Ihnen unser Magazin.
Aufgrund ihrer Marktführerschaft übernimmt die Hitachi Data Systems längst auch innerhalb des
Hitachi Konzerns weltweite Verantwortung. In der strategischen Ausrichtung Hitachis für die
Herausforderungen der Zukunft etwa bildet der Bereich Data – neben Automotive und Logistik –
eine der drei tragenden Säulen der operativen, wissenschaftlichen und technologischen Orientierung Hitachis.
Gemeinsam mit unseren Kunden und Partnern werden wir uns den vielen vor uns liegenden
Zukunftsaufgaben stellen, gemeinsame Wege finden und in diesem Jahr auch 100 Jahre
Entwicklungsarbeit von Hitachi gemeinsam feiern.
Viel Spaß bei der Lektüre unseres Kundenmagazins wünscht Ihnen
Ihr Horst Heftberger
Hitachi Data Systems | True Storage Concept | Nummer 17
3
True Storage Concept Nr. 17
Infos auf: www.hitachidatasystems.de
Thema
Editorial
100 Jahre Hitachi
3
Hu knows
Speicher-Prioritäten für 2010
6
Von der Platte geputzt?
SSD wird als Speichertechnologie
der Zukunft gehandelt
10
Technologie
Pioniergeist und
Industriegeschichte
100 Jahre Hitachi – Innovationen
eines Weltkonzerns mit Ambition
Von Wolkenmachern und
Cloud-Enablern
14
Von der Bandmechanik
zur Virtualisierung
Heinz-Peter Dörper und
Dr. Georgios Rimikis
schwelgen in alten Zeiten
Konsolidierung und Virtualisierung
gehen Hand in Hand
26
Der Speicher aller Klassen
Hitachi Content Platform für
agile Clouds
30
22
Impressum
Herausgeber: Hitachi Data Systems GmbH Deutschland
Redaktion: Jürgen Krebs und Barbara Götz, Hitachi Data Systems GmbH
Konzept, Text und Lektorat: redACtionsbureau Heinz Bück und Hitachi Data Systems GmbH
Autoren: Heinz Bück; Stefan Karl; Uwe Kemmer; Dr. Georgios Rimikis; Hu Yoshida; Heinz-Peter Dörper, Dirk Walde; Andreas Wagner; Hitachi Data Systems.
Die Firmen sind für die Inhalte der jeweiligen Artikel verantwortlich.
Grafikdesign: simplicate GmbH, Agentur für Kommunikation, Stuttgart
Fotos: Hitachi Data Systems, Kurt Aebi, Atos Origin, Dennree sowie Stockfotos
Copyright: Teilweiser oder vollständiger Abdruck unter Angabe der Quelle gestattet.
Hitachi Data Systems ist im amerikanischen Amt für Patente und Handelsmarken als Handelsmarke eingetragen. Hitachi NAS 3080, Hitachi NAS 3090, HNAS – powered by BlueArc ®,
Hitachi Content Platform, Hitachi Content Archive Platform, Thunder 9500V, Hitachi Universal Storage Platform, Universal Storage Platform V, Universal Storage Platform VM, Hitachi Lightning 9900, Hitachi Lightning 9900 V, Hitachi Storage Replication Adapter, Hitachi Dynamic Provisioning, Hitachi Network Controller, AMS200, AMS2100, AMS2300, AMS2500, WMS100,
SMS100, Hitachi TrueCopy, Hitachi Dynamic Link Manager, Hitachi Tiered Storage Manager, Hitachi Adaptable Modular Storage, Hitachi IT Operations Analyzer, Hitachi Storage Resource
Manager, Hitachi Data Discovery Suite, Hitachi Storage Services Manager, Hitachi Tuning Manager, Hitachi ShadowImage, USP Performance Monitor, Hitachi Resource Manager, Hitachi
Universal Replicator, Hitachi Universal Volume Manager, Hitachi Data Protection Suite, Hitachi Business Continuity Manager, Hitachi High Availability Manager und Hitachi Virtual Partition
Manager sind Handelsmarken von Hitachi Data Systems. Andere Handels- und Dienstleistungsmarken, die in dieser Kundenzeitung erwähnt werden, sind Marken anderer Unternehmen.
© 2010 ∙ Printed in Germany ∙ KU 7.0 – 04.10
4
Hitachi Data Systems | True Storage Concept | Nummer 17
Events auf: www.my-hds.de/events
Technologie
Anwenderberichte
Wissen statt fühlen
Managed Services schaffen
optimale und verlässliche
Lösungen
Trends
Krankenhaus-Daten voll
im Griff
32
St. Martinus Hospital in Olpe
Natürliches speichern
34
Naturkostspezialist Dennree
setzt auf Hitachi Data Systems
38
Hochverfügbarkeit für Daten
Atos Origin vertraut auf Services
von Hitachi Data Systems
36
[email protected]
www.hds.de
[email protected]
www.hds.com/ch
[email protected]
www.hds.com/at
Frankfurt
Hitachi Data Systems GmbH
Im Steingrund 10
63303 Dreieich-Buchschlag
T +49 (0)6103 804-0
F +49 (0)6103 804-1111
Dübendorf
Hitachi Data Systems AG
Kriesbachstrasse 3
8600 Dübendorf
T +41 (0)44 8026464
F +41 (0)44 8203940
Wien
Hitachi Data Systems GmbH
Office Campus Gasometer
Guglgasse 17–19
Eingang Erdbergstraße 234
1110 Wien
T +43 (1)245 82-0
F +43 (1)245 82-250
Hitachi Data Systems | True Storage Concept | Nummer 17
5
Speicher Management
Hu knows:
Speicher-Prioritäten für 2010
HU YosHida
Chief Technology Officer
Hitachi Data Systems
Während viele Branchen auf den angekündigten globalen Wirtschaftsaufschwung für das Jahr
2010 warten, steigt die Wachstumsrate ihres Speicherbedarfs weiterhin an. Die Notwendigkeit
kosteneffizienter Storage-Infrastrukturen wächst. Zwischen unliebsamen Trends und knappen
Budgets stehen Entscheidungen an.
IT-Abteilungen sehen sich tagtäglich mit der Aufgabe konfrontiert, die exponentielle Zunahme von Daten in ihrem Unternehmen zu verwalten. Den Verantwortlichen steht derzeit oft nur
ein sehr begrenztes finanzielles Budget zur Verfügung. Das
erschwert die Modernisierung und Anschaffung jener Technologien, die gerade helfen würden, die Kosten zu senken. Doch
anstatt wie bisher nur immer noch mehr Speichersysteme
hinzuzufügen, sollten die Budgets genutzt werden, um die
vorhandenen Investitionen voll auszuschöpfen. Die bestehende Infrastruktur muss kosteneffektiver und zukunftsorientierter
eingesetzt werden. Im Folgenden sind für IT-Experten und
Entscheider einige der wichtigsten Punkte aufgeführt, die bei
Investitionen im laufenden Jahr beachtet werden sollten.
Virtualisierung des Datenzentrums
Virtualisierung ist ein entscheidender Vorreiter einer zukünftigen dynamischen Infrastruktur. Die Virtualisierung des
Datenzentrums bietet viele Vorteile, aber auch etliche Herausforderungen, die bewältigt werden müssen. Insgesamt
gesehen wird der Energieverbrauch gesenkt. Bei einzelnen
Komponenten variiert der Verbrauch jedoch. Es existieren
zwar weniger Server, jeder einzelne Server wird aber immer
wichtiger und er stellt höhere Anforderungen an die Speicher-
These: Storage Reclamation Service hebt
­verborgene Schätze
Das Ergebnis eines Health-Checks zur Speicherauslastung
kann ernüchternd sein. Während viele glauben, ihre vorhandenen Speicherressourcen mit 80 Prozent auszulasten, beträgt
die effektive Nutzung de facto kaum 40 Prozent. Ein Storage
Reclamation Service macht ungenutzte Speicherkapazitäten
wieder verfügbar und hebt verborgene Schätze.
6
ressourcen als je zuvor. Zwar können Anwendungen nach
Belieben dynamisch umverteilt werden, doch auch das muss
von den Speicherressourcen unterstützt werden. Und auch
wenn der Gesamtumfang des Datenzentrums kleiner wird,
kann die Effizienz dennoch suboptimal ausfallen. Vernünftige
Skepsis ist durchaus geboten. Doch es gibt geeignete und
kostengünstige Möglichkeiten, um diese Herausforderungen
zu bewältigen und die Effizienz der Datenzentren dabei zu
verbessern.
Speicher-Belastung beachten
Da mehr Arbeitslasten auf Multicore-Prozessoren virtualisiert
werden und Netzwerk-Bandbreiten mittlerweile auf 8 Gbps
bei Fibre Channel (FC) beziehungsweise bzw. 10 Gbps beim
Ethernet angestiegen sind, erhöht sich auch die Belastung der
zugrunde liegenden Speicher-Infrastruktur. Sowohl hinsichtlich der Kapazität als auch angesichts der Performance. Es ist
daher wichtig, dass die Speicher-Infrastruktur die virtualisierte
Umgebung unterstützt und dass sie sowohl horizontal als
auch vertikal skaliert werden kann.
Ein vertikal skalierbares Speichersystem, das mehr
Rechenleistung, Anschlüsse, Cache und Festplattenplätze für
eine weitreichende Verteilung der Performance zur Verfügung
stellt, entspricht den Anforderungen der Lastspitzen von
großen Servervirtualisierungen. Die horizontale Skalierbarkeit
indessen wird benötigt, um die Kosten zu senken und
Betriebsstörungen von neu hinzugefügter Kapazität oder bei
Upgrades einer neu installierten Technologie zu vermeiden.
Für 2010 erwarten wir eine steigende Nachfrage nach solchen
Speichersystemen, weil nur sie den wachsenden Ansprüchen
an schnellere Netzwerke, Prozessoren und virtuelle Betriebssysteme wie VMware und Hyper V wirklich gerecht werden.
Hitachi Data Systems | True Storage Concept | Nummer 17
Cloud Storage
Cloud Computing wird oft als Metapher für das Internet
verwendet. Cloud Storage dient dazu, die Komplexität der
IT-Infrastruktur zu verbergen, und ermöglicht den Zugriff auf
Speicherkapazitäten nach dem Motto: „pay as
you grow”. Cloud wird 2010 verstärkt wahrgenommen werden,
wobei private und öffentliche
Cloud Service Provider
den Fokus auf Elastizität,
Betriebssicherheit,
Mandantenfähigkeit und Sicherheit
richten werden. Der
Schlüssel zum Erfolg,
wie ihn zum Beispiel die
früheren dot.com Service
Provider erlebten, liegt für
Cloud Provider darin, ihre
Ressourcen wirksam einsetzen zu können. Eine wesentlich effizientere Verwaltung der
Speichergröße im Vergleich
zu ihren Endanwendern ist
vonnöten. Speichervirtualisierung und die Möglichkeit
zum dynamischen vertikalen
und horizontalen Skalieren
sind dabei die wesentlichen
Erfolgsfaktoren. Zu erwarten ist daher ein zunehmender
Einsatz von Cloud Storage, wenn zentrale Forderungen wie
etwa Sicherheit, Mandantenfähigkeit und Zahlungsmodelle
verbessert werden sollen.
Automatisierte Tiered Storage
Da die Unterschiede bei Preis und Performance immer weiter
auseinandergehen, wird der Einsatz von Tiered Storage mit
der Einführung von Flash-Laufwerken und TB SATA Disks
immer attraktiver. Die Verwendung von automatisiertem Tiered Storage Management verhindert den enormen Overhead
durch das Bewegen und Kopieren von Daten sowie die Kosten von teuren Disk-Laufwerken, da nur geringe Speicherkosten für inaktive Daten und Kopien anfallen und der Gebrauch
vom High-Performance Tier 1 Storage optimiert wird. Viele
IT-Abteilungen haben sich für die Automatisierung des Tiered
Storage Managements entschieden, welches auf Policies
basiert, um so eine höhere Wirtschaftlichkeit und Effizienz
Hitachi Data Systems | True Storage Concept | Nummer 17
zu erreichen, ohne festgesetzte Service-Levels im Betrieb zu
vernachlässigen. Erst wenn das automatisierte Tiered Storage
Management sowohl mit Speichervirtualisierung als auch
mit dynamischem Thin Provisioning kombiniert wird, werden
größtmögliche Kostensenkungen und deutlich geringere Betriebskosten erreicht werden können.
Managed Services
Um Datenspeicher zu verwalten, benötigt man erfahrene
Vollzeit-Mitarbeiter. Früher war ein Pool aus betriebsinternem Personal verfügbar, um diese vielen Routinearbeiten zu
erledigen. Dies ist heutzutage angesichts hoher Personalkosten nicht mehr möglich. In den meisten IT-Abteilungen
werden Provisionierung, neue Applikationen oder das SANPerformance Reporting nun mithilfe von Remote Managed
Services verwaltet. Da der Anspruch in diesem Bereich weiter
wächst, sind neue Angebote zu erwarten, die eine effiziente
und kosteneffektive Alternative für die rundum verwalteten, 24
Stunden laufenden Real Time Applikationen und ihrer zugehörigen Datenspeicher darstellen. Die Nutzung solcher Dienste
kompensiert zugleich interne Wissenslücken und vermeidet,
dass erfahrene Mitarbeiter aus umsatzstarken Projekten
herausgenommen werden müssen, um interne administrative
Aufgaben zu übernehmen, weil sonstiges Fachwissen fehlt.
Zukunftsfähige umweltgemäße IT
IT-Abteilungen sind ständig ausgelastet, wenn nicht gar überlastet, besonders durch die zusätzlichen Aufgaben, die ihnen
als Folge der Wirtschaftskrise angetragen wurden. Aber Geschäftsleitungen sollten vorsichtig sein, dies als Rechtfertigung
dafür zu sehen, dass die Dinge doch auch so recht gut liefen,
oder entscheidende Projekte auf die lange Bank zu schieben.
Zukunftsfähige IT-Praktiken bieten viel zu große Chancen, um
Werte zu sichern und dem Unternehmen Wettbewerbsvorteile
zu verschaffen. In 2010 wird eine größere Rationalisierung von
Projekten im Bereich Green IT stattfinden, die mehr Unterstützung von Unternehmensprogrammen erhalten.
Eine neue Position wird in den IT-Abteilungen entstehen,
die Funktion eines um Nachhaltigkeit bemühten IT-Managers,
der dafür verantwortlich ist, Green-IT-Programme zu identifizieren, zu realisieren und zu verwalten. Denn Datenzentren
werden mehr auf den Energieverbrauch achten müssen, mit
einer genaueren Überprüfung des festgelegten Energieverbrauchs. Vom technischen Standpunkt aus betrachtet folgt
daraus eine Verlagerung des Augenmerks auf Server,
7
Speicher und die Virtualisierung des Datenzentrums sowie auf
Cloud Computing und Cloud Storage.
Sicherheit
IT-Manager müssen einen Kompromiss zwischen geringeren
Sicherheitsrisiken und der Erstellung der bestmöglichen In­
frastruktur hinsichtlich Datendurchsatz, Verfügbarkeit, Skalierbarkeit, Kosten und Komplexität finden. Jedes Unternehmen
muss seine eigenen Pro- und Contra-Entscheidungen treffen,
die einerseits auf ihre eigene Situation zugeschnitten sind.
So stellt sich zum Beispiel stets aufs Neue die Frage, ob die
verwendete Infrastruktur den gesetzlichen und regulativen
Anforderungen oder der gebotenen Sorgfaltspflicht entspricht.
Andererseits steht die Sicherung geschäftskritischer Daten
immer ganz hoch oben an. IT-Manager, die Investitionen in
Speichersysteme oder den Einsatz von Fremddienstleistungen für das Jahr 2010 planen, müssen unternehmensbezogen
ihre Prioritäten setzen und die Hauptanliegen einfordern,
etwa die Vertraulichkeit der Daten, den Datenschutz, das
Löschen von Informationen auf temporär belegten Speichermedien oder das datenschutzkonforme, sichere Löschen von
Festplatten.
These: Rationelle Archivierung schafft
Produktivität
IDC schätzt, dass Inhaltsdaten mit einer jährlichen Zuwachsrate von 121% den größten Wachstumsanteil bei der Datenhaltung einnehmen. Dies ist leicht nachzuvollziehen. Denn
diese Daten werden von Jahr zu Jahr mehr und mehr. Zusätzlich dazu können 60 bis 80% der strukturierten und unstrukturierten Daten in einem Datenzentrum als veraltet gelten. Sie könnten demnach in ein Datenarchiv verschoben
werden, allein um die verarbeiteten Daten zu reduzieren, die
tagtäglich verwaltet und verwahrt werden müssen.
Ethernet Konvergenz (FCOE/DCIB)
Die Industrie entwickelt sich immer mehr zu einem dynamischen Infrastrukturnetzwerk. Verstärkt werden darin Server
eingesetzt werden, auf denen jeweils mehrere VMs laufen
und die hohe Bandbreiten-Verbindungen erfordern, um stabil
mit virtuellen Speichern und virtuellen Netzwerken in Verbindung zu kommunizieren. Mit der Zeit bringt dies folgende
Vorteile: Geringere Kosten durch den erhöhten Einsatz von
8
Server, Speicher und Netzwerk sowie von zusammengelegten
Strukturen werden begleitet durch geringere Verkabelung und
Konsolidierung von HBAs und NICs. Arbeitsabläufe verringern
sich durch die erhöhte Auslastung der
Infrastruktur bei geringerem Energieverbrauch.
Die Umsetzung der
Verbindung von Server mit
Speicher durch FC oder
Ethernet wird zunehmen,
je geringer der Preis für
CNAs und 10 Gbps
Infrastrukturen wird. Zu
erwarten ist eine Umsetzung auf Speicherseite
durch neue Industrie-Standards, die Multipathing und
Netzwerk-Auflockerungen
ermöglichen. Es existieren
ebenso hohe Investitionen in
Fibre Chanel Infrastrukturen, die
auf 8 Gbps FC verteilt werden
können. Da die Verteilung auf
8 Gbps FC mit weniger Betriebsunterbrechungen verbunden ist
als die Verteilung auf 10 Gbps FCoE, steht jedoch zu erwarten, dass die Verbreitung von FCoE auf Speicherseite länger
brauchen wird.
Performance mit Flash oder SSD
Auch wenn flash-basierende Laufwerke im Vergleich zu gängigen Festplattenlaufwerken als unerschwinglich gelten, bieten
sie doch große Vorteile bei der Performance, vor allem eine
sehr geringe Wartezeit und sehr schnelle I/Os. Sie sind zudem
auch besonders energieeffizient. Es ist zu erwarten, dass
mehr flash-basierende Technologien in die Lösungsportfolios
integriert werden, da das Bewusstsein der Anwender sich
schärft und der Bedarf wachsen wird. Jedoch sollte vor der
Übernahme auf die erhöhte Datensicherheit durch Verschlüsselung bei SSD-Laufwerken geachtet werden, bevor weitere
Schritte veranlasst werden.
Content Archive Platform
Obwohl Inhaltsdaten der am schnellsten wachsende Datentyp sind, ist es aufgrund ihrer statischen Beschaffenheit am
Hitachi Data Systems | True Storage Concept | Nummer 17
einfachsten, diese zu verwalten. Wenn sie in einer Content
Archive Platform aufgenommen wurden, ist ein Backup nicht
nötig, solange man mindestens zwei Kopien besitzt und die
Lebensdauer automatisch verwaltet werden kann. Danach können sie indiziert werden und sind somit immer
noch im direkten Zugriff, komprimiert, dedupliziert
und auf günstigen Disks mit hoher Kapazität
gespeichert, während eine Verschlüsselung
weiterhin für die Datensicherheit sorgt.
Für diesen am schnellsten wachsenden Datentyp muss eine Content
Platform in der Lage sein, auf zig
Petabytes zu skalieren und mehrere Datenformate zu unterstützen. Daher ist eine Nutzung von
Archiv-Plattformen zu empfehlen, die genau diesen Ansprüchen gerecht werden.
Dynamisches
Provisionieren
Das beste Einzeltool zur Senkung
der Betriebskosten ist das Dynamic
Provisioning. Thin Provisioning à la
Hitachi verhindert die Verschwendung von
Investitionen durch unnötig belegten oder
ungenutzten Speicherplatz. Es reduziert die
Kosten, die beim Verschieben und Kopieren
von großen Datenträgern entstehen, und
stellt bis zu 40 % und mehr Kapazität von
existierenden großen Datenträgern bereit.
Verringert das Provisioning die Speicherung
von Stunden auf Minuten, so erleichtert
zugleich das Wide-Striping diese Prozesse
spürbar. Die Performance wird erhöht,
weil der I/O auf mehrere Festplattenplätze
verteilt wird.
In 2010 gilt es, die Herausforderungen
anzunehmen, aus vorhandenen Ressourcen
kosteneffiziente Storage-Infrastrukturen
aufzubauen. Ungeachtet der knappen
Budgets stehen vielerorts dringend Entscheidungen an und die sollten mit Blick auf die
Zukunft Energie und Geld sparen. Die Technologien sind vorhanden.
Hitachi Data Systems | True Storage Concept | Nummer 17
9
Thema
Von der Platte geputzt?
SSD wird als Speichertechnologie der Zukunft gehandelt. Kann und sollte
sie HDDs wirklich verdrängen? Im Enterprise Storage jedenfalls sehen die
technologische Entwicklung wie auch Marktprognosen sehr differenzierte
Einsatzmöglichkeiten für beide.
Mit dem ersten Auftreten der Solid State Disks
in Notebooks und erst
recht der SSD-Laufwerke
in Server- und StorageAnwendungen wurde
vorlaut das nahe Ende der
Festplatte verkündet. Die
Vorteile der auf FlashSpeicher basierten SSD
liegen auf der Hand: keine
beweglichen Teile mehr
und daher auch kein Risiko
eines mechanischen Ausfalls. Hinzukommen hohe
Solid State Disk (SSD)
Datentransferraten und extrem kurze Zugriffszeiten.
Das klingt verlockend und
auf den ersten Blick erscheinen diese Vorteile wie das sichere
Todesurteil für die klassischen Aufzeichnungsverfahren auf
magnetischen Datenträgern. Doch werden beide Speichertechnologien – HDD und SSD – in den kommenden Jahren
gewiss ihre Berechtigung haben und behalten, je nach Art der
Anwendung.
These: HDD und SSD werden sich ideal ergänzen!
Hitachi Data Systems unterstützt mit ihren Speichersystemen
USP V/VM und der AMS2000 Familie bereits die SSDs, vor
allem um spezielle Performance-Anforderungen zu erfüllen.
Nicht umsonst wurde genau deshalb in der AMS2000 eine
SAS-Architektur gewählt. Der Trend zu Performance ist aber
auch in der Plattenentwicklung zu sehen.
10
Uwe Kemmer
Customer Support Engineer
Hitachi Global Storage
Technologies
SSD im Enterprise-Segment
Die Besonderheiten des Consumer-Marktes sollen hier außer
Acht bleiben. Bei bestimmten Anwendungen hat der FlashSpeicher die Festplatte tatsächlich schon komplett verdrängt,
etwa bei den MP3-Playern. Andererseits spielen SSDs beim
klassischen PC wohl auch in den nächsten Jahren sehr wahrscheinlich keine gravierende Rolle. Doch uns interessiert hier
vielmehr das Enterprise Segment und die Frage, in welcher
Anwendung der Einsatz von SSDs wirklich Sinn macht und
wann der Festplatteneinsatz die größeren Vorteile bietet. Wir
werden sehen, dass die Festplatte im Enterprise-Einsatz auch
die nächsten Jahre noch weiterhin in großen Stückzahlen
verwendet werden wird. Daher ist es sinnvoll, einen Blick in
die Zukunft zu werfen, um zu sehen, welches Interface und
welcher Formfaktor sich bei Festplatten durchsetzen wird und
um welche Rotationszahlen es sich dabei dreht.
Gesamtspeichermarkt im Fluss
Wenn man den Gesamtspeichermarkt betrachtet, so ist zu
erkennen, dass der klassische Festplattenmarkt stagniert,
der Umsatz in den nächsten fünf Jahren jedoch weiterhin auf
einem relativ konstanten hohen Niveau bleiben wird. Dies
wird natürlich auch von neuen Anwendungen wie externen
Festplatten oder dem Festplatteneinsatz bei Windows CE
Anwendungen getrieben, wie etwa den digitalen Videorekordern, die einen großen Anteil am Gesamtmarkt haben. Das
Segment mit dem größten Umsatzwachstum jedoch stellt die
Solid State Disk dar, die bei sinkenden Preisen und steigenden Kapazitäten in immer mehr Anwendungen eingesetzt
werden wird.
Den genannten Vorteilen der Solid State Disk stehen
jedoch auch technologische und preisliche Nachteile gegenüber. Der Preis pro GB ist bei den Enterpise SSDs im Vergleich zur Festplatte aktuell zehnmal teurer. Die Schreibgeschwindigkeit ist nicht bedeutend höher als die der Festplatte,
Hitachi Data Systems | True Storage Concept | Nummer 17
wobei die limitierte Anzahl von Schreibzyklen des FlashSpeichers auch noch mit nachlassender Geschwindigkeit bei
längerem Einsatz einhergeht.
Schreibzyklen der Single- und Multi-Level Cell
In den nächsten Jahren wird der Preis pro GB bei SSDSpeicher im Enterprise-Markt jedoch sinken. Denn auch in
diesem Segment wird zukünftig vermehrt der kostengünstigere MLC-Speicher eingesetzt. Die Multi Level Cell kann nämlich
mehr als ein Bit an Informationen pro Zelle speichern. Dies
ist ein Vorteil gegenüber dem hochwertigeren und teureren
SLC-Speicher, da die Single Level Cell nur das Speichern
eines Bits pro Zelle erlaubt. Doch SLC-Speicher zeichnen
sich vor allem durch eine erhöhte Anzahl von Schreibzyklen
pro Flash-Zelle aus. Derzeit sind das im Enterprise-Bereich
rund 200.000 Zyklen beim SLC-Speicher. Der MLC-Speicher
hingegen liegt mit gut 30.000 Zyklen selbst bei einer guten
Qualität des Flash-Speichers deutlich darunter.
Um den technologischen Herausforderungen bezüglich
einer konstanten hohen Geschwindigkeit und einer sehr guten
Zuverlässigkeit im Enterprise-Markt gerecht zu werden, kam
bisher nur SLC-Speicher zum Einsatz. Nur er lässt die
erforderlich hohe Anzahl von Schreibzyklen einer Zelle ohne
Risiko eines vorzeitigen Datenverlustes zu. Durch ein immer
besseres Management bei der Verteilung der Schreibzugriffe
(Wear Leveling) und durch eine ausgereiftere Firmware zur
Performance-Optimierung jedoch wird es in naher Zukunft
auch möglich sein, MLC-Speicher im Enterprise-Storage zu
verwenden.
Speicher, Anwendungen und Tiers
Aktuell kommen SSD-Speicher nur in Tier-0 Speicheranwendungen zum Einsatz, bei denen höchste I/O-Raten mit der
höchsten Zuverlässigkeit verbunden werden. Aufgrund der
sinkenden Preise wird sich dieses Segment innerhalb der
Anwendungs-Pyramide weiter nach unten in weniger exklusive Regionen verschieben.
Vor- und Nachteile der SSD vs. HDD
Vorteile SSD
• keine bewegten mechanischen Teile
• kein mechanischer Verschleiß
• geringe Fehlerraten und Ausfallwahrscheinlichkeit
• hohe Datentransferraten, vor allem beim Lesen
• kurze Zugriffszeiten, hohe I/O-Raten
• niedriger Stromverbrauch, weniger Kühlung
Vergleich zur Festplatte:
• 10 Mal so teuer
• Schreibgeschwindigkeit unbedeutend höher
• limitierte Anzahl Schreibzyklen des Flash-Speichers
• nachlassende Geschwindigkeit bei längerem Einsatz
Enterprise-Festplatten mit 10.000 bis 15.000 U/min im
Formfaktor von 2,5“ oder 3,5“ bieten auch in naher Zukunft
weiterhin hohe Zuverlässigkeit bei gleichzeitig sehr hohen
Datenraten. Sie werden sogar langfristig das Tier-1 Speichersegment eher beherrschen. Aktuelle Spitzenkapazitäten von
600 GB beim 3,5“ Formfaktor, welche ab 2010 sogar schon
auch in 2,5“ erhältlich sein werden, sind und bleiben bei
diesen hohen Kapazitäten preislich weitaus attraktiver als
Solid State Drives. Im stark kostengetriebenen Tier-2 Segment, wo der Preis pro GB einer der entscheidenden Faktoren ist, werden Festplatten mit 7200 U/min weiterhin marktbeherrschend bleiben. Festplattenkapazitäten von derzeit 2 TB
und sogar 4 TB ab 2011 bieten bei steigender Zuverlässigkeit
und verbesserten Servertechnologien unschlagbare Argumente zugunsten der Festplattentechnologie.
Hitachi Data Systems | True Storage Concept | Nummer 17
11
Zukunft der Enterprise-Festplatte
Während vor 10 bis 15 Jahren eine Verdoppelung der Kapazität innerhalb eines jeden Jahres möglich war und üblich
schien, zeigt sich jedoch heute, dass man für einen solch
hohen Wachstumsfaktor im Festplattensegment inzwischen
2 bis 3 Jahre benötigt. Neue Aufzeichnungs-Technologien
werden es in den nächsten Jahren ermöglichen, die Aufzeichnungsdichte und damit die Kapazitäten weiter zu steigern.
So erlaubt Bit Patterned Media das Schreiben der Festplattendaten in sehr kleinen festen Strukturen. Heat Assisted
Recording setzt vor dem Schreiben ein punktuelles Erhitzen
der magnetischen Schicht mittels eines Lasers ein, um neuartige, stabilere magnetische Materialien nutzen zu können.
Eine physikalische Limitierung ist also bei der Steigerung der
Festplattenkapazitäten in den nächsten Jahren nicht zu erwarten. Allerdings muss bei weitem mehr Technologieeinsatz
als in der Vergangenheit investiert werden, um diese auch zu
verwirklichen.
Units x 1000
50.000
40.000
30.000
20.000
10.000
0
2008
2009
SCSI
FC-AL
2010
SAS
2011
2012
Cap S-ATA
2013
Cap SAS
Abb. 2: Interface im RZ-Betrieb, Quelle: HGST
Schnittstellen und Marktanteile
Units x 1000
50.000
40.000
30.000
20.000
10.000
0
2008
2009
S-ATA
2010
2011
SAS, FC-AL
2012
2013
SSD
Der Anteil der Hard Disk Drives beziehungsweise Solid State
Drives mit Fibre-Channel-Interface auf der Komponentenseite geht stark zurück. Die dominierenden Interface-Varianten
werden Serial Attached SCSI (SAS) und Serial ATA (Advanced
Technology Attachment - kurz SATA) mit Transfergeschwindigkeiten von 6 Gbit/s sein. Auch in den kostengetriebenen
Tier-2 Speicheranwendungen, wo der Preis pro Gigabyte den
Ausschlag gibt, wird SAS als Interface weitere Marktanteile
von SATA übernehmen. Es sind in Zukunft mehr Festplattenmodelle mit hoher Kapazität (> 1 TB), langsamer Drehzahl und
SAS Interface zu erwarten.
Abb. 1: HDD / SSD im RZ-Betrieb, Quelle: HGST
Units x 1000
35.000
30.000
Marktprognosen zufolge (vgl. Abb. 1 und 2) werden
Festplatten in naher Zukunft den Speichermarkt auch im
Enterprise-Segment dominieren. Die Stückzahl der SSDs
steigt zwar von Jahr zu Jahr, doch bleibt dies im Vergleich zu
den hergestellten Festplatten ein relativ kleiner Anteil. Das liegt
auch darin begründet, dass im Bereich Flash-Speicher sehr
hohe Investitionen notwendig sind, um die entsprechenden
Fertigungskapazitäten zu schaffen.
25.000
20.000
15.000
10.000
5.000
0
2008
2009
10K 3,5“
2010
15K 3,5“
2011
10K 2,5“
2012
2013
15K 2,5“
Abb. 3: Laufwerk nach Umdrehungszahl / Formfaktor im
RZ-Betrieb, Quelle: HGST
12
Hitachi Data Systems | True Storage Concept | Nummer 17
Bei den Enterprise-Festplatten und auch bei SSDs wird
in naher Zukunft ausschließlich 2,5“ als Formfaktor eingesetzt
werden. Zwar werden aufgrund der größeren erhältlichen
Kapazitäten aktuell noch rund 40 bis 50% der EnterpriseFestplatten im 3,5“ Format verkauft, allerdings ist dieser Trend
stark rückläufig. 2,5“ Festplatten haben den großen Vorteil der
geringeren Stromaufnahme, geringeren Kühlung und natürlich
des verbauten Volumens, so dass es mit diesem Formfaktor
möglich ist, Performance und Stromverbrauch innerhalb eines
Systems besser zu optimieren.
Während im Highend Enterprise Segment bei 2,5“ und
auch bei 3,5“ heute noch 15.000 U/min „State of the Art“
sind, werden zukünftig 2,5“ SAS-Modelle nur noch mit
10.000 U/min auf den Markt kommen. Der Grund hierfür liegt
im sehr hohen Entwicklungsaufwand und den damit verbundenen Kosten für Modelle mit 15.000 U/min. Ihr Vorteil der
gegenüber Festplatten mit 10.000 U/min höheren I/Os ist im
Vergleich zu SSDs, die sich preislich langsam diesem
Segment annähern und eine weitaus höhere I/O Leistung
bieten, im Ergebnis zu gering.
Hitachi Data Systems | True Storage Concept | Nummer 17
Fazit: HDD oder SSD?
Beide Speichertechnologien werden abhängig von verschiedenen Faktoren wie Preis, Kapazität, Geschwindigkeit und
Zuverlässigkeit eingesetzt werden, und zwar in den jeweils für
sie am besten geeigneten Anwendungen und Tiers. Sicherlich
wird es Überschneidungen bei ihren Einsatzgebieten geben.
Doch die einzig wahre Technologie gibt es auch in naher
Zukunft nicht. Dafür ist der Markt zu groß und die Bedürfnisse und Anforderungen zu unterschiedlich. HDD und SSD
haben beide ihre eigene Berechtigung. Die Speichersysteme
von Hitachi Data Systems wissen beide bei ihren jeweiligen
Stärken zu nehmen und setzen sie genau dort ein, wo sie sich
rechnen.
13
100 Jahre Hitachi
Pioniergeist und Industriegeschichte
100 Jahre Hitachi - Innovationen eines Weltkonzerns
mit Ambition
Dr. Georgios Rimikis
Manager Solution Strategy
Hitachi Data Systems
Hitachi Ltd. steht für eine weltweit einmalige Pioniergeschichte. Sie begann zu Anfang des
Zwanzigsten Jahrhunderts in der Gründerzeit Japans und dauert bis heute an. 2010 feiert das
Unternehmen sein 100-jähriges Firmenjubiläum. Die postmoderne Erfolgsstory wird zum Fortsetzungsroman des digitalen Zeitalters.
also ein hoch innovatives Unternehmen genannt wird, dann zu
Recht deshalb, weil es in seiner hundertjährigen Geschichte
eine solche Fülle von Entwicklungen zur Marktreife und zum
Praxiseinsatz gebracht hat, dass unser Streifzug durch die
Firmengeschichte vielfach nur Schlaglichter werfen kann.
Gründerjahre im japanischen Kaiserreich
Gründerhütte in Ibaraki, Japan
Die Geschichte Hitachis liest sich wie die Chronik der nachindustriellen Revolution, ein Geschichtswerk über Technik, Forschung und Entwicklung des 20ten und 21ten Jahrhunderts.
In 100 Jahren ist Hitachi zu einem Weltkonzern aufgestiegen,
mit hohen Ambitionen.
Eine Innovation, so lernen und lehren Soziologen, ist
nicht etwa bloß eine Neuerung. Derer gibt es viele. Wahre
Innovation ist das Etablieren und die kollektive Akzeptanz
neuer Methoden, Prozeduren und Technologien. Wenn Hitachi
1915
1910
Hitachi wird von Namihei
Odaira als Reparaturwerkstatt
für Elektroartikel gegründet
Erste Eigenproduktion des
Unternehmens: drei
elektrische 5-PS-Motoren
14
Produktion einer Wasser­turbine
mit 10.000 PS
1924
Großtechnische
Produktion der
ersten in Japan
hergestellten,
mit Gleichstrom
betriebenen
E-Lokomotive
Von Namihei Odaira als Reparaturwerkstatt für Elektroartikel
gegründet, nahm Hitachi 1910 die Herstellung ihrer ersten
drei Elektromotoren auf, mit einer Leistung von gerade einmal
5 PS. Doch ihre Produktion legte den Grundstein zu einer
schnell wachsenden und alsbald einmaligen Expertise. Sie
wird Hitachi im Bereich Elektrotechnik und Energiewirtschaft
zum Marktführer in Japan und zum führenden Akteur in der
Welt machen. Schon 1915 bedient das Unternehmen ganz
andere Dimensionen, mit einer Wasserturbine von 10.000
PS oder 7.355 kW. Ab 1924 wird die elektrische Energie in
Antrieb umgesetzt, die großtechnische Produktion der ersten
in Japan hergestellten Elektro-Lok wird aufgenommen. Sie ist
Prototyp und Urmutter von E-Zügen, die Hitachi zum „Shin-
1931
Herstellung einer elektro­lytischen
Zelle (hydraulisch) mit 10.000 A
1932
1943
Herstellung des
ersten elektrischen
Hitachi-Kühlschranks
Herstellung einer
Francis-Wasserturbine
mit 85.000 kW und
eines Wechselstromgenerators mit
70.000 kVA
Hitachi Data Systems | True Storage Concept | Nummer 17
kansen“, dem berühmten japanischen Hochgeschwindigkeitszug, ins 21te Jahrhundert unserer Tage führt.
Elektrotechnik und Energiewirtschaft
Entwicklung und Produktion gehen bei Hitachi von Beginn
an Hand in Hand. 1931 werden elektrolytische Zellen mit
10.000 A hergestellt, ein Jahr später der erste elektrische
Hitachi-Kühlschrank. Diese erste Orientierung am Verbrauchermarkt wird kennzeichnend für Hitachi bleiben, die bis
heute Unternehmenskunden und Konsumenten gleichermaßen bedient.
Hitachi Ltd.
100th.hitachi.com
Gründung von Hitachi America Ltd.
Gründung von Hitachi Europe Ltd.
Listing an der New Yorker Börse
Gründung von Hitachi Asia Pte. Ltd.
Gründung der Hitachi Foundation
Gründung von Hitachi (China) Ltd.
Gründung der Hitachi (China)
Research & Development Corporation
Die Energiewirtschaft wird in den Vierziger Jahren zum
bevorzugten Terrain. Noch während des Zweiten Weltkrieges
gehen 1943 eine Francis-Wasserturbine mit 85.000 kW und
ein Wechselstromgenerator mit 70.000 kVA in Produktion.
1955 liegt deren Leistungsvermögen bereits bei 100.000 kW
beziehungsweise bei 93.000 kVA. Während 1952 die Herstel-
1954
1952
Herstellung
einer zweistufigen
Pumpturbine mit
21.000 kW
Fertigstellung der
ersten großen Kaltwalzstraße in Japan
1955
1959
1958
Herstellung einer
Francis-Wasserturbine
mit 100.000 kW und
eines Wechselstromgenerators mit
93.000 kVA
Hitachi Data Systems | True Storage Concept | Nummer 17
Turbinen und Fusionsreaktoren
Die Energiewirtschaft bleibt für Hitachi eine entscheidende
Domäne. 1961 wird ein experimenteller Kernreaktor fertiggestellt. Die friedliche Nutzung der Atomenergie ist ein Politikum,
das für Japan eine ganz besondere Dimension hat und kaum
15 Jahre nach Hiroshima und Nagasaki ein Trauma berührt.
Es dauert abermals knapp 15 Jahre, bis 1974 das erste
Kernkraftwerk mit einer Leistung von 460.000 kW in Japan in
Betrieb genommen wird.
Fast zehn Jahre später, 1985 gelingt Hitachi mit dem
T-60 E die Herstellung des ersten Tokamak-Geräts für
Break-even-Plasma-Experimente. Der Tokamak steht für ein
physikalisches Konzept der Kernfusionsreaktoren, bei dem
das heiße rotierende Plasma in einem Torus von Magnetfeldspulen eingeschlossen wird. Der Torus hat jene wulstförmige
Geometrie, die wir von Autoschläuchen oder Schwimmreifen
kennen. Der Begriff Tokamak ist dem russischen Akronym
токамак entlehnt, das abkürzend für „тороидальная камера
в магнитных катушках“ steht und die toroidale Kammer in
den Magnetspulen bezeichnet.
Weltweite Konzernausdehnung
1959
1982
1982
1988
1985
1994
2005
lung einer zweistufigen Pumpturbine von 21.000 kW gelang,
wird 1954 bereits die erste große Kaltwalzstraße für Japan
fertiggestellt. Stahl ist noch stets der entscheidende Rohstoff
der industriellen Fertigung. Wenige Jahrzehnte später werden
ihn Kunststoffe zunehmend ablösen.
Elektronik und Mikroelektronik
Während die globale Industrialisierung mit ihrem immer größeren Energiebedarf für Serienfertigung die erste Hälfte des
Zwanzigsten Jahrhunderts prägt, revolutioniert die Mikroelektronik die Massenproduktion und -kommunikation in seiner
Herstellung von elektronischen Rechnern
auf Transistor-Basis
Gründung von
Hitachi America, Ltd.
Elektronenmikroskope,
mit dem Grand Prix
der Weltausstellung in
Brüssel ausgezeichnet
1964
Herstellung der ersten
Wagen für den Hochgeschwindigkeitszug
„Shinkansen“
1961
Fertigstellung
eines experimentellen
Kernreaktors
Herstellung einer Einschienenbahn, die den Flughafen
Haneda mit Hamamatsu-cho
in Tokio verbindet
15
zweiten Hälfte. Auch hier ist Hitachi Entwickler, Forscher und
Wegbereiter.
1964 ist Tokio zugleich der Austragungsort der Olympischen Sommerspiele. Dazu wird die Tokioter Innenstadt mit
Tokios internationalem Flughafen in Haneda von Hitachi mit
einer Einschienenbahn verbunden. Die rund 13 km lange
Strecke entsteht binnen 16 Monaten Bauzeit. „Haneda
Monorail“ ging pünktlich in Betrieb und ist seitdem erfolgreich
unterwegs. Doch nicht nur in der Horizontalen, sondern auch
in der Vertikalen feierte Hitachi Geschwindigkeitsrekorde.
1968 zum Beispiel wurden Hochhausaufzüge weiterentwickelt, die mit einer Geschwindigkeit von 300 m/min. verkehren. Heute saust der schnellste Aufzug Japans in Yokohama
mit 750 m pro Minute durch den Landmark Tower. Das schreit
nach Helm und Hosenträgern.
Die technische Innovation führt uns von den starken zu
den schwachen Strömen, wo Hitachi inzwischen ebenfalls
weltweit führendes Know-how erworben hat. 1958 werden
ihre Elektronenmikroskope mit dem Grand Prix der Weltausstellung in Brüssel ausgezeichnet. 1959 kommen von Hitachi
elektronische Rechner auf Transistor-Basis. Das Computerzeitalter liegt in den Geburtswehen. Zwischen 1960 und 1965
werden die ersten CPUs entwickelt, und die magnetischen
Bandsysteme steigern ihre Transferraten zur Datenspeicherung von 10 auf immerhin 100 KB/s.
Hitachi Rail
www.hitachi-rail.com
Highspeed auf Schienen
Im Jahr 1964 werden von Hitachi die ersten Wagen für den
Shinkansen, das japanische Schnellzugnetz hergestellt, 17
Jahre bevor in Europa der französische TGV 1981 Paris mit
Lyon verbindet. Der Name „Shinkansen“ – gebildet aus „shin“
für „neu“, aus „kan“ für „Haupt-“ und „sen“ für „Strecke“ –
steht bis heute für Schnelligkeit und Sicherheit. Die „neue
Hauptstrecke“ Japans bildet ein eigenes Hochgeschwindigkeitsnetz aus, das baulich vom Personennahverkehr und vom
Güterverkehr getrennt ist.
Weniger seine mögliche Höchstgeschwindigkeit von
prinzipiell weit über 400 km/h als vielmehr seine hohe
Durchschnittsgeschwindigkeit von mehr als 200 km/h – einschließlich Bahnhofsstopps – zeichnen den Shinkansen aus.
Dabei ist er eines der sichersten Verkehrsmittel weltweit, das
bislang keinen tödlichen Unfall erfuhr. Zugleich ist seine
Pünktlichkeit sprichwörtlich. Wie zu lesen ist, hat ein Lokführer
mehr als 15 Sekunden Verspätung schriftlich zu begründen.
Vom Makro- zum Mikrokosmos
Schon 1969 wird ein Online-Banking-System vorgestellt, zu
einer Zeit als Europäer auf Reisen ein internationales Postsparbuch im innereuropäischen Zahlungsverkehr benutzen
und den Euroscheck erfanden, den wir 2001 wieder verga-
Entwicklung eines
Hybrid-LSI
1968
Entwicklung von
Hochhausaufzügen
mit einer Geschwindigkeit von 300 m/min.
Entwicklung des computerge-
1969
Fertigstellung eines
Online-Banking-Systems
Entwicklung und Massenproduktion von Farbfernsehern,
die ausschließlich auf
Transistortechnik beruhen
16
Entwicklung
1970 stützten Verkehrsleitsystems für
1975 der Hitachi
High Crown
Control Mill
den Hochgeschwindigkeitszug
„Shinkansen“
1973
1974
Entwicklung
eines neuartigen
Bildsensors
1978
Weltweit erste erfolgreiche
Magnetfeldbeobachtung
auf Mikroebene mithilfe der
Elektronenstrahl-Holografie
1982 Listing an der New Yorker
Börse
Gründung von
Hitachi Europe Ltd.
Inbetriebnahme des
ersten 460.000-kWKernkraftwerks in Japan
Herstellung des weltweit
ersten Feldelektronenmikroskops mit Rekordauflösung
Fertigstellung der ersten
Allzweck-Computerserie
Experimentelle Farbkamera
mit solider Verkleinerungsfunktion
Hitachi Data Systems | True Storage Concept | Nummer 17
ßen. 1970 kam durch Hitachi ein computergestütztes Verkehrsleitsystems zum Einsatz, für den Shinkansen versteht
sich.
1973 wird die Entwicklung eines neuartigen Bildsensors
bekannt gegeben. Elektronik und Optik rationalisieren
zunehmend Logistik und Produktion und sie revolutionieren
die Massenkommunikation. Noch 1969 hatte Hitachi Farbfernseher, die ausschließlich auf Transistortechnik beruhen, in die
Massenproduktion genommen. Die schwarzweiße Fernsehwelt hatte ein Ende, das Colour-TV beschreibt seitdem die
Welt und oft genug immer noch gerne in Schwarzweiß. Es ist
der 20. Juli 1969 in den USA und der 21. Juli in Europa, als
um 3.56 Uhr MEZ der erste Mensch den Mond betritt. Die
Erkundung des Universums schlägt die Menschheit in den
Bann der Unendlichkeit eines expandierenden Weltalls.
Währenddessen und parallel dazu geht die Forschung
bereits in die entgegengesetzte Richtung, mit Riesenschritten
Nanometer um Nanometer, Planck-Länge um Planck-Länge in
atomare Strukturen. Die Miniaturisierung der Bausteine und
Werkzeuge greift Raum – allerkleinsten Raum – und sie
erobert den Mikrokosmos. 1978 gelingt Hitachi die Herstellung des weltweit ersten Feldelektronenmikroskops mit einer
Rekordauflösung, die Aufnahmen im atomaren Bereich
möglich macht. Ebenfalls aus 1978 datiert eine experimentelle
Farbkamera mit Verkleinerungsfunktion. 1982 wird die weltweit erste erfolgreiche Magnetfeldbeobachtung auf Mikro­
ebene mithilfe der Elektronenstrahl-Holografie möglich. Die
Wissenschaft richtet sich vom Makro- auf den Mikrokosmos.
Bereits in den 70er Jahren vertreibt die BASF Datentechnik
Hitachi Mainframes. Am 18.1.1991 wird die 1000ste installierte
CPU gefeiert.
die Business Class im Rechenzentrum, sprechen wortreiches
COBOL, die Common Business Oriented Language, und
werden dankbar mit Lochkarten gefüttert. Die Ergebnisse
ihrer Rechenkünste hämmern Lineprinter auf Endlospapier.
Verständigung will geschaffen werden, nicht nur zwischen
Mensch und Maschine, auch zwischen Maschinen und Komponenten. Hitachi sorgt 1977 für die IBM-Kompatibilität ihrer
CPUs, die seitdem auch Europa begeistern.
Noch beherrschen die Mainframes die Datenverarbeitung, bekommen aber bald ernsthafte Konkurrenz durch den
Personal Computer. Sein Erfolg im Massenmarkt wird 1978
durch den IBM PC eröffnet, der mit dem Prozessor 8086 und
seinen Nachfolgern Intel zum Welterfolg verhilft. Hitachi wird
den Consumermarkt mit Speicherbausteinen und Festplatten
bedienen und den Speichermarkt für Unternehmenskunden
Computer - Mainframes - Rechenzentren
mit Archivierungslösungen erobern. 1984 beginnt die Mas-
Mit der Fertigstellung der ersten Allzweck-Computerserie 1974
dämmert das Computerzeitalter herauf. Großrechner stellen
1985
1984
Beginn der
Massenproduktion
von 256-Kilobit
DRAMs
Großtechnische
Herstellung des ersten
Tokamak-Geräts
(T-60 E) für Break-evenPlasma-Experimente
Gründung der Hitachi
Foundation zur Förderung des Austausches
zwischen Japan und den
USA in den Bereichen
Kultur, Bildung und
Wissenschaft
Hitachi Data Systems | True Storage Concept | Nummer 17
1988
senproduktion eines 256 Kbit Dynamic Random Access
Memory.
Gründung von
Hitachi Asia Pte. Ltd.
1990
Entwicklung des weltweit schnellsten
1989 Supraleiter-Computers
Entwicklung eines supraleitfähigen
Magnet-Resonanz-TomographieGeräts
Errichtung von zwei Forschungsund Entwicklungszentren in den USA
und zwei Laboratorien in Europa
Einführung eines
Supercomputers
mit der seinerzeit
höchsten Verarbeitungsgeschwindigkeit
Entwicklung einer Inverter
1991 gesteuerten Elektrolok
mit der weltweit höchsten
Steuerkapazität
Entwicklung hochempfind­
licher Bildsensoren
17
Supraleiter-Computers. 1990 entsteht ein Supercomputer mit
der seinerzeit höchsten Verarbeitungsgeschwindigkeit.
Mit dem Übergang zu den 90er Jahren werden die
Bandeinheiten sukzessive von Kassetten-Systemen abgelöst,
deren Laufwerke bald flinke Roboter hastig vollstopfen und
wieder entleeren. 1994 wird die original 32-Bit-RISC-Prozessor SuperH-Familie vorgestellt. Hitachi hat zugleich ihre
Halbleiterspeicher weiterentwickelt. Der 7900 Semiconductor,
monströser Übervater heutiger Flash-Disks, prahlt mit stolzen
512 MB. 1995 kommen Geräte zur fiberoptischen Übertragung mit 10 Gbit/s heraus. Im selben Jahr kommt mit
Tetragon die erste RAID-Lösung auf den Markt, die
Urmutter der berühmten Hitachi USP V. 1998 ein System zur
optischen Datenübertragung mit 320 Gbit/s.
Rechenzentrum aus „Alten Zeiten“
Tapes - Kassetten - Speicherwelten
Die IT-Evolution nimmt Fahrt auf und überschlägt sich alsbald
in immer neuen Spezies und Mutationen. Bandmaschinen von
Hitachi übernehmen Backup und Datenaustausch. Magnet
Tape Subsysteme der neueren Generation steigern 1989 ihre
Transferraten auf 6 MB/s. 1989 wird die erste Großserie von
wassergekühlten CPUs der High Density Module aufgelegt.
Ebenfalls 1989 folgt die Entwicklung des weltweit schnellsten
Getragen von Forschung und Entwicklung
Die Entwicklung eines supraleitenden Magnet-ResonanzTomographie-Geräts, das mit den bekannten Schnittbildern
in der medizinischen Diagnostik eingesetzt wird, festigt 1989
Hitachis weltweite Kompetenz im medizinischen Sektor. Im
Hitachi Data Systems
www.hds.com
Hitachi setzt die Trends und die Benchmarks auch im Storage: 1998 gelingt die Entwicklung des 128-Megabit Einzelelek­
tronen-Speichers, 1999 eine zuverlässige eigenständige Echtzeit-Managementtechnologie. Aus 2000 stammt eine
bahnbrechende Methode zur senkrechten Magnetaufzeichnung mit 52,5 Gbit/s. Sie wird Grundlage für weitere Speicherdichterekorde, wenn etwa 2005 das Verfahren so perfektioniert ist, dass 20 GB auf ein Microdrive passen und Terabytes
von Daten auf eine 3,5“ HDD. Mithilfe dieser Technologie startet im Jahre 2006 die Massenproduktion von 2,5“-Festplatten. Die Enterprise Plattform USP unterstützt seit 2004 Unternehmen dabei, ihre Geschäftsprozesse mittels Virtualisierung
zu optimieren. Vom Highend kommen neue Speichertechnologien für den Midrange Bereich. Die modulare AMS2000
Familie dominiert seit 2009 weit vor dem Mitbewerb im Bereich Preis-/Leistung den SPC-1-Benchmarktest.
Entwicklung des Hochgeschwindigkeitszugs
„Shinkansen“ mit neuer
Höchstgeschwindigkeit
von 270 km/h
1993
Entwicklung eines
Kapillaren-ArrayDNA-Sequenzers
18
1994
Entwicklung der
original 32-BitRISC-Prozessor
SuperH-Familie
Gründung von
Hitachi (China) Ltd.
1998
Entwicklung eines Systems zur
optischen Datenübertragung mit
320 Gbit/s
Entwicklung des 128-Megabit
Einzelelektronen-Speichers
1995
Entwicklung des Super TFT
LCD-Moduls mit Ultraweitwinkel
Entwicklung eines Geräts
zur fiberoptischen Übertragung
mit 10 Gbit/s
1999
Entwicklung einer
zuverlässigen
eigenständigen
Echtzeit-Managementtechnologie
2000
Entwicklung einer
Methode zur
senkrechten
Magnetaufzeichnung
mit 52,5 Gbit/in2
Hitachi Data Systems | True Storage Concept | Nummer 17
SNP-Typinferenz. Damit werden SAPs, d.h. Veränderungen im
Genom, in der Pharmakologie zur Verbesserung von Arzneimitteltherapien untersucht.
Als die Mainframes ganze Räume füllten…
selben Jahr werden zwei Forschungs- und Entwicklungszentren in den USA und ebenfalls zwei Laboratorien in Europa
eingerichtet.
F&E ist die Triebfeder zu immer weiteren Innovationen in
allen Kernbereichen von Hitachi, etwa bei Optik und Healthcare: 1991 sind es hoch empfindliche Bildsensoren, 1995 ein
Super TFT LCD-Modul mit Ultraweitwinkel. Ein Kapillarsequenzer macht 1993 Furore und immer wieder die Logistik: Im
selben Jahr bringt Hitachi den Shinkansen auf eine Höchstgeschwindigkeit von 270 km/h, nachdem schon 1991 eine
computergesteuerte Elektrolok mit der weltweit höchsten
Steuerkapazität vorgestellt worden war.
Medizintechnik und Gesundheitswesen
Die Superlative wechseln einander ab und beschleunigen sich
in dem Maße, wie Hitachis weltweites Engagement in den
verschiedenen Sparten, Branchen und Industrien wächst. Auf
2001 etwa fallen die Entwicklung eines mobilen Web-Gateways und eines Anwendungsprozessors für Mobiltelefone,
auf 2002 das weltweit erste Notebook mit geräuschärmerem
Flüssigkeitskühlsystem, der kleinste 0,3 mm2 kontaktfreie ICChip der Welt sowie ein kompaktes DNA-Analysesystem für
Healthcare ist längst zu einem Kernbereich der Hitachi
F&E geworden. 2003 gelingt ihr die erfolgreiche Messung der
Gehirnfunktionen von Kleinkindern mithilfe optischer Topografie und zugleich die Vermarktung eines kompakten, hochpräzisen Hochgeschwindigkeits-Fingervenenerkennungssystems.
2006 werden Grundlagenexperimente zur Anwendung
optischer Topografie als Schnittstelle zwischen Gehirn und
Gerät durchgeführt.
Zukunfts- und Klimaforschung
Ein System für Notariats- und Zertifizierungsbehörden im
E-Government belegt Hitachis Kompetenz auch bei Software
und Dokumentenverwaltung in 2001. Hard- und SoftwareLösungen gehen Hand in Hand, auch im Bereich Storage,
wo Hitachi im Enterprise Bereich zum Weltmarktführer für
Speichertechnologien und Datenhaltung aufsteigt.
2004 baut Hitachi das weltweit kleinste Sensor-NetTerminal mit einer Batterielebensdauer von mehr als einem
Jahr. Auf der Weltausstellung 2005 im japanischen Aichi stellt
das Unternehmen EMIEW vor, einen mobilen Roboter, der die
Stimme seines Besitzers erkennt und Gegenstände reichen
oder umhertragen kann. Zukunftsforschung steht für den
Weltkonzern weit oben an. Dabei sind Energieeinsparung und
Umweltschutz für Hitachi ein erklärtes hohes Anliegen, sowohl
auf Seiten der F&E als auch in der eigenen praktischen
Realisierung in ihren weltweiten Unternehmen.
Die Abmachungen von Kyoto und die Herausforderungen der weltweiten Klimaveränderung sind nach dem
Scheitern von Kopenhagen in 2009 eine umso dringlichere
Entwicklung des weltweit ersten Notebooks
mit geräuscharmem Flüssigkeitskühlsystems
2002
Entwicklung von Notariats-
2001 und Zertifizierungs­behörden-
Entwicklung des kleinsten 0,3 mm2 kontaktfreien IC-Chips der Welt
Entwicklung eines kompakten DNA-Analysesystems für SNP-Typing
2003
Systemen für das E-Government
Entwicklung eines mobilen WebGateway-Systems
Entwicklung eines Anwendungs­
prozessors für Mobiltelefone
Hitachi Data Systems | True Storage Concept | Nummer 17
Entwicklung des weltweit kleinsten
Sensor-Net-Terminals mit einer
Batterielebensdauer von mehr als
einem Jahr
2004 Entwicklung einer hochtemperatur-
Entwicklung und Vermarktung
eines kompakten, hochpräzisen
Hochgeschwindigkeits-Finger­
venenerkennungssystems
Erfolgreiche Messung der
Gehirnfunktionen von Kleinkindern
mithilfe optischer Topografie
beständigen bleifreien Lötpaste
2005
Gründung der
Hitachi (China)
Research & Development Corporation
Sprengstofferkennungssystem erhält
TSA-Zertifizierung (USA)
Vorstellung des „EMIEW“ auf der
Weltausstellung 2005 im japanischen
Aichi: ein mobiler Roboter, der die
Stimme seines Besitzers erkennt
und Gegenstände reichen oder umhertragen kann
19
Hitachi Oasis Ganzkörper-Hochfeld-MRT-System
gemeinsame Aufgabe für Unternehmen, Bürger und Verbraucher geworden. CO2-Reduzierung, Energieeinsparung und
Schonung der Ressourcen sind dabei oberstes Gebot und
hohe Vorgaben für neue Entwicklungs- und Modernisierungsziele innerhalb der Weltgemeinschaft.
Geleitet von sozialer Verantwortung
Hitachi steht nicht umsonst für eine einmalige Pioniergeschichte des zurückliegenden Jahrhunderts. Der Konzern
wird in den kommenden Jahrzehnten weitere Kapitel dieser
Erfolgsstory schreiben. Dabei will er sich erklärtermaßen
verstärkt den ökologischen Forderungen unserer Welt stellen.
Anfang 2010, dem Jahr seines 100-jährigen Firmenjubiläums,
startete das Unternehmen in den USA eine wegweisende
Kampagne zu seiner technologischen Weiterentwicklung, ihr
Motto: „We are all connected“. Ziel der strategischen Ausrichtung werden in den kommenden Jahren für Hitachi die
Bereiche „Automotive“, „Energy“ und „Data“ sein. Damit stehen nicht zuletzt die logistischen, ökonomischen und ökologischen Herausforderungen unserer Epoche, wenn nicht sogar
der Menschheit, im Mittelpunkt der Konzernstrategie.
Data bildet dabei selbst eine der drei zentralen Säulen.
Ihr kommt damit maßgebliche Verantwortung und tragende
Bedeutung in der Übereinkunft ökonomischer und ökologischer Ansprüche im Bereich Datenhaltung zu. Dabei können
Kosten- und Energieeffizienz gemeinsam praktikable Wege zu
CO2-reduzierten Speichersystemen in einer dynamischen
Infrastruktur weisen. Hitachi Data Systems – selbst ein global
agierendes Tochterunternehmen – verfügt über das dazu
notwendige Know-how.
Schließlich steht es als einer
der weltweiten Marktführer im
Storage auch innerhalb des
Weltkonzerns strategisch und
technologisch mit an der
Spitze.
Weitere Informationen unter
www.hitachi.com/environment
Prototyp des weltweit kleinsten Noncontact RFID powder
IC Chips (Abmessungen 0,05 mm x 0,05 mm)
2007
Prototyp des 2-Mbit nonvolatilen SPRAM Chips mithilfe
von Magnetisierungsumkehrung durch Spin Injection
Entwicklung von EMIEW 2, eines kleinen leichtgewichtigen
interaktiven Roboters
2006 Nachweis über Elektrolumineszenzphänomene
beim Anlegen von elektrischem Strom an ultradünnem
Siliziumfilm
Grundlagenexperiment zur Anwendung optischer
Topografie als Schnittstelle zwischen Gehirn und Gerät
2008 Entwicklung einer Lithium-Ionen Batterie begründet eine
Systemtechnologie zum Einsatz in High-speed Diesel
Hybrid-Zügen
Entwicklung einer Technologie für kleine, doch sehr
effiziente Elektromotoren, die auf seltene Metalle verzichtet
Massenproduktion von 2,5-Zoll-Festplatten mithilfe der
Technologie zur senkrechten Magnetaufzeichnung
20
Hitachi Data Systems | True Storage Concept | Nummer 17
Endlich ein
intelligenterer HBA.
Von Brocade.
DER NEUE HBA VON BROCADE IST EINE INTELLIGENTERE MÖGLICHKEIT,
SERVER MIT SPEICHERN ZU VERBINDEN.
Mit einer einzigen Server-Speicher-Infrastruktur kommen Sie weiter, ohne jemals in einer Sackgasse
zu landen. Die HBAs von Brocade rationalisieren die Prozesse im Rechenzentrum, helfen Ihnen,
das Management zu vereinheitlichen und innovative anpassungsfähige Netzwerkfunktionen zu
implementieren. Weitere Informationen unter: www.brocade.com/smarterconnection
© 2009 Brocade Communications Systems, Inc. Alle Rechte vorbehalten. Brocade und das Brocade B-wing Symbol sind eingetragene Markenzeichen von
Brocade Communications Systems, Inc.
100 Jahre Hitachi
Von der Bandmechanik zur Virtualisierung
Heinz-Peter Dörper, Senior Customer Engineer, und Dr. Georgios Rimikis,
Manager Solution Strategy, schwelgen in alten Zeiten.
Hitachi Data Systems ist Teil des hundertjährigen Forschungs- und Entwicklungs-Abenteuers
eines Weltkonzerns. Es führt uns zurück in die Zeiten der wassergekühlten Mainframes, der
mechanischen Bandsysteme und Hochleistungsbanddrucker.
Alle zehn Jahre wird die IT gewahr, welch junge Branche sie
doch eigentlich ist. Das geht schon seit den Achtziger Jahren
so. Ebenfalls seit Jahren bekommt sie „erste“ Fältchen und
auch, wenn sie es nicht so recht glauben mag, sie kriegt
schon einige Dekaden zusammen. IT mag in 100 Jahren Hitachi einen vergleichsweise überschaubaren Zeitraum belegen.
Dafür sind ihre hoch beschleunigten Innovationszyklen ja auch
wesentlich kürzer als anderswo, sagt jedenfalls die IT.
Fünf Dekaden IT in 100 Jahren Hitachi
Als HDSler muss man jedenfalls schon zu zweit antreten, um
2010 an Jahren mit dem Welt- und Mutterkonzern Hitachi
Ltd. gleichzuziehen. Doch was es da alles zu erzählen gibt,
von Tapes, CPUs und Bandeinheiten, das passt auf keine
Kuhhaut. Auf der Suche nach historischem Material aus der
Geschichte der Hitachi Data Systems trafen sich Dr. Georgios
Rimikis und Heinz-Peter Dörper in Düsseldorf, erinnerten sich
an so manche Geburts- und Sternstunde und schwelgen in
den guten alten Zeiten.
Wenn alte Mainframer wie Heinz-Peter Dörper, Senior
Customer Engineer der Hitachi Data Systems in Düsseldorf,
erzählen, scheint es, als ob IT-Archäologen von IT-Dinosauriern berichten. Da wiegen fünf Dekaden IT 100 Jahre Hitachi
wie nichts auf. Sie haben wassergekühlte CPUs von Millionenwert installiert und haben mit Robotern gerungen, die
seinerzeit die Systeme mit Bandkassetten fütterten. Sie haben
in den vornehmsten Rechenzentren der Republik gearbeitet
und spontan Überstunden und Schichten geschoben, sobald
Hitachi Data Systems 7900 Semiconductor-Disk Subsystem/
Halbleiterspeicher, Kapazität 512 MB
22
G. Rimikis: „Tja, die guten alten High Density Module...
Hitachi Data Systems | True Storage Concept | Nummer 17
Not am Mann war, ob an Wochenenden oder in Silvesternächten.
„Hemdsärmeliger waren sie, jene
Gründerjahre“, schmunzelt
Heinz-Peter Dörper im Rückblick.
Von Bandeinheiten
und Banddruckern
Patrick D. Cowden
General Manager
Hitachi Data Systems GmbH
Tonnenschwere CPUs und voluminöse Speichersysteme waren
seinerzeit Hirn und Gedächtnis im Big Business. Fleißige
Hochleistungsdrucker standen für Geschäftswelt und Goldgräberzeiten des Wirtschaftswunders. Kein Wunder, dass
sich in den ersten Bandeinheiten der 60er Jahre die Zuverlässigkeit von Hitachi mit deutscher Wertarbeit vereinten, stand
doch die BASF seit ihrer Erfindung des Tonbandes von 1934
für die Güte der Tapes und für Datentechnik in Deutschland.
Erfolgreich bis weit in die Neunziger Jahre hinein, hat Hitachi
die Bandeinheiten geliefert, die mit Medien „made in Germany“ bestückt waren. Sie wurden von BASF und deren späteren Töchtern vertrieben und waren in vielen Unternehmen in
Europa zu finden. Patrick D. Cowden, heute Chef im Hause
Hitachi Data Systems in Deutschland, erzählt nur zu gerne
aus jenen Tagen: „Mein Onkel hat damals bei der BASFDatentechnik gearbeitet und mir wärmstens empfohlen, in
die EDV einzusteigen. Ich hab’s nie bereut.“
Elektronische Datenverarbeitung
Eigentlich gab es IT zu Anfang der IT gar nicht. Das war alles
EDV, elektronische Datenverarbeitung, und die bot, ein wenig
... von 1998. Die waren wasser­gekühlt.“
Hitachi Data Systems | True Storage Concept | Nummer 17
geheimnisumwittert, technisch führend und hoch solide,
Rechenprozesse auf bester Mechanik. 1957, so berichten die
Annalen von Hitachi, nutzen fortschrittliche Magnetic Devices
56 unbewegliche Schreibleseköpfe. Die Datensicherungen
der Gründerjahre waren an Bänder gebunden. Das weiß
man seit den frühen James Bond Filmen von Sean Connery.
Oft genug dienten die leicht transportierbaren Bänder auch
dem Austausch von Informationen zwischen befreundeten
Unternehmen. Heute kann man den Inhalt eines solchen Bandes als Anhang einer E-Mail versenden. Die Magnetic Tape
Subsysteme von Hitachi, seit 1960 für Low, Middle und High
Speed auf dem Markt, verzehnfachten 1965 in fünf Jahren
ihre Transferraten immerhin von 10 auf 100 KB/s.
Im Jahre 1977 gelang Hitachi durch ihre IBM kompatiblen CPUs ein entscheidender Durchbruch in die interoperable
Welt. Zwischen 1950 und Anfang 1960, zu Zeiten der früheren
Großrechner wie HIPAC 101, 103 und HITAC 301 hatte es
nichts gegeben, was einem heutigen Betriebssystem vergleichbar wäre. Hitachis erstes vollständiges Operating
System wurde in 1964 entwickelt. Von 1974 an war das
führende Virtual Operating System der VOS-Serie das Hitachi
Mainstay OS, und zwar für die Computer der HITAC M Serie.
VOS ist in Japan immer noch im Einsatz und wurde nie
aufgegeben.
Bandmaschinen für Mainframes
Hitachi arbeitet an Speicherbausteinen. Zentnerschwere Speicherplatten von bis zu 80 kg vereinen Controller und Cache.
1984 geht ein 256 Kbit Dynamic Random Access Memory in
Serie. Bandmaschinen von Hitachi sorgen für zuverlässiges
Backup. Die Magnet Tape Subsysteme steigern sich 1989
H.-P. Dörper: „Gott sei Dank waren die auch dicht.
Stell Dir mal vor...“
23
auf Transferraten von 6 MB/s. Gleichzeitig gehen die ersten
wassergekühlten CPUs der High Density Module in Großserie.
Schon 1991 feiert Hitachi die 1000ste allein durch die damalige
BASF-Tochter COMPAREX installierte Central Processing Unit.
Das waren andere Zeiten, selbst noch in den Achtzigern,
als Mainframes von Technikern mit dem Stethoskop auf Herz
und Lunge abgehört, um Schäden aufzuspüren, wie HeinzPeter Dörper erzählt. Kunden jener Tage waren so renommierte Unternehmen wie die Berliner Eternit, MTU München,
die Hannoveraner Conti oder Quelle in Nürnberg. Zuverlässigkeit der Produkte und die Flexibilität des Kundendienstes
zeichnen Hitachi bis heute aus. Herbert Kurzfeld, Kundenberater und Supporter der ersten Stunden bei der BASF-Datentechnik, erinnert sich an ein Projekt, wo Not am Mann war,
weil eine IBM CPU abgebrannt war. Binnen drei Tagen wurde
eine neue Hitachi CPU bestellt, über das Wochenende
installiert und in Betrieb genommen. Projekte gingen damals
noch vis à vis zwischen Kundenberater und IT-Chef selbst
über den Tisch, wenngleich immer mit akribischen Qualitätskontrollen. Bei Eternit in Berlin im Jahr 1977, der ersten
Installation auf deutschem Boden, erzählt Herbert Kurzfeld,
kam gleich ein ganzer Stab von Kollegen aus Japan, die die
Installation begleitet haben und die sich zum Abschluss des
Projekts vom ordnungsgemäßen Zustand überzeugten.
Beschleunigte Speicherwelten
Ende der Achtziger Jahre akquiriert Hitachi die Electronic
Data Systems. Aus ihr geht die Hitachi Data Systems hervor. Obwohl die Produkte über die BASF-Datentechnik und
später deren Tochter im europäischen Markt bereits seit den
G. Rimikis: „High Quality halt – für damals gut 200.000 Mark.“
24
Base Processing Unit für die CMOS-basierte HDS Pilot Series™. Siebziger Jahren vertrieben werden, ist nun Hitachi auch über
die HDS seit 1990 in Europa vertreten. Wenngleich seit 1993
nicht in allen europäischen Ländern, wird HDS von Hitachi
1999 auch in Deutschland neu gegründet. Als Vertriebsgesellschaft für die Hitachi Speicherprodukte operiert seitdem die
Hitachi Data Systems GmbH im deutschen Markt. EDV wird
IT. Rechenzentren werden Data Center. Die Speicherwelten
H.-P. Dörper: „Na, das war aber vor dem Verfall der
Hardwarepreise! Anfangs sogar für 1 Million!“
Hitachi Data Systems | True Storage Concept | Nummer 17
Seit Ende der Achtziger entwickelt Hitachi ihre Halbleiterspeicher weiter. Es sind die Väter der heutigen Solid State
Disks. Der 7900 Semiconductor brachte es in den Neuzigern
auf sage und schreibe 512 MB. 1995 erobern zugleich die
RAID-Systeme den Markt. TETRAGON (HDS 7700), die
Urmutter der USP V, wird zum Inbegriff von Zuverlässigkeit
und Leistung. Ein junger Produktmanager namens Dr.
Georgios Rimikis, heute Manager Solution Strategy, betreute
damals jenen Markt, den man heute als EMEA bezeichnen
würde. Er ist der Namensgeber dieses fast legendären
Produktes. Mit durchdachter und bewährt sorgfältiger
Entwicklung und extrem hoher Zuverlässigkeit wird TETRAGON sehr erfolgreich.
Entwicklung der Virtualisierung
Lieferte damals über 100 MIPS und 4GB Speicher in einem
kompakten und umwelteffizienten Gehäuse.
beschleunigen sich. Hatten früher Bandmaschinen das Backup im Unternehmen sichergestellt, so waren mit Beginn der
Neunziger Jahre die Kassettensysteme auf dem Vormarsch.
Heute verwendet man mehr und mehr auch Laufwerke als
Backup-Medium.
Die Evolution im Storage geht immer schneller vonstatten.
Speichervirtualisierung ist heute in aller Munde und unterstützt Unternehmen, ihre Geschäftsprozesse zu optimieren.
Hitachi hatte bereits Jahre zuvor mit der Entwicklung der
Virtualisierung sukzessive angefangen. 1995 überzeugte
die TETRAGON 2000 (HDS 7700) und etwas später die
TETRAGON 2100 (HDS 7700E) mit globalem Cache sowie
der Trennung von Verwaltungsinformationen und den Daten
selbst. Mit Lightning kommt im Jahr 2000 die Einführung der
ersten, skalierbaren Crossbar Switch Architektur. 2002 bringt
die Lightning V virtuelle Storage Ports für mehr Verbindungsmöglichkeiten über einen physikalischen Port. Sie stellt zudem
die zweite Generation der Crossbar Switch Architektur und
die Bildung unabhängiger Bereiche im Speichersystem
(Hitachi Storage Domains) bereit.
Die Daten wachsen ins Unermessliche. IT wird ITK.
Clouds ziehen am Horizont der Speicherwelten auf. Geschäftsabläufe wurden überall rationalisiert und formalisiert.
Das Prozessmanagement der modernen Unternehmensführung hat die Hemdsärmeligkeit der Gründerjahre zusehends
verdrängt. Doch auch Freiheitsgrade gingen damit verloren.
„Irrtum“, so scherzen die Mainframer augenzwinkernd, „wurde
durch Planung ersetzt.“ Doch auch wenn sich die Instrumente
und Mechanismen von Management und Service verändert
haben und Managed Services neue Arbeitsformen in der ITK
schufen, für die Consultants zählt, wofür Hitachi Data Systems
seit eh und je und immer noch steht: die persönliche Beziehung unter Kollegen, Kunden und Partnern, von Mensch zu
Mensch.
G. Rimikis: „Tja, wir hätten sie verkaufen sollen, anstatt sie
zu verwahren.“
Hitachi Data Systems | True Storage Concept | Nummer 17
25
Technologie
Von Wolkenmachern
und Cloud-Enablern
Konsolidierung und Virtualisierung gehen Hand in Hand.
Dr. Georgios Rimikis
Manager Solution Strategy
Hitachi Data Systems
Die Erfahrungen meines Landmanns Ikarus haben gezeigt, dass Bewegung in der Wolke faszinierend sein kann, vorausgesetzt, man hält die Spielregeln ein. Dädalus war erfolgreich, weil
er der Sonne angemessen fernblieb und die elementare wächserne Physik seiner Infrastruktur
beachtete, um auch wieder landen zu können. Technologien funktionieren meistens bestimmungsgemäß, auch Cloud. Wichtig sind die Voraussetzungen und die Umgebung ihres Einsatzes.
Fakt ist, dass Unternehmen große Erwartungen an die CloudTechnologien knüpfen. Für sie ist und bleibt gerade in angespannten wirtschaftlichen Zeiten das Datenwachstum eine
der größten und kostspieligsten Herausforderungen ihrer IT.
Ja, es gibt in kritischen Zeiten sogar Branchen und Geschäftsbereiche, bei denen das Datenwachstum sogar noch
stärker zunimmt als in normalen Phasen: Analysen, um neue
Geschäftsmöglichkeiten zu erschließen, oder neue Regulierungen- und Compliance-Anforderungen sind oft der Grund.
Der Druck, Kosten zu reduzieren, und die Notwendigkeit,
mit weniger mehr zu erledigen, war nie so groß wie heute.
Deshalb werden auf das Cloud Computing große Hoffnungen
gesetzt. Denn IT-Verantwortliche wissen, dass Konsolidierung
und Virtualisierung heutzutage Hand in Hand gehen.
Cloud-Architekten
Zugleich ist der diffuse Stoff der Cloud-Diskussion manchmal
recht undeutlich, allein schon begrifflicher Art. Um deshalb
gleich vorab alle nebulösen Mutmaßungen darüber auszuräumen, was Hitachi Data Systems seriöserweise zur Cloud
beitragen kann, sei klargestellt, dass wir uns nicht als Cloud
Service Provider sehen und auch nicht als ein solcher gesehen werden möchten, sondern allenfalls als Cloud Enabler
oder Architekten im großen Cloud Universum. Wir liefern
die Produkte, Technologien und Methoden, die es erlauben, dass Clouds überhaupt gebildet und dass die Services
dieser Clouds effizient angeboten und sicher erbracht werden
können. Denn Wolke hin, Nebel her: die Daten müssen ja
zunächst einmal auch physikalisch irgendwo residieren. Allein
dazu gibt es eine Fülle von Forderungen, nicht zuletzt an die
Datensicherheit.
26
These:Sie haben nichts davon, wenn sich
Ihre Cloud in Luft auflöst.
Es gibt viele und manche durchaus berechtigte Bedenken,
die den Einsatz von Cloud-Technologien betreffen:
rechtliche Einschränkungen, Sicherheit oder etwa den
Datenschutz. Die Datensicherheit ist unbestritten eine
Spezialität von Hitachi Data Systems und damit etwas,
das wir guten Gewissens zum Cloud Storage beitragen
können. Darüber hinaus bietet die neue Hitachi Content
Platform (HCP) eine Mandantenfähigkeit (Multitenancy).
Denn damit erst besteht die Möglichkeit, den gebotenen
Schutz für geschäftskritische Daten in Clouds unternehmensspezifisch zu realisieren.
Cloud Sicherheit
Wir von Hitachi Data Systems liefern also die Instrumente
oder, wenn Sie so wollen, die Fundamente, die dazu dienen, eine zuverlässige Cloud zu bilden. Sie haben wirklich
nichts davon, wenn sich Ihre Cloud auf verteilten Servern und
einfach gestrickten Storage-Systemen verflüchtigt und sich
die erhofften, ja bitter notwendigen Kostenersparnisse in Luft
auflösen, weil die Daten nicht zum gewünschten Zeitpunkt
verfügbar oder die archivierten Dokumente nicht zugänglich
sind.
Wir haben im Speichermarkt einen sehr guten Ruf, vor
allem im Bezug auf Sicherheit und Hochverfügbarkeit. Beide
sind essentiell für eine Cloud. Ein Speichersystem mit einer
Verfügbarkeit von 100% liefert eine andere Gesamtverfügbarkeit an die Cloud als eines mit 99,9 %. Doch das ist pure
Mathematik. Wir jedenfalls haben nicht nur die Hard- und
Software, sondern auch die Manpower und die Expertise
dafür.
Hitachi Data Systems | True Storage Concept | Nummer 17
Cloudfähige Lösungen
Wir bieten faktisch Virtualisierungslösungen für bis zu 247
PB Speicher pro System, für alle auf dem Markt gängigen
Speichersysteme, für heterogene Umgebungen und alle
Betriebssysteme (zOS, Unix, Windows, Linux). Wir schaffen
Konvergenz für file-, block- und content-basierte Daten, die
ebenfalls hinter der Virtualisierungsplattform residieren können. Hinzukommt ein Tiered Storage Management, das den
Wert der Daten an den Wert des Speichers koppelt und auf
Policies basiert. Das ist übrigens sehr interessant für periodisch erscheinende Prozesse.
Mit unserer logischen Partitionierung machen wir es
möglich, dass wir dem Abnehmer aus einer Ansammlung von
Speicherressourcen genau die richtige und die für sein
Geschäft passende bereitstellen, ohne dass die eine Partition
von der anderen etwas weiß. Das bedeutet nach unserem
Verständnis und für den Kunden, verlässlich, konsolidiert und
trotzdem unabhängig zu bleiben. Wir bieten durch den Hitachi
High Availability Manager (HAM) unterbrechungsfreie Migrationen nicht nur des virtualisierten Speichers, sondern auch der
virtualisierenden Instanzen!
Die Mandantenfähigkeit der Hitachi Content Platform
(HCP) erlaubt die Trennung der gespeicherten Daten in
unternehmensspezifischen Bereichen und liefert neue
Datenschutzmöglichkeiten. Sie beinhaltet Suchmechanismen,
mit denen sich Files und Content im Multi-Peta-Byte-Bereich
nach eigenen Suchkriterien durchsuchen lassen.
Das Dynamic Provisioning von Hitachi Data Systems
reduziert zudem Kosten, erhöht die Leistung des Systems
und verringert zugleich dessen Verwaltungsaufwand. Dies ist
mehr als herkömmliches Thin Provisioning, weil es mittels
Virtualisierung über die Grenzen des Systems hinausgeht. Es
wird ein einheitlicher Pool an Speicherressourcen bereitgestellt, der logisch den Applikationen zugewiesen ist. Eine
durchgängige Managementplattform integriert alle Speicherelemente der Storage Cloud.
Cloud Provider
Cloud Computing ist ein interessantes Konzept, das neue
Möglichkeiten eröffnet und gewiss neben anderen Konzepten
koexistieren wird. Die notwendigen technischen Instrumente
und Technologien wie Virtualisierung, Konvergenz etc. sind
vorhanden und bewährt. Die IT und ihre Speicherinfrastruktur
spielt in diesem Zusammenhang eine wichtige Rolle. Und sie
hat zwei Seiten, die unternehmenseigene des Kunden und die
der Service-Anbieter auf Seiten der Cloud Provider.
Hitachi Data Systems | True Storage Concept | Nummer 17
Eine große Herausforderung an uns als Speicherhersteller und zugleich unser eigenes großes Ziel ist bei all dem, in
Zusammenarbeit mit den Applikationshäusern sicherzustellen,
dass die Anwendung entscheidet, wann sie Speicher benötigt, und dass sie selbständig von der Speicherklasse bedient
wird, die für sie am besten geeignet ist. Noch ist das Zukunftsmusik. Doch beim Cloud Computing will der Kunde ja
einen Service, der Ergebnisse für seine Geschäftsprozesse
liefert und keine Storage-Bausteine, um die er sich selber
kümmern muss. Genau das ist Sache des Cloud Providers.
Anforderungen an Storage Clouds
• Automatisierung – Integration – Flexibilität
• schnelle Skalierbarkeit zu enorm großen Kapazitäten (PB)
• schnelle Provisionierung des Speichers
• auf Policies basierende Datenmigration
• Sicherheit – Datenschutz – Hochverfügbarkeit –
Standardisierung
Seine in der Cloud angebotenen Serviceleistungen müssen
den Geschäftszielen seines Kunden entsprechen. Daher
gehört zum Cloud Computing neben den bereitgestellten
Komponenten eine vorab definierte Infrastruktur und eine
Definition der Leistungsmerkmale, für die man ja sein gutes
Geld gibt, zumal mit der Hoffnung, welches zu sparen.
27
Cloud Strukturen
Die Bereitstellung der Cloud Services erfolgt in der Public
Cloud über das Internet, so dass Applikationen extern betrieben und Daten extern gespeichert werden. Nutzbar wird das
Ganze über ein Web-Interface oder dynamische Infrastruktu-
Cloudfähige Applikationen
Cloud Storage
Im Bereich privater Cloud, im Sinne von Cloud Storage, haben
wir mit unserer Art controllerbasierter Storage-Virtualisierung
bereits vor einigen Jahren die Grundlagen gelegt. Neue Technologien wie die Mandantenfähigkeit der Hitachi Content Platform (HCP) eröffnen im Cloud-Segment neue Möglichkeiten.
Anwendungen und Dienste, die sich aus heutiger Sicht für
den Bezug aus der Cloud eignen:
• Enterprise Resource Planning (ERP)
• Supply Chain Management (SCM)
• Customer Relationship Management (CRM)
• Data Warehousing
• Personalwesen, Beschaffung und Buchhaltung
• Backup, Remote Mirroring und Disaster Recovery
• Archivierung
• Spezielle: Web Conferencing, Wikis, Blogs
Wege zum Cloud Computing
Einstiege für Unternehmen, die ihre bestehende
IT-Umgebung in ein Cloud Computing überführen
möchten:
• Virtualisierung des Speichers sowie der Server
• Einübung von unterbrechungsfreier Datenmigration
• Migrationswege in der Cloud in Testumgebung
• Auswahl eines Anbieters mit Kontinuität im Markt
• Standardisierte Schnittstellen und offene
Industriestandards einsetzen
• IT-Mitarbeiter auf Prozess- und Businesslevel
ausbilden
Dennoch gibt es etliche rechtliche Bedenken, die vor allem
im Bereich Public Cloud verhaftet sind. Standardisierung und
einheitliche Schnittstellen müssen noch durchgängig geschaffen werden.
Die Storage Networking Industry Association (SNIA) hat
deshalb eigens eine Cloud-Storage-Gruppe gebildet, die sich
des Themas annimmt. Die SNIA hat beispielsweise eine
Arbeitsgruppe gegründet, die ein neues Cloud Data Management Interface (CDMI) entwickelt hat, das interoperables
Cloud Storage und Datenmanagement ermöglichen soll.
Vielerorts gibt es nach wie vor Bedenken, was Verfügbarkeit, Sicherheit und Compliance angeht. Wirklich nicht zu
unterschätzen sind der teils hohe Integrationsaufwand von
Clouds. Cloudwillige Unternehmen sollten jedenfalls frühzeitig
Vorbereitungen treffen.
28
ren, bei denen die Applikationen – bestenfalls mit minimalen
Kenntnissen der Anwender – in Echtzeit zu beziehen sind. Die
Erwartung lautet selbstverständlich: höchste Skalierbarkeit
bei Datenmenge und -nutzung, einfache Integrierbarkeit mit
unternehmenseigenen Systemen der Anwenderseite. Andere
hegen genau hier große Skepsis, ihre IT ins Web zu verlagern
und Abhängigkeiten einzugehen. Aus Sicht der Cloud Provider wird das Cloud Computing zudem dann erst attraktiv,
wenn der Dienstleister damit in der Lage ist, seine angebotenen Services für eine Großzahl von Kunden bereitzustellen.
Konsolidierung und Virtualisierung sind bei Hitachi Data
Systems kein Widerspruch, sie gehen Hand in Hand. Denn
die controllerbasierte Virtualisierung bietet eine Konsolidierung
unter einem einheitlichen Management Layer.
Fazit
Natürlich wird die Cloud einen Reifeprozess durchleben.
Schließlich unterliegt auch IT bestimmten evolutionären
Gesetzen und nur wenig gelingt über Nacht. Doch die Cloud
muss funktionieren. Denn Pannen kommen teuer zu stehen.
Dafür stehen die Cloud Enabler und die Provider gemeinsam
ein. Aus ihrer Zusammenarbeit werden mit der Zeit weitere
und weit größere Chancen in der Cloud entstehen, während
die Risiken minimiert, ja bestenfalls eliminiert werden. Hitachi
optimiert ihre Technologien laufend dorthin.
Hitachi Data Systems | True Storage Concept | Nummer 17
Was
Was
SieSie
schon immer über
schon immer
zu
Backup
& Recovery,
Deduplizierung,
Virtualisierung
Open-Source- und Cloud-Backup
wissen wollten ...
wissen wollten ...
NEU!
:
loaden
n
w
o
d
stenlos
o
k
t
z
t
Je
rage.de/
rchSto
a
e
S
.
w
ww
dium/
Kompen
Entscheiderwissen für Datacenter & Virtualisierung
Technologie
Der Speicher aller Klassen
Hitachi Content Platform für agile Clouds
Dirk Walde
Archive Solution Manager
Hitachi Data Systems
Cloud Computing ist ein viel versprechender Weg, Anwendungen im
Unternehmen als IT-Services intern bereitzustellen oder über öffentliche Netze zugänglich zu
machen. Private und Public Clouds liefern Applikationen, Daten und Speicher, wann, wie und
wo auch immer sie gebraucht werden. Die agilen Cloud-Technologien von Hitachi beschleunigen und vereinfachen den Aufbau solcher Cloud-Computing-Umgebungen. Hitachi Data
Systems liefert hierzu mit der Hitachi Content Platform (HCP) als Kernstück die branchenweit
best­integrierte Speicherlösung, um einen einheitlichen Pool an virtualisierten Block-, File- und
Content-Speichern zu erzeugen.
Agile Lösungen
Die Content- und Infrastruktur-Clouds von Hitachi Data
Systems erlauben den nahtlosen Zugriff auf alle Informationen
und IT-Ressourcen. Daher erzeugen die branchenweit führende Hitachi Universal Platform V bzw. VM, die preisgekrönte
Hitachi Adaptable Modular Storage (AMS) wie auch die Hitachi Content Platform (HCP) gleichermaßen jene einheitlichen
virtuellen Speicherpools. Sie sind mit allen benötigten CloudEigenschaften versehen, um jede Art von IT-Service bedienen
zu können, je nach Bedarf, je nach Budget und je nach den
besonderen Sicherheitserfordernissen für geschäftskritische
Daten. All diese Dienste werden normalerweise als serverbasierte Lösungen bereitgestellt, die allesamt auf Abruf Speicher
für anfragende Anwendungen liefern und damit interne wie
externe Nutzer von Cloud Services versorgen.
passungsfähigkeit, und dies auf eine kosteneffektive Art, die
auf den vorhandenen IT-Investitionen aufsetzt.
Datensicherheit geht vor
Diese Eigenschaften erlauben es den Unternehmen, ihre
Daten sicher zu trennen und verschiedene Funktionen und
Service-Levels für unterschiedliche Datenbestände und -arten
zu nutzen. Denn Datensicherheit geht vor allem anderen. Gerade unter diesem Aspekt eignet sich die HCP für eine schrittweise Einführung des Cloud Computing im Unternehmen,
weil sich geschäftskritische Services ganz nach den eigenen
Sicherheitsbedürfnissen sukzessive einführen lassen. Dieser
einzigartige Ansatz setzt nicht umsonst auf eine durchgängige
Infrastruktur, die verlässlich, skalierbar, mandantenfähig und
Inhaltsbasierter Speicher
Die Hitachi Content Platform – die vormalige Hitachi Content
Archive Platform (HCAP) – stellt als eine solch durchgängige
Plattform eine intelligente, inhaltsbasierte Speicherlösung dar.
Diese bedient über ein einheitliches Speichermanagement alle
Speicherklassen und hilft insbesondere, die unstrukturierten
Daten in den Griff zu bekommen. Die entscheidenden Merkmale, die die HCP für die Cloud prädestinieren, sind dabei
vor allem ihre mandantenfähige Architektur. Hinzukommen
aber auch die intelligenten Verschlüsselungsmechanismen,
ihre Aufbewahrungs- und Verwendungsdienste sowie ihre
praxisbewährte Hochverfügbarkeit. Mit der HCP lassen sich
IT-Ressourcen konsolidieren, automatisieren und langfristig
dynamisch nutzen. So entsteht höchste Sicherheit und An-
30
mehrstufig angelegt ist. Zugleich bietet die HCP für den laufenden Betrieb all jene Features, die sowohl die Anwendungen
als auch die Administration effektiv unterstützen: eine integrierte Suche, sichere Migration und Archivfunktionalitäten, die
auch so dringend benötigte Aufgaben wie die rechtskonforme
Aufbewahrung von Daten berücksichtigt. Entstanden und
verbessert in langer praktischer Erfahrung mit der HCAP stellt
die HCP zugleich höchste Leistungsfähigkeit zur Verfügung.
Sicherheit bei der Virtualisierung der IT-Assets und individuelle
Bereitstellung von Cloud-Service-Optionen machen sie damit
zur bevorzugten Wahl cloudwilliger Unternehmen. Dabei
unterstützt Hitachi das gesamte Spektrum an Infrastrukturund Content-Services in öffentlichen, privaten und hybriden
Clouds.
Hitachi Data Systems | True Storage Concept | Nummer 17
Homogene und hybride Cloud
Die Hitachi Content Platform hat sich bei Archivierung,
Content-Ablage und effektivem Backup unter allerhöchsten
Anforderungen bewährt. Dabei ermöglicht der durchgängige
und zugleich offene Ansatz den Partnern von Hitachi Data
Systems, ihre eigenen Lösungen und Services zu integrieren. Schließlich geht es darum, die gewünschten CloudEigenschaften im Dienste des Kunden herstellerübergreifend
auszubauen. Zudem zeichnen sich Hitachi Speicher-Systeme
durch ihre flexible Partitionierung
und Replikation aus. So können
Daten sowohl für öffentliche als
auch für private Clouds voneinander getrennt werden. Dies erlaubt
die Nutzung einer einzigen In­fra­
struktur als hybride Cloud, die
beiden Bedürfnissen getrennt und
gleichermaßen gerecht wird. Mit
der Replikationsfunktionalität von
Hitachi, die eine Replikation „in the
box“ bietet, ist es zudem möglich,
Inhalte, die auf einer anderen Plattform erzeugt werden, über die Hitachi Content Platform unmittelbar
in der öffentlichen Cloud zugänglich
zu machen.
Provisionierung
inbegriffen
Hitachi Dynamic Provisioning
Software macht es Speicher-AdmiHitachi Content
nistratoren leicht, eine große Zahl
Platform
virtueller Disks vorab zu definieren,
während faktisch nur der minimal
benötigte physikalische Speicher
vorgehalten wird, um Anforderungen möglichst kurzfristig bedienen zu können. Sind zusätzliche Speicherkapazitäten erforderlich, können diese im
dynamisch vorgehaltenen Speicherpool allokiert werden. Auf
die agile Cloud-Infrastruktur hat dies keinen Einfluss, sie bleibt
jederzeit verfügbar.
Business Continuity
Die Hitachi Content Platform ist deshalb eine so leistungs­
starke Lösung, weil sie Archivierung, Business Continuity und
Hitachi Data Systems | True Storage Concept | Nummer 17
Content-Ablage ebenso vereint wie Notfall-Wiederherstellung
und E-Discovery. Objektnummerierung und Archivierungsservices für Aufbewahrung und Verbleib sind in der tagtäglichen
Arbeit von hohem praktischen Nutzen, nicht zuletzt von großer wirtschaftlicher Bedeutung, was eine effiziente Betriebskostensenkung anbetrifft. Ebenso lassen sich verschiedene
SLAs und Funktionen für unterschiedliche Datensätze nutzen.
Vor allem aber ihre mandantenfähige Architektur ist ein entscheidendes Plus im Cloud Storage.
Mandantenfähigkeit
Mit ihrer neuen Funktion der Mandantenfähigkeit stellt die
Hitachi Content Platform eine Umgebung bereit, die innerhalb
einer gemeinsam genutzten Infrastruktur individuelle Sicherheit und Datenschutz auch für mehrere Beteiligte gewährleistet. Durch die Vielzahl an unterstützten Protokollen und
Technologien von Drittanbietern hilft Hitachi Data Systems
den IT-Verantwortlichen, ihre Investitionen in Hard- und Software auch weiterhin bestmöglich zu nutzen. Auch Altsysteme
können durchaus Cloud-Eigenschaften übernehmen. Eine
komplette Erneuerung der Hard- und Software ist gar nicht
notwendig. Dies alles macht die Einführung der agilen CloudInfrastruktur von Hitachi wirtschaftlich, zumal auch bestehende Anwendungen nicht angepasst werden müssen. So
besteht auch beim Übergang in die Clouds optimaler Investitionsschutz.
Vorteile der agilen Cloud-Infrastruktur
von Hitachi Data Systems
• Reduzieren von Investitionskosten (CAPEX)
• Senkung der Betriebskosten (OPEX)
• Konsolidierung und Mandantenfähigkeit
• Speicheranforderung „just in time“
• Verbesserung des Return on Assets (ROA)
• Deutlich verbesserte Auslastung
• Ältere Inhalte werden Teil der Cloud
• Storage Service Level Management
• Verschiedenste QoS-Speicherklassen
• Services zur Datenmobilität
• Erweiterte Business Continuity
• Hochverfügbarkeit
• Verbesserter Datenschutz
• Einsparung von Lizenzgebühren
• Unterbrechungsfreie Migration
• Erhöhte Ausfallsicherheit
31
Technologie
Wissen statt fühlen
Managed Services schaffen
optimale und verlässliche Lösungen.
Andreas Wagner
Director Global Services
Hitachi Data Systems
Die optimale Einrichtung und ständige Überwachung von Speicherumgebungen sind Voraussetzungen für einen kosteneffizienten und verlässlichen Betrieb. Hitachi Data Systems stellt mit
Managed Services im Rahmen seiner Professional Services hochqualifizierte Spezialisten zur
Verfügung. Damit liefert Hitachi Data Systems das komplette Know-how, das zum optimalen
und effizienten Betrieb komplexer IT-Umgebungen notwendig ist.
Wer könnte besser Best Practices und Leitlinien vorgeben als
der Hersteller selbst? Die momentane Praxis vieler IT-Abteilungen sieht leider immer noch so aus, dass Entscheidungen
größtenteils auf Gefühlsbasis stattfinden. Hier will Hitachi Data
Systems mit seinen Managed Services Fakten und Wissen
an die Stelle von Gefühlen setzen. Egal ob es um Planung,
Optimierung oder Betrieb geht, stets gilt es, eine Fülle von
Faktoren in Einklang zu bringen, seien es SLAs, Gesetze,
Kosten oder die Performance.
Praxisnahe Lösungen, aber immer auch der Mensch
stehen im Mittelpunkt unserer Überlegungen. Ausgebildete,
erfahrene Consultants bringen eine langjährige Erfahrung ein,
die bewährte Methoden und effiziente Operationen auf die
besonderen Verhältnisse vor Ort überträgt. Auch das ist es,
was unsere Techniker auszeichnet. Denn unser Service ist so
individuell, wie unsere Kunden selbst.
Remote und vor Ort
Hitachi Managed Services können überall und jederzeit
flexibel abgerufen werden, ob dauerhaft verlässlicher Service
gefragt ist oder ob Lücken temporär gefüllt werden müssen.
Sie werden prinzipiell auf zweierlei Weise erbracht, als Fernwartungsservice wie etwa für Fernüberwachung und Remote
Management oder als Vorort-Service bei Administration und
Support.
Residency Services
Eigene Kapazitäten sind in vielen Unternehmen heutzutage
oftmals ausgeschöpft. Unternehmensinterne Expertise, die für
ein effizientes, flexibles und kostenbewusstes Management
von Speicherinfrastrukturen benötigt wird, ist oft nicht mehr in
allen Bereichen verfügbar. Weil sich die geschäftlichen Anfor-
Hitachi Services
Hitachi Managed Services
So vielfältig wie
Ihr Unternehmen
Hitachi Managed Services zum Management, Betrieb
und Support der Speicherinfrastruktur umfassen:
• System- und Speicherverwaltung und Konfiguration
• Speicherzuordnung/Provisionierung
• Performance-Analyse und Problemlösung
• Tagesaktuelle Erbringung zugewiesener Speicher
an Server
• Speicherbericht/-analyse
• Kapazitätsmanagement
• Störungsmanagement/Problemmanagement
• Änderungsmanagement
• Custom Residency – Know-how vor Ort
Wir sind da, wo Sie uns brauchen.
32
Hitachi Data Systems | True Storage Concept | Nummer 17
derungen aber kontinuierlich weiterentwickeln, muss auch die
Speicherinfrastruktur laufend angepasst werden, um Schritt
zu halten und konkurrenzfähig zu bleiben.
Hitachi Data Systems Residency Services stellen dazu
Fachkräfte und Know-how individuell zur Verfügung. Erst ein
einheitliches Speichermanagement kann die vorhandenen
Speicherinvestitionen maximal ausschöpfen. Unsere Services
beinhalten deshalb die komplette Speicherbereitstellung und
-verwaltung sowie zusätzlichen Wissenstransfer, falls fehlende
Fachkenntnisse innerhalb der IT aufgefangen werden müssen.
Abhängig von den jeweiligen Geschäftsanforderungen
können unsere Managed Services begleitend vor Ort, remote
oder in einer Kombination aus beidem erbracht werden. In der
Regel sind unsere Services auf eine Dauer von drei bis zu
zwölf Monaten ausgelegt. Selbstverständlich können längere
Laufzeiten vereinbart werden.
Services-Portfolio
Das umfangreiche Angebot von Managed Services von
Hitachi Data Systems ist darauf ausgerichtet, unsere Kunden
bei einer Vielzahl von unternehmerischen Herausforderungen
zu unterstützen. Mit deren Hilfe erreichen die Unternehmen
einen höheren und schnelleren Return on Invest ihrer Speicherinfrastruktur oder sie füllen kritische Personal- und Knowhow-Lücken. Sie verbessern die Auslastung der Systeme und
erhöhen somit auch die Zufriedenheit der Mitarbeiter innerhalb der verschiedenen Geschäftseinheiten, weil sie helfen,
die Service-Level-Vorgaben zu erfüllen.
Experten für SAN, Mainframe oder Open Systems wie
auch unsere Consultants für die Replikation erhöhen die
Performance der Infrastruktur. Sie optimieren deren Leistung,
indem sie nicht nur standardisierte Prozesse und Werkzeuge
nach ITIL anwenden, sondern auch bewährte Hitachi Data
Systems Best Practice implementieren. Sie schließen kritische
Personallücken, transferieren Know-how und sorgen auch
nach Abschluss ihrer Serviceleistungen für eine effektive
innerbetriebliche Schulung der Unternehmensmitarbeiter.
Damit auch sie in der Lage sind, ihre Speicherinfrastruktur
optimal zu betreiben.
Hitachi Services
Hitachi Residency Services
So individuell wie Ihre IT
• Systemadministration
• Speicherbereitstellung
• Speicheradministration und -konfiguration
• Datenaufbewahrung und Datenschutz
• Reports zur Speichernutzung und Performance
• Verwaltung der Speicherkapazitäten
• Störungs- und Problemmanagement
• Change Management
• Konfigurationsmanagement
• Dokumentation und deren Aktualisierung
• Transition Services
• Best Practice von Hitachi Data Systems
Wir sind da, wo Sie uns brauchen.
Hitachi Data Systems | True Storage Concept | Nummer 17
33
Healthcare
Krankenhaus-Daten voll im Griff
St. Martinus-Hospital GmbH
Gesetzliche Regelungen fordern von Krankenhäusern erhebliche Anpassungen in der IT –
Patientendaten müssen sicher und langfristig gespeichert und in der Folge effizient archiviert
werden. Das St. Martinus-Hospital in Olpe geht diese Anforderungen jetzt in einer zweiten
Stufe mit der neuen Storage-Lösung AMS2100 von Hitachi Data Systems an.
Die bestimmenden Themen im IT-Bereich des Gesundheitswesens rund um die Krankenhäuser sind nach wie vor zwei
Schwerpunkte – die digitale Bildspeicherung (PACS) sowie
das Krankenhaus-Informations-System (KIS). Darüber hinaus
sind Krankenhäuser vielleicht noch mehr als andere, „normale“ Unternehmen gezwungen, ihre Kosten zu senken.
Momentan findet auf dem Krankenhausmarkt ein Verdrängungswettbewerb statt, den laut Aussage einiger Experten
(vergleiche etwa Lohmann-Report) viele Häuser nicht überleben werden.
Damit insbesondere die nicht in großen Krankenhausketten organisierten Einrichtungen eine Chance am Markt haben,
müssen sie besonders darauf achten, ihre IT-Infrastruktur
besonnen und langfristig auf Effizienz und Nachhaltigkeit zu
trimmen. Auch das St. Martinus-Hospital in Olpe muss gemäß
diesen Herausforderungen handeln und setzt bereits seit
einigen Jahren KIS- und PACS-Systeme ein. Bereits 2006
mussten die Verantwortlichen aus diesem Grund ihre IT
entsprechend anpassen und setzten auf eine Storage-Lösung
der Reihe AMS 200 von Hitachi Data Systems, um die durch
KIS und PACS ausgelösten Speicheransprüche abzudecken.
Der Erfolg und die breite Akzeptanz des Systems sowie
die stetig steigenden Datenmengen führten jedoch bereits im
Jahre 2008 an die Grenzen der installierten Systeme. „Unser
medizinisches Personal hat die digitalen Systeme schnell
akzeptiert“, bestätigt Ingo Steiger, IT-Verantwortlicher beim St.
Martinus-Hospital. „Die aktuelle Situation im Gesundheits­
wesen macht einen zunehmenden Einsatz von EDV-Systemen
erforderlich. Es wird immer wichtiger, große Datenmengen
bereitzuhalten.“ Immerhin sind einzelne Dateien etwa bei einer
Untersuchung mit dem Kernspintomographen bis zu mehrere
hundert Megabyte groß. Um sich auf die steigenden Datenmengen und weitere speicherintensive Anwendungen wie
Desktopvirtualisierung, Datensicherung sowie sichere
Archivierung vorzubereiten, stand eine Erweiterung der
Systeme im Raum.
Steiger wandte sich auf Grund der guten Erfahrungen im
vorangegangenen Projekt an das Systemhaus Computacenter. Dort hat man viel Erfahrung mit IT-Lösungen im Krankenhausumfeld. „Zwei bis dato erfolgreich umgesetzte Projekte
mit der seit Kurzem verfügbaren AMS2000 Serie haben uns
veranlasst, nicht nur über eine Aufrüstung nachzudenken“, so
St. Martinus-Hospital Olpe
Die Katholische Hospitalgesellschaft Südwestfalen gGmbH ist eine modern geführte Unternehmensgruppe, die im Jahr 2000
aus dem Zusammenschluss der beiden Krankenhäuser St. Martinus-Hospital, Olpe, und St. Josefs-Hospital, Lennestadt,
hervorging. Mittlerweile vereint die Gesellschaft unter ihrem Dach neben den beiden Krankenhäusern 3 Pflegeeinrichtungen,
2 Dialysezentren, 2 Medizinische Versorgungszentren. Unsere Gesellschaft ist der größte Ausbildungsanbieter für qualifizierte
Berufe im Gesundheitswesen im Kreis Olpe. Über 1200 Mitarbeiter kümmern sich in den Einrichtungen um die Genesung der
Patienten und das Wohlbefinden der Bewohner.
Das St. Martinus-Hospital ist ein Krankenhaus der Grund- und Regelversorgung mit den anerkannten Teilgebieten Kardiologie,
Dialyse/Nephrologie, Infektionsabteilung (10 Planbetten) und den Schwerpunkten Unfall- und Wiederherstellungschirurgie,
Gefäß- und Visceralchirurgie, Angiologie, Gastroenterologie, internistische Onkologie, Schmerztherapie, operatives Brustzentrum, gynäkologische Onkologie und einer interventionellen Radiologie.
34
Hitachi Data Systems | True Storage Concept | Nummer 17
Heiko Börger von Computacenter. Und
so konnten daher zeitnah drei mögliche
Konzepte zur Erweiterung beziehungsweise Anpassung der Speichersysteme angeboten werden.
1.Erweiterung des bestehenden
Systems um ein weiteres
Storage-Shelf
2.Ein weiteres AMS 200 StorageSystem als mittelfristiger Ausbau
3.Die Installation einer AMS2100 zur Erweiterung des
Speichervolumens und Neuverteilung der vorhandenen
Daten auf beide Systeme zur Optimierung der I/O Last
Schnell kamen die beteiligten Parteien zu dem Schluss,
dass eine Erweiterung des bestehenden Systems durch ein
zusätzliches Shelf oder den Einsatz einer weiteren AMS 200
für die zukünftigen Entwicklungen nicht ausreichen würde.
Zudem zeigten die Berechnungen, dass der Umstieg auf das
Nachfolgesystem AMS2100 nur geringfügig höhere Anschaffungskosten bedeutete, die insbesondere in Relation zum
Mehr an Leistung jedoch nicht ins Gewicht fielen. Des Weiteren
erhofft man sich in Olpe Einsparungen bei den Betriebskosten
des neuen Systems, etwa durch die optimierte Konfiguration
oder Wartung der AMS und auf Grund der eingebauten
Energiesparfunktion zur Reduzierung der Umdrehungsgeschwindigkeit der Festplatten.
Reale Vorteile aus Virtualisierung
Nachdem die Entscheidung für die AMS2100 fiel und die
Rahmenbedingungen mit Computacenter definiert wurden,
ging es direkt in die Umsetzungsphase. Die Storage-Systeme
wurden eingebunden und die bestehenden Daten übernommen beziehungsweise die Lasten auf beide Systeme verteilt.
Bei der Konfiguration der Systeme wurden die bisherigen
Parameter beibehalten und nur auf das neue System übernommen.
Die Fibre-Channel-Platten arbeiten mit 64-K-Blöcken
und sind damit ideal für schnelle Datenbankzugriffe geeignet.
Bei den SATA-Platten nutzt das Krankenhaus 256-K-Blockgrößen. So lassen sich große Datenmengen mit hoher
Geschwindigkeit vom und zum Speichersystem übertragen.
Auch nutzt man weiterhin in allen Bereichen SATA-Platten
statt Fibre-Channel-Pendants, da sie in Verbindung mit dem
leistungsfähigen Controller der AMS2100 mehr als ausreichend für die Anwendungen sind.
Hitachi Data Systems | True Storage Concept | Nummer 17
Auch die Virtualisierung greift auf das Storage-System zu
und garantiert damit eine hohe Verfügbarkeit und Zuverlässigkeit der Anwendungen. Dabei profitiert auch die KIS-Applikation von der Virtualisierung, da sich die High-Availability-Funktionalität der eingesetzten Lösung äußerst vorteilhaft auf die
Sicherheit der Systeme auswirkt.
Mittlerweile sind mehr als 40 Serversysteme virtualisiert
und auf 4 ESX Server gehostet. Die Daten stehen zentral, über
redundante Pfadanbindungen, in den beiden SANs zur
Verfügung. Zusätzlich besteht noch ein Cluster aus 2 Servern
für die Praxissoftware der MVZs und die User-Verzeichnisse.
Neben PACS und KIS liegen die Benutzerverzeichnisse und
eine Praxissoftware mit fünf angebundenen Praxen in der
AMS2100. Die optionale Path-Manager-Software sorgt dafür,
dass beim Ausfall einer Verbindung automatisch auf die
zweite umgeschaltet wird.
Derzeit ist das System mit einer Kapazität von 12
Terabyte ausgerüstet, was einer Erweiterung von 50 Prozent
gegenüber dem alten System entspricht. Neben der Anwendungsseite nutzt das St. Martinus-Hospital die StorageLösungen auch für Backup-Zwecke. Zusätzlich werden die
gesicherten Daten aus dem Backup2Disk-Bereich auf ein
Bandlaufwerk LTO4 (Linear Tape Open) kopiert.
Sicherheit durch Remote Management
Die AMS2100 wird durch Hitachi remote überwacht, so dass
die Techniker im 13 x 5 Servicezentrum als Erste benachrichtigt werden, wenn das System nicht mehr innerhalb seiner
normalen Parameter arbeitet. Die AMS erkennt dabei Ausfälle,
lange bevor sie akut werden, und benachrichtigt selbstständig einen Techniker. Die IT-Abteilung bekommt höchstens
noch einen Anruf, wenn sich die AMS2100 nicht täglich beim
Service­zentrum meldet. Damit ist neben der reinen Kapazitätserweiterung auch die Anforderung nach der Verfügbarkeit
und Sicherheit des Systems gewährleistet.
35
IT-Outsourcing
Hochverfügbarkeit für Daten
Atos Origin vertraut auf Services von Hitachi Data Systems
Wer das Datenmanagement fremder Unternehmen übernimmt, verfügt über ein verantwortungsvolles Geschäftsmodell. Atos Origin ist ein Spezialist im IT-Outsourcing mit mehr als
20 Jahren Erfahrung. Um die nötige IT-Security für die gehosteten Daten seiner Kunden
gewährleisten zu können, hält die in Essen beheimatete deutsche Tochtergesellschaft des
Konzerns die Sicherungsmechanismen stets auf dem neuesten Stand der Technik. Jüngstes
Projekt zur weiteren Optimierung der IT-Sicherheitsstrukturen war ein in Zusammenarbeit mit
Hitachi Data Systems entwickeltes Konzept für ein effizientes Data Warehouse Backup.
Hierfür entwickelten die Abteilung Global Services von Hitachi gemeinsam mit Atos Origin
ein Verfahren zur rotierenden Spiegelung der Daten. Besondere Anforderungen stellte die
Anbindung des Backups an die Schnittstelle des Data Warehouse.
Nachdem der Kostendruck in Unternehmen nicht erst seit
der jüngsten globalen ökonomischen Schieflage eine bestimmende Komponente ist, suchten viele Firmen bereits seit dem
Platzen der New-Economy-Blase verstärkt nach Möglichkeiten zum IT-Outsourcing. Von diesem Trend konnte die im Jahr
2000 aus der französischen Atos und der niederländischen
Origin entstandene Atos Origin bei der eigenen Geschäftsentwicklung profitieren – die Zeichen standen und stehen auf
Wachstum: Zu den Kunden des IT-Dienstleisters zählen namhafte Firmen aus der Telekommunikationsbranche, dem Automobilbau sowie weitere bekannte Firmen aus verschiedenen
Sektoren. Eines haben all diese Unternehmen gemeinsam –
sie haben Atos Origin ihre IT anvertraut. Dies bedeutet jedoch,
dass das Outsourcing-Unternehmen bei steigenden Datenmengen und trotz Wachstums jederzeit für den reibungslosen
Ablauf aller zugesagten Leistungen geradestehen muss.
Optimierung der Backup-Mechanismen
Die ihnen übertragene Aufgabe nehmen die für die Rechenzentren in Ratingen und Essen zuständigen Mitarbeiter sehr
ernst. „Die zu sichernden Data Warehouses haben zwar auf
kurze Sicht keine vitale Funktion für unsere Kunden. Sie sind
jedoch unverzichtbarer Bestandteil der langfristigen Strategieplanung und auch kurzfristiger taktischer Maßnahmen,
zum Beispiel aus dem Bereich Marketing oder im Fall eines
Mobilfunkanbieters bezüglich der Netzauslastung. Aus diesem
Grund ist auch für den Bereich der Warehouses Hochver-
36
fügbarkeit die Maxime“, erläutert Jörg Backschues von Atos
Origin die Bedeutung einer reibungslos und zuverlässig funktionierenden IT-Landschaft. „Deswegen sind wir immer auf
der Suche nach Möglichkeiten, unsere Backup-Mechanismen
weiter zu verbessern.“ Dabei vertraut Atos Origin nicht nur
auf die eigenen Experten, sondern auch auf externe Spezialisten. Mit Hitachi Data Systems hat das Unternehmen einen
Partner gefunden, der mehr als nur Technologien bietet, wie
Backschues bestätigt: „Wir stehen in einer engen Kooperation
auf Augenhöhe und vertrauen uns gegenseitig. Daher waren
wir zum Beispiel auch in der Lage, das neue Design für unser
Data Warehouse Backup gemeinsam zu entwerfen.“
Entkopplung von Datensicherung
und Produktionsprozess
Insgesamt galt es, ein stimmiges Backup-Konzept für das
gesamte Datenvolumen von 120 Terabyte Daten zu definieren,
von denen 40 Terabyte auf die Produktivdaten entfallen. Der
Rest verteilt sich gleichmäßig auf eine doppelte Sicherung.
Die Notwendigkeit, an dieser Stelle den Hebel anzusetzen, hat
sich durch die zunehmend längeren Backup-Zeiten der alten
Lösung ergeben: Mit den eingesetzten Tapes konnten die Sicherungen teilweise nur noch alle zwei Wochen durchgeführt
werden, außerdem sank die Performance der Applikationen
während des Sicherungsprozesses. Das Projektteam schrieb
sich daher als Anforderung ins Lastenheft, ein wöchentlich
stattfindendes Backup auf Band zu ermöglichen. Eine Ausla-
Hitachi Data Systems | True Storage Concept | Nummer 17
gerung des Sicherungsprozesses in die Storage-Landschaft
sollte zusätzliche Entlastung bringen – Ziel war es, Sicherung und Produktionsprozess der Daten zu entkoppeln. Die
Storage-Infrastruktur bei Atos Origin erwies sich dabei nach
Anschaffung einer Universal Storage Plattform (USP) von
Hitachi Data Systems als den aktuellen Herausforderungen
gewachsen. Die entscheidende Anforderung war demzufolge
die Integration der Applikation in die Speicherlandschaft.
Um dieser Notwendigkeit angemessen begegnen zu
können, erstellte das Team um Jörg Backschues den
Projektanforderungen entsprechend in Zusammenarbeit mit
werden konnten – die Primärdaten sollten nicht verändert
werden können.
Somit war die größte Herausforderung nicht die Infrastruktur, sondern die Verknüpfung der Applikationen mit dem
Unternehmensspeicher über die Anpassung der Schnittstelle.
„Wir verstehen bekanntermaßen eine Menge von Storage
– nicht umsonst sind wir Technologieführer bei der Controllerbasierten Speichervirtualisierung und werden auch als solcher
wahrgenommen“, so Andreas Wagner weiter. „Wir wollen
künftig erreichen, diese Wahrnehmung auch für unsere
Services zu erhalten. Über das nötige Know-how verfügen
wir.“ Die von beiden Unternehmen entwickelte Anpassung
basiert auf dem Hitachi-Replication-Manager, einer Software
zur Kontrolle der ShadowImage-Operationen für den Einsatz
in offenen Systemen. Die Implementierung konnten die
Experten unter Einhaltung aller gesetzten technischen
Vorgaben innerhalb von drei Monaten bei nahezu völliger
Aufrechterhaltung des Betriebs umsetzen. Die eigentliche
Migrationsphase nahm nur ungefähr eine Woche in Anspruch.
„Die reibungslose Zusammenarbeit mit dem Team der Global
Services war der Garant für den Erfolg dieses Projekts“,
bestätigt Backschues die ausgezeichnete Leistung des
Projektteams von Hitachi Data Systems.
Performance-Steigerung bei
Reduzierung der Festplattenzahl
Atos Origin Firmengebäude
Hitachi Data Systems eine Anbindung an die Schnittstelle des
auf einem Solaris-Betriebssystem laufenden Data Warehouse.
„Die Anbindung musste mächtig genug sein, um das Management der Sicherung über Hitachi ShadowImage – einer
heterogenen Software zur Replikation von Daten – übernehmen zu können“, so Andreas Wagner, Leiter der Global
Services von Hitachi Data Systems. „Das Backup-Konzept
sah eine 1:2 Spiegelung vor: Die 40 Terabyte Produktivdaten
sollten im rotierenden Verfahren abwechselnd gespiegelt
werden. Durch dieses Konzept ist die ständige Verfügbarkeit
einer Sicherungsinstanz gewährleistet, auch wenn die
Sicherung der Produktivdaten gerade läuft.“
Die Global Services wurden von Hitachi zur Umsetzung
individueller Bedürfnisse von Unternehmen im Bereich
strategischer IT-Maßnahmen etabliert. Diesem Credo folgend
entwickelte das Projektteam die Anbindung an die DataWarehouse-Schnittstelle so, dass keine Daten überschrieben
Hitachi Data Systems | True Storage Concept | Nummer 17
Dank der neuen Lösung ließ sich die Performance des Data
Warehouse enorm steigern. Bemerkenswert ist dies vor allem,
weil die Zahl der Festplatten im Vergleich zur alten Lösung
reduziert wurde: Die insgesamt 120 Terabyte Nettospeicher
verteilen sich nun auf eine geringere Anzahl von Hard Disks
mit einer von 72 auf 146 Gigabyte erhöhten Kapazität, wobei
die Performance trotz der Mehrbelastung für die einzelnen
Platten stieg. Zudem ist die Gesamtlösung skalierbar und auf
eine Ausweitung der Funktionalitäten ausgelegt. „Darüber
hinaus können wir die Lösung bei vielen unserer Kunden einsetzen“, so Backschues. „Insbesondere beim Punkt Vorratsdatenspeicherung spielen die Data Warehouses eine wichtige
Rolle. Daher war uns die Flexibilität für künftige Anforderungen
sehr wichtig.“ Für die Vorratsdatenspeicherung bedarf es zum
Beispiel einer dritten Speicherinstanz, die eine Verfügbarkeit
von 99,999 Prozent erreichen muss. Die neue Backup-Struktur ist diesen Anforderungen bereits heute gewachsen – und
sie gewährleistet zudem das, was alle Kunden von Atos Origin
am meisten benötigen: Zuverlässigkeit bei niedrigen Kosten.
37
Lebensmittellogistik
Natürliches speichern
Naturkostspezialist Dennree setzt auf Hitachi Data Systems
Bei Logistikexperten wie dem Naturkostgroßhändler Dennree müssen neben den Waren auch
die Daten der Unternehmens-IT sicher „gelagert“ werden – eine effiziente und skalierbare Speicherumgebung ist das technische Rückgrat der Qualität der vertriebenen Produkte. Dank einer
virtualisierten Umgebung mit Hardware von Hitachi Data Systems ist Dennree für das geplante
Unternehmenswachstum gut vorbereitet. Das zugehörige Konzept inklusive Ausfallsicherheit
erarbeitete das Team gemeinsam mit dem Lösungspartner EDV-BV.
Die Erfolgsgeschichte von Dennree beginnt 1974 als EinMann-Unternehmen: Thomas Greims, der auch heute noch
Geschäftsführer ist, baute in jenem Jahr ein kleines Logistiknetz für die Chiemgauer Demeter-Bauern für Verkaufsstellen
in München auf. 35 Jahre später verfügt das Unternehmen
über acht Regionallager und Verkaufsnieder­lassungen und
eine eigene Zentrale in Österreich. 180 LKW übernehmen
den Transport der Naturkostwaren, die auf einer Fläche von
28.000 Quadratmetern gelagert werden.
Seit Ende des Jahres 2000 betreibt Dennree auch einen
eigenen Online-Shop. Die Unternehmens-IT muss daher straff
organisiert und klar strukturiert sein, um das Geschäftsmodell
zu unterstützen: Kunden müssen bestellte Ware schnell und
zuverlässig erhalten.
EDV-BV
Die EDV-BV steht als unabhängiger Lösungspartner und
Systemintegrator im Rampenlicht in der Oberpfalz.
Wir setzen auf innovative Technologien und strategisch
wichtige Hersteller. Themen wie Virtualisierung, Konsolidierung, Energiekosten, der Umgang mit großen Datenmengen, Sicherheit und Disaster Szenarien stehen für
uns ganz oben. Bei der Realisierung ganzheit­licher ITLösungen und komplexer Projekte übernehmen wir die
Umsetzung.
Profitieren Sie von unserem tiefen fachlichen Know-how
und lassen Sie sich anstecken von unserer Motivation und
unserem Spaß an der Arbeit. Teamwork bei der EDV-BV
bewirkt, dass ganz gewöhnliche Menschen ganz außergewöhnliche Ergebnisse erzielen. Die Wünsche der Mitarbeiter und Kunden verlieren wir dabei nie aus den Augen.
Weitere Informationen unter: www.edv-bv.de
38
Virtualisierung ist Dreh- und Angelpunkt
Anfang 2008 zeichnete sich ab, dass die vorhandene Infrastruktur nicht mehr den Bedürfnissen des Unternehmens
entsprach, sowohl was die Leistungsfähigkeit als auch die
Handhabung anging. Darüber hinaus stand bei Dennree im
Lasten­heft, eine hochverfügbare Umgebung aufzubauen.
„Wir haben uns entschlossen, einen tiefgehenden Strategiewechsel bei unserer Unternehmens-IT einzuleiten“, bestätigt
Rainer Porzel, CIO bei Dennree. „Kerngerüst ist eine modernisierte virtuelle Speicherumgebung. Zu diesem Zweck haben
wir zwei Universal Storage Platforms (USP VM) beschafft.
Aus unserer Sicht ist die dort realisierte Virtualisierung auf
Controller-Ebene die effektivste und leistungsfähigste.“ Ein
festplattenbasiertes System – ebenfalls in zweifacher Ausführung – zur Speicherung und Archivierung von file-basierten
Daten komplettiert die neue Storage-Umgebung bei Dennree.
Rechenzentrum mit doppelter Power
Im August 2008 begann die Migration nicht geschäftskritischer Daten und Systeme wie Exchange und einiger weiterer
Datenbanken. Im Verlauf der Transitionsphase errichtete
Dennree mit Unterstützung von EDV-BV die Struktur für ein
weiteres Rechenzentrum im selben Gebäude. Die zweite
USP VM kommt hier zum Spiegeln der Daten zum Einsatz.
Eine Herausforderung war es, die virtualisierte Umgebung
des alten Systems auf die USP VM umzuziehen. „Es waren
einige Anpassungen der vorhandenen VMware-Umgebung
nötig. Zudem haben wir die Systeme erweitert und hinsichtlich Hochverfügbarkeit optimiert“, erklärt Alexandra Reis,
Geschäftsführerin bei EDV-BV. „Zur Kommunikation zwischen
Storage und VMware setzen wir den Storage Replication
Adapter (SRA) von Hitachi Data Systems ein.“
Hitachi Data Systems | True Storage Concept | Nummer 17
Mit Hilfe des Site Recovery Manager (SRM) ist nun ein
nahezu unterbrechungsfreies Wechseln zwischen den beiden
Rechenzentren möglich. Dennree nutzt diese Option aber
nicht ausschließlich, um Failover-Prozesse starten zu können
und damit Hochverfügbarkeit zu gewährleisten. Die IT-Strategie ist auf ein Rechenzentrum konzentriert, durch die doppelte
Rechenleistung erreicht das Unternehmen aber einen
signifikanten Gewinn bei der gesamten Performance.
Rechenzentrum 1
Rechenzentrum 2
TCP/IP Verbindung
MS-VMManager-3
MS-VMManager-2
VM
VM
VM
VMPool1
VM
VM
VM
VM
VMPool2
VM
VM
VM
VM
VM
VMPool6
VM
USP VM
S/N: 25935
VM
VM
VMPool1
VM
VM
VMPool5
VM
VM
VM
VM
VMPool4
VM
VM
VM
VM
VM-Host-1
VM-Host2-1
VM-Host-2
VM-Host2-2
VM-Host-3
VM-Host2-3
VM-Host-4
VM-Host2-4
VM-Host-5
VM-Host2-5
Spiegelung per True Copy
VM
USP VM
S/N: 25979
„Bildlich gesprochen haben wir einen zweiten Motor
eingebaut“, erklärt Porzel. „Der springt nicht nur an, wenn der
andere Motor ausfällt, sondern auch, wenn wir schneller
fahren wollen oder müssen.“ Dennoch legt Dennree sowohl
auf Desaster Recovery als auch Failover größten Wert.
Dementsprechend konzipierte das Team die neue StorageUmgebung so, dass auf Knopfdruck innerhalb kürzester Zeit
ein Schwenk von einem Rechenzentrum auf das andere
möglich ist: Halbstündlich führt das System zwischen 6 und
20 Uhr automatisch Snapshots aus – im Fehlerfall wird der
letzte Snapshot zurückgespielt; die Administratoren können
dank des SRM mit einem einzigen Knopfdruck die etwa 60
virtuellen Maschinen auf den verbliebenen fünf Servern neu
starten.
Thin Provisioning und Striping
ergänzen Virtualisierung
Das Gesamtkonzept sah überdies vor, auch Thin Provisioning
einzuführen und somit die Virtualisierung zu ergänzen. „Virtualisierung ist nicht das Ziel, sondern nur ein Wegstück. Das
eigentliche Ziel ist eine agile IT-Infrastruktur. Um dieses Ziel zu
erreichen, sind daher weitere Schritte wie Thin Provisioning
nötig“, erläutert Siegmund Kaminski, Director Commercial
Hitachi Data Systems | True Storage Concept | Nummer 17
Sales bei Hitachi Data Systems. „Thin Provisioning ermöglicht,
die Speicherzuweisung an die Host-Systeme unabhängig vom
tatsächlich vorhandenen physikalischen Speicherplatz durchzuführen. Dadurch kann mehr Speicher an die Hosts verteilt
werden, als tatsächlich in Hardware-Form vorhanden ist. Es
wird also mehr Speicher angezeigt, als de facto vorhanden
ist – die Auslastung steigt und der Speicher kann später und
bedarfsgerecht beschafft werden.“ Dabei ist die Größe des
Speichers schon jetzt trotz Thin Provisioning mit einem relativ
hohen Puffer versehen, da Dennree über ein sehr hohes
Datenwachstum verfügt.
Alle zugewiesenen LUNs können zudem über Striping
parallel den gesamten angegebenen Speicherpool nutzen. In
Kombination verfügt das Rechenzentrum so nicht nur über
eine hohe Leistungs­fähigkeit, sondern auch über großzügige
Reserven. Das Ergebnis dieser Maßnahmen kann sich sehen
lassen: Die benötigte Zeit für Auswertungen und Berichte der
Datenbanken konnte Dennree von zehn Stunden auf etwa 45
Minuten senken.
IT-Business-Alignment:
Zuverlässige Lieferung dank IT
Insgesamt verfügt Dennree über etwa 15 Terabyte hochverfügbaren Speicher. Rainer Porzel zeigt sich zufrieden: „Wir
konnten gemeinsam mit Hitachi Data Systems und EDV-BV
das gesamte Projekt in nur etwa drei Monaten abwickeln.
Alles verlief wie geplant.“ Bei allen technischen Möglichkeiten
und Sicherungsvorkehrungen ist Porzel dennoch froh, dass
es bisher noch kein Desaster-Szenario gegeben hat. „Jede
Kommune und jede Stadt hat eine Feuerwehr. Aber genau
so ist jeder froh, wenn es nicht brennt. Wenn unser Rechenzentrum steht, stehen auch unsere LKWs. Und 1.700 Kunden
erhalten ihre bestellte Ware nicht.“ Dank der redundanten
Architektur und der integrierten Failover-Mechanismen werden die Abnehmer von Dennree auch in Zukunft ihre Waren
pünktlich und frisch geliefert bekommen – vom Chiemgau bis
an die Nordsee.
39