storage-magazin.de

Transcription

storage-magazin.de
Ausgabe
1-2013
storage-magazin.de
Eine Publikation von speicherguide.de
Storage 2012 im Rückblick
Ausblick 2013
2
Editorial
IT und Daten werden mobil
Inhalt
Editorial
Seite 2
Liebe Leserinnen und Leser,
Storage 2012 – Wirtschaftslage
blockiert die Entwicklung
Seite 3
und schon wieder neigt sich ein Jahr zu Ende. Es soll ja Kollegen geben, die Rückblicke für vollkommen überflüssig halten.
Kann man so sehen. Auf der anderen Seite schadet es nicht,
nochmal zu reflektieren, was war und wie es dazu gekommen
ist. Kam es so wie erwartet oder doch ganz anders? 2012 war
für viele Admins sicherlich wieder so ein Jahr, in dem sie mit
dem Vorhandenen zurechtkommen mussten. Die unklare
Wirtschaftslage zwang einige Firmen zum Sparen bzw. wurde
zumindest als Ausrede benutzt, die Budgets einzuschränken.
Technologisch würde ich sagen, war 2012 ein Übergangsjahr. Cloud und Big Data wurden bereits zuvor diskutiert. Mit
»Bring Your Own Device« (BYOD) kam nun ein weiteres Thema
hinzu. Natürlich klingt es verlockend, wenn Mitarbeiter mit
ihren eigenen Geräten arbeiten – muss man ihnen keine
kaufen. Sicher ist auch, sie arbeiten länger und durchaus über
die üblichen Bürozeiten hinaus. Dazu benötigen sie aber
Zugriff auf Firmendaten. Da kommen Sicherheitsfragen ins
Spiel. Sollen Unternehmensdaten auf einem privaten Gerät
gespeichert werden? Wie verhindert man den Zugriff Unberechtigter und kann die IT Unternehmensdaten remote
sichern oder bei Bedarf löschen? So interessant der Gedanke
ist, in Begeisterungsstürme brechen IT-Abteilungen bei dem
Thema nicht aus.
Egal ob mit oder ohne BYOD, die IT wird mobiler. Via Smartphone ist man es heute bereits gewöhnt, immer online zu
sein. Gleiches gilt künftig nicht nur für den Zugriff auf das
Personen – Die Storage-Gesichter
des Jahres
Seite 6
Produkte und Innovationen
des Jahres
Seite 7
Unternehmen und Akquisitionen
des Jahres
Seite 8
Advertorials und Fallstudien:
Hochverfügbarer Storage für
virtuelle Server & Desktops
Seite 9
Hochschule Regensburg:
besser virtualisiert speichern
Seite 12
Hochverfügbares und
skalierbares SAN
Seite 14
Speicherkonsolidierung in
virtuellen Rechenzentren
Seite 16
Storage-Ausblick 2013:
Storage 2013: schneller,
sicherer, mobiler
Seite 18
Die Topp-10-Trends für 2013
Seite 21
Impressum Seite 24
Eine Publikation von speicherguide.de
Internet, sondern auch auf die eigenen
Daten – privat wie beruflich. In beiden
Fällen wird die Lösung mit der Cloud zu
tun haben. In den letzten beiden
Karl Fröhlich,
Jahren wurde viel darüber diskutiert
Chefredakteur
und philosophiert. 2013 wird es nun
speicherguide.de
aber auf Produktseite richtig spannend.
Die Dropbox ist sehr beliebt, aber nicht sicher. Viel praktischer
wäre es auch, seine eigenen Daten zu »sharen« und nicht erst
einen kleinen Teil davon woanders hin kopieren zu müssen.
Filesharing auf Unternehmensniveau wird kommendes Jahr
eines der zentralen Themen sein.
Von Produkten wie dem »Grau Data Space« erwarte ich mir
daher einiges. Wir werden diesen Ansatz im neuen Jahr
ausgiebig unter die Lupe nehmen. Bis dahin wünsche ich
Ihnen im Namen des speicherguide.de-Teams für 2013 alles
Gute, viel Glück und Gesundheit und mögen Sie von Datenverlusten und Downtimes verschont bleiben. Kommendes
Jahr lohnt sich ein Besuch auf speicherguide.de doppelt. Wir
feiern unser 10-jähriges Bestehen und werden neben interessanten Themen auch ganzjährig einige Geschenke verteilen.
Wir bedanken uns für Ihren Zuspruch. Herzlichen Dank und
bleiben Sie uns gewogen.
Ihr Karl Fröhlich,
Chefredakteur speicherguide.de
Ausgabe 1-2013
3
Storage 2012
Storage 2012 – Ein letzter Blick zurück
Wirtschaftslage blockiert die Entwicklung
Die Naturkatastrophen und ihre Auswirkungen bestimmten weite Teile des Jahres. Eine schwache
Börse und eine ungewisse Wirtschaftslage taten ihr übriges. Für Unternehmen war es ein
Übergangsjahr um 2013 die IT und Geschäftsprozesse noch tiefer miteinander zu verzahnen.
Karl Fröhlich
Auf 2012 lastete von vorne herein eine Hypothek. Die Wirtschaftskrise und die hohen Festplattenpreise aufgrund der Thailandflut drückte von Anfang auf die
Stimmung. Es war klar, Administratoren
müssen die wenigen vorhandenen Mittel
noch zielgerichteter einsetzen. Letztendlich muss man sagen, 2012 war ein Übergangsjahr. Es gab weder spektakuläre
Neuerungen noch Übernahmen, unspannend war es aber trotzdem nicht. Lassen
Sie uns das Jahr noch einmal Revue passieren und erinnern Sie sich mit uns an die
Geschehnisse der vergangenen zwölf
Monate.
rückhaltende Nachfrage über die Weihnachtsfeiertage und der Jahreswechsel
aber für eine Stabilisierung der Preise. Vor
allem der Consumer-Markt übte sich in
Kaufzurückhaltung und auch die PC-Einkäufe sind stark eingebrochen.
Zur Consumer Electronic Show (CES)
läutete die Harddisk-Branche die Thunderbolt-Ära ein. Rückblickend lässt sich allerdings feststellen, zwar wurden über das
Jahr einige neue Produkte vorgestellt, von
einem Durchbruch ist die Technik aber
noch entfernt. Zu groß ist der Aufpreis gegenüber USB-3.0-Laufwerken. Dass das
Anschlusskabel 49 Euro kosten soll und
nur über Apple erhältlich ist, trägt ebenfalls nicht zur Akzeptanz bei.
Januar
Februar
Der Januar stand noch sehr deutlich unter dem Einfluss der Festplattenkrise.
Anders als prognostiziert, sorgten die zu-
Mit Spannung wurden in der HDD-Branche die Quartalszahlen erwartet. Während
Seagate seinen Gewinn verdreifacht,
Eine Publikation von speicherguide.de
brach bei Western Digital der Stückzahlenabsatz um 51 Prozent ein. Wobei der
Umsatz nur um 19 Prozent zurückging.
Hier dürften einige schlaflose Nächte gehabt haben.
IT-Verantwortlichen ergeht es da zum
Teil nicht anders. Laut einer SymantecUmfrage vertrauen Administratoren ihrem Backup und Recovery nicht. Mehr als
ein Drittel würde ihren Gehaltsscheck
nicht darauf verwetten, alle Daten im Bedarfsfall wiederherstellen zu können. Vor
allem die Einhaltung der SLAs und der vereinbarten Zeitfenster bereiten hier Kopfzerbrechen.
Als Problem entpuppen sich auch hybride Umgebungen: Die Datenströme setzen sich aus einer Mischung von physischen und virtuellen sowie von
Cloud-Umgebungen zusammen. Dies ergab eine internationale von Acronis initiierte Umfrage. Zu oft müsse auf bis zu vier
Backup-Lösungen gleichzeitig zurückgegriffen werden.
März
Die »CeBIT« stand in diesem Jahr im Zeichen der Cloud, wobei die Hauptthemen
hier Virtualisierung, Flexibilität, Mobilität
und vereinfachte Prozesse waren. Mit
312.000 Besuchern verzeichnet die Messe spürbar weniger Gäste als im Vorjahr.
Der Veranstalter schob den Rückgang zum
Teil auf den Streik im öffentlichen Nahverkehr. Wobei der Rückgang in der StorageHalle eigentlich nicht zu spüren war. Der
Vorwurf an die Cebit lautet für 2012, nicht
genug Highlights geboten zu haben.
Das trifft grundsätzlich auch für den Storage-Bereich zu. Für den Verbraucher
bietet die Messe wenig. Wer sich
gezielt und direkt informieren möchte,
für den gibt es trotzdem genug zu
entdecken.
Seinen Abschluss findet die Akquisition
von Hitachi GST, für die Western Digital
insgesamt rund 4,8 Milliarden US-Dollar
aufbringt. Hitachi hält nun zehn Prozent
der WD-Aktien. Die Hitachi-Marke soll es
weiterhin auf dem Festplattenmarkt
geben. Zur Erfüllung der EU-Auflagen
musste WD zudem Fabrikationsstätten an
Toshiba verkaufen.
Ausgabe 1-2013
4
Storage 2012
April
BYOD (Bring Your Own Device) gehört
heuer zu den Trendthemen. Darauf vorbereitet sind allerdings die wenigsten Firmen. Studien belegen beispielsweise,
dass in den USA 87 Prozent der Unternehmen mit weniger als 1.000 Mitarbeitern
keine formelle Richtlinie bei der Verwendung persönlicher Geräte für berufliche
Zwecke besitzen. Hierzulande ist die
Lage nicht wirklich besser. Allerdings öffnen sich viele IT-Abteilungen dem Trend
nur widerwillig, zu groß sind die
Sicherheitsbedenken.
Mai
Während in Unternehmen die Cloud viel
diskutiert aber eher zögerlich umgesetzt
wird, ist der Heimbereich bereits weiter.
Privatanwendern ist es egal, wo ihre Daten abgespeichert sind, Hauptsache es ist
praktisch und billig. Die beliebteste Anwendung ist aktuell die Speicherung von
Bildern. Die Dropbox gehört ebenfalls zu
den häufig genutzten Diensten, obwohl
der Online-Speicher in puncto Sicherheit
Defizite aufweist. Apple-Anwender bekommen die »iCloud« frei Haus geliefert,
die Akzeptanz ließ nicht lange auf sich
warten. Mit dem »Google Drive« betritt
nun auch der Internetriese die Szene und
offeriert kostenlos fünf GByte. Die Offerte
bleibt aber hinter Microsofts »SkyDrive«
zurück. Hier stehen Nutzern sieben GByte
zur Verfügung – es waren aber auch schon
mal 25 GByte.
Grafik: Bitkom
Das Speichern von Fotos
im Netz ist bei deutschen
Internet-Usern die
beliebteste Anwendung.
Eine Publikation von speicherguide.de
Juni
Juli
Damit Cloud-Anwendungen richtig Sinn
ergeben, werden große Bandbreiten benötigt. Hier hapert es mitunter noch und
die Prognosen machen wenig Mut auf einen baldige Besserung. Bis 2016 soll sich
die Anzahl der weltweit an das Internet
angebundenen Geräte auf insgesamt fast
19 Milliarden verdoppeln. Einer Cisco-Studie zufolge übersteigt der globale IPDatenverkehr 2016 mit einem Volumen
von 1,3 Zettabyte pro Jahr bzw. 110 Exabyte pro Monat den Wert von 31 Exabyte
pro Monat im Jahr 2011 um fast das
Vierfache. Alleine in Deutschland werden
fünf internetfähige Endgeräte pro Kopf
erwartet.
Deutsche Firmen bleiben beim Thema
Cloud aber zögerlich. EMEA-Unternehmen planen fast ein Drittel ihres IT-Budgets in Cloud-Computing zu investieren.
Deutschland hinkt hier etwas hinterher:
Hierzulande sind Unternehmen – mit 28
Prozent Quote – noch nicht so weit mit
der Adaption von Cloud-Management wie
der weltweite Durchschnitt.
Eine von VMware initiierte Umfrage belegt aber auch, dass Cloud in den kommenden 18 Monaten durchaus als wichtig erachtet und in der Priorität nach oben
wandern wird.
Das berühmte Sommerloch füllt heuer
Overland mit einer großangelegten Patentklage. Bereits seit 2010 geht man unter anderem gegen den OEM-Hersteller
BDT vor, unterlag aber nun vor Gericht.
Overland bleibt da aber hartnäckig und
ging in Berufung. Parallel zettelte man
eine Klage gegen sieben weitere Firmen
wie Quantum, Spectra Logic und Tandberg Data an, die Tape-Library-Patente
von Overland verletzt haben sollen.
Anfang Juli gewinnt Dell den Bieterkampf um Quest Software gegen eine
Investmentgesellschaft. 2,4 Milliarden USDollar lässt sich der IT-Konzern den Ausbau seines Software-Geschäfts kosten.
Dabei handelt es sich 2012 um den bis
dato größten Deal im Storage- und Virtualisierungs-Umfeld.
Ungefähr zeitgleich geben EMC und
Dell einen Einblick in ihre Flash-Roadmaps. EMC packt seinen »VFCache Lightning« in eine Appliance: Thunder heißt das
Ganze und verbindet die Cache-Karten
mit Servern. Verkauft wird Thunder voraussichtlich ab 2013. Ein ähnliches Konzept verfolgt Dell mit dem Projekt »Hermes«. Im Prinzip geht es um ein Clustern
von PCIe-SSDs, der dann extrem hohe I/OAnforderungen bedienen soll.
Ausgabe 1-2013
Storage 2012
Mitte Juli stellt zudem Western Digital
mit der »WD Red« eine Festplattenserie
vor, die speziell für SOHO-NAS-Systeme
konzipiert ist. Was zunächst wenig spektakulär klang, entpuppte sich jedoch als
wahrer Verkaufsschlager.
August
Insgesamt nimmt das Wehklagen im HDDSektor ab. Das zweite Quartal 2012 verlief
für WD überraschend gut. Der Festplattenausstoß war so hoch, dass man sowohl
bei den Umsatzzahlen als auch bei den
ausgelieferten Stückzahlen Seagate
überholte.
Für die es mit einem Nettogewinn von
fast einer Milliarde US-Dollar ebenfalls
nicht schlecht lief. Gerüchten zufolge ist
Seagate an einer Übernahme von OCZ
Technology und/oder STEC interessiert.
Für 2013 gehen wir fest davon aus, dass
sich Seagate SSD-Expertise und Marktanteile ins Haus holt.
Einen Bärendienst erwiesen Hacker der
Cloud-Fraktion: Der Cloud-Speicherdienst
Dropbox musste Sicherheitsprobleme
einräumen, nachdem es mehrere unerlaubte Zugriffe vor allem auf Firmen-Accounts gab. Gehackt wurde ein Konto eines Dropbox-Mitarbeiters, und dort
Firmeninterna mit E-Mails und KundenPasswörtern gestohlen.
Eine Publikation von speicherguide.de
Die Festplattenpreise orientieren sich
2012 kontinuierlich nach unten. Seit Dezember 2011 kaufen Anwender DesktopPlatten durchschnittlich um 25 Prozent
günstiger ein. Im Jahresvergleich liegt der
Verkaufspreis aber immer noch um über
50 Prozent über den Kursen des vergangenen Sommers.
Was Big Data bedeuten kann belegt Facebook: Das soziale Netzwerk wächst täglich um 500 TByte und proklamiert, mit
über 100 PByte den weltweit größten Hadoop-Disk-Cluster zu betreiben. Die tägliche Datenflut wird unter anderem durch
mehr als 2,5 Milliarden Postings, 2,7 Milliarden Likes sowie 300 Millionen neu hochgeladenen Bildern verursacht.
und Geschäftsprozesse sind künftig unverrückbar miteinander verzahnt. Für Unternehmen sei die Wertschöpfung aus gespeicherten Informationen elementar.
Technologien wie Cloud Computing und
Big Data schaffen in den nächsten drei
Jahren neue Aufgaben und Positionen im
IT-Bereich. Zu den neuen Berufsbildern
sollen unter anderem der Cloud-Architekt
und der Data Scientist zählen.
Das Wachstum der »Storage Networking
World Europe« ( (SNW Europe) erreicht allmählich sein Momentum. Trotz einiger
neuer interessanter Ansätze verzeichnet
die wichtigste Storage-Messe Europas keine neuen Erfolge. Zwar konnten mehr
Aussteller akquiriert werden, die Teilnehmerzahl ist jedoch rückläufig. Für kommendes Jahr sollte sich die Branche wieder etwas mehr Mühe geben.
Oktober/November
Dezember
Mit einer Referenzplattform drängt Intel
in den NAS-Markt. OEMs können damit
kleinere Systeme konfigurieren, deren
Motherboard auf den neuen Intel-DualCore-Atom-CPUs »D2550« und »D2500«
Wie schon 2011 vertreibt auch dieses Jahr
Aldi wieder eine Netzwerkfestplatte. Diesmal ist das Angebot allerdings nicht so attraktiv. Gab es damals 1,5 TByte für rund
100 Euro, mussten sich Käufer mit einem
TByte (129 Euro) begnügen. Das Interesse war dennoch enorm. Der Markt für SOHO-NAS-System hat 2012 einen deutlichen Sprung nach vorne gemacht. Nahezu
jeder Anbieter einer externen Festplatte
ist nun auch im NAS-Segment vertreten.
Cloud-Funktionen werden hier ebenfalls
zunehmend als Kaufargument gehandelt.
Für 2013 wird eine Verschärfung des Wettbewerbs erwartet.
Im kommenden Jahr wird die Cloud Realität, im Heimbereich wie auch in den Unternehmen. Treibende Kraft werden hier
professionelle File-Sharing-Funktionen
und Private-Cloud-Architekturen sein. K
September
Die Bedeutung optischer Laufwerke
schwindet rapide. Für Sony Optiarc ist
dies das Aus. Die Produktion wird noch
vor Jahresende eingestellt. Quantum und
Spectra Logic läuten im Streit mit Overland eine neue Runde ein und zitieren den
Kontrahenten ihrerseits wegen Patentverletzungen vor den Kadi. Die Patentklagen
mutieren für Overland offensichtlich zum
Bumerang. Im Verfahren gegen BDT gibt
es nach wie vor keine Einigung.
Auf dem EMC Forum umreißt Geschäftsführerin Sabine Bendiek die Zukunft: IT
Foto: Asustor
5
NAS-Referenzplattform auf Basis von
Intels »Atom«-CPUs D2550 und D2500.
(Codename »Milstead«) basiert. Laut Intel
seien die NAS-Server sowohl für Privat- als
auch KMU-Anwender gedacht.
Ausgabe 1-2013
6
Storage 2012
Personen – Die Storage-Gesichter des Jahres
IBM ärgert EMC
MANFRED REITER
Überraschung bei Netapp
Damit hatte niemand gerechnet:
Andreas König verlässt NetApp.
Er war vor 16 Jahren Mitbegründer des deutschen Büros und
stand seit 2007 an der EMEA-Spitze. Als Nachfolger rückt Manfred
Reiter als Senior Vice President &
General Manager EMEA auf. Er ist
bereits seit 15 Jahren in der EMEAOrganisation tätig, und verantwortete zuletzt als Vice
President Enterprise Area den Vertrieb in Deutschland,
Frankreich und Großbritannien. König ist übrigens im
Oktober als CEO bei Swisscom IT Services eingestiegen.
Eine Publikation von speicherguide.de
CARSTEN HAAK
Klaas de Vos wechselt von Western
Digital zum NAS- und
Wireless-Spezialisten
Buffalo und übernimmt die Position
des Senior Director
European Sales. Er
ersetzt Andreas Arndt, der beim Schweizer
Spezialdistributor Littlebit Technology als
Sales und Marketing Direktor anheuert.
Einen der größten Coups des Jahres landet
IBM: Mit Dr. Carsten Haak wechselt einer der
renommiertesten Systemingenieure für
Enterprise-Storage-Systeme von EMC zu Big Blue.
Sein neuer Titel lautet dort
nun Executive Business
Development IOT Europe,
sein Tätigkeitsfeld soll sich
weit über das angestammte Speicherumfeld
hinaus erstrecken.
Druva mit Deutschland-Office
Backup-Spezialist Druva eröffnet
seine erste Niederlassung in Deutschland. Als Vertriebsleiterin holt sich der
vom Marktforscher
Gartner als
»Cool Vendor« eingeordnete
Hersteller
Beate Lange
von Nova­
Stor.
BEATE LANGE
KLAAS DE VOS
Führungswechsel
bei Buffalo
Das Personalkarussel 2012 in Auszügen
Acronis lockt Alex Fürst von Avaya weg. Er ist als Country
Manager DACH und Eastern Europe zuständig für das regionale Management sowie Wachstum der Region. Fürst ersetzt
dabei Michael Hon-Mong, der den Backup-Spezialist im
Sommer verlassen hat. 
Ende Juli verstarb überraschend Claus Egge im Alter von 54
Jahren. Der ehemalige IDC-Storage-Analyst betrieb zuletzt
eine eigene Beratungsgesellschaft. 
TIM erweitert mit Tim Henneveld den Vorstand, der die
Resorts IT und Professional Services sowie die Geschäfte der
Gesellschaft in der Schweiz verantwortet. 
OCZ Technology verstärkt im Sommer mit Georg Dietsch
das Channel-Team für seine »VXL Storage Acceleration«Software. Nach Umstrukturierungen im amerikanischen
Management, hat Dietsch den SSD-Hersteller allerdings
bereits wieder verlassen. Gerüchten zufolge wird OCZ zum
Verkauf vorbereitet. 
Stefan von Dreusche steigt bei DataCore zum Channel-Leiter auf. Er löst Siegfried Betke ab, der zum Director CE
Business Development and New Strategic Channel Sales
befördert wurde. 
André M. Braun wird bei Dell Deutschland neuer Sales
Director für die Bereiche Intelligent-Data-Management und
Storage. 
Ausgabe 1-2013
7
Storage 2012
Produkte und Innovationen
des Jahres
Foto: Oracle
Binnen kürzester Zeit hat
sich Oracle mit der »StorageTek SL150« etabliert.
Die Einstiegs-Library
skaliert von 30 bis 300
Cartridge-Slots und von
einem bis zu 20 LTO-5Laufwerke. Damit löst der Hersteller nicht nur
drei Produkte im eigenen Haus ab, sondern
konsolidiert in KMUs Autoloader und kleine
Librarys in eine größere modular ausbaubare
Bandbibliothek.
Der Bandroboter ist für Tiered-Storage vorbe­
reitet und soll dem Trend bei KMUs Rechnung
tragen, Backup-Medien direkt der Archivierung
zuzuführen. Der Erfolg der SL150 zwingt Marktbegleiter dazu, zu reagieren. Unseren Informationen zufolge haben unter anderem HP und IBM
den Auftragsfertiger BDT damit beauftragt, ein
Konkurrenzprodukt zu entwickeln.
Eine Publikation von speicherguide.de
In der »CS Series«-Appliance vereint Nimble
Storage iSCSI-Storage, Backup und Disaster-Recovery in einer Box. Mit günstigen Kosten pro I/O
und pro GByte sollen vor allem KMUs adressiert
werden. Der Einstiegspreis liegt bei rund 25.000
Euro. Dafür erhält man eine skalierbare und
flexible Architektur. Fünf Prozent der Speicherkapazität stellt ein Flash-Memory und sorgt so für
Performance und eine hohe I/O-Leistung.
Mit dem Anschluss weiterer Arrays lassen sich
Leistung und Kapazität linear ausbauen. Gleichzeitig kann der IT-Manager im laufenden Betrieb
jederzeit neue Systeme an einen Cluster anschließen oder entfernen, ohne dass dies den
Zugriff auf die Daten in irgendeiner Form beeinträchtigt. Das Nimble-Betriebssystem verteilt diese automatisch über alle in dem Cluster zusammengeschlossenen Arrays um.
Foto: N
im
ble Sto
rage
Foto: N-Tec
Hochverfügbarkeit ist auch für kleine und
mittelständische Unternehmen erschwinglich.
Dies belegt der Ismaninger Storage-Hersteller
N-Tec mit seiner »rapidCore«-Lösung. Die
schlüsselfertige und vorinstallierte SANAppliance basiert auf Storage-Hardware von
N-Tec sowie auf dem Storage-Hypervisor
»SANsymphony-V« von DataCore.
Bei Bedarf wird auf ein gespiegeltes System
umgeschaltet, eine Betriebsunterbrechung
findet nahezu nicht statt. Ein Einstiegs-Bundle
mit zwei TByte mit zwei Nodes und DatacoreLizenz beginnt bei 17.500 Euro.
Ausgabe 1-2013
8
Storage 2012
Unternehmen und Akquisitionen des Jahres
Sonstige Unternehmensmeldungen
Dell gibt Milliarden aus
Richtig spektakuläre Übernahmen gab es 2012 keine. Angesichts der
angespannten Wirtschaftslage konnte oder wollte kein Unternehmen aus der
Deckung kommen. Bis auf Dell. Der einstige Direktversender stemmt heuer drei
Milliarden-Deals und steht mittlerweile auf einem breiten Fundament.
Dell holt sich Wyse
und Quest
Mit enormer Kaufkraft stellt Dell die
Weichen für die Zukunft. Zuerst wird
der Thin-Client-Spezialist Wyse Technology übernommen. Bis zu 15 Milliarden US-Dollar investieren Unternehmen laut IDC in Thin-Client- und
Virtual-Desktop-Strukturen. Davon
will Dell ein großes Stück abhaben
und gibt Insidern zufolge bis zu einer Milliarde US-Dollar für Wyse aus.
Im Sommer bootet Dell nach einem
monatelangen Bieterkampf unter
anderem die Investmentgesellschaft
Insight Venture Partners aus. Die
Eine Publikation von speicherguide.de
Übernahme von Quest kostet letztendlich 2,4 Milliarden US-Dollar in
bar. Dell verspricht sich von dem Kauf
vor allem eine Belebung seines Software-Geschäfts. Das Unternehmen
ist gut aufgestellt im Bereich Backup
& Recovery für VMware-Umgebungen, und auch Microsoft-Sharepoint-Migration gehört zu den künftigen Zukunftsmärkten.
Außerdem soll Dell am Jahresanfang 1,2 Milliarden US-Dollar für den
Netzwerk- und DatensicherheitsSpezialisten SonicWall ausgegeben
haben. Hinzukamen noch einige kleinere Investments. Insgesamt hat Dell
heuer eine gewaltige Summe für Akquisitionen ausgegeben. In den kommenden zwei Jahren muss sich zeigen, ob der Hersteller daraus Kapital
schlagen kann.
Seagate kauft Lacie
Vor allem die NAS-Produkte waren
für Seagate interessant: Die Übernahme des französischen Herstellers
von externen Speichern LaCie wird
mit 186 Millionen US-Dollar bewertet. Darin enthalten ist auch der Online-Speicherdienst Wuala. Nach
dem Merger mit Samsungs HDDSparte agiert Seagate dieses Jahr etwas zurückhaltender. Experten rechnen für 2013 fest mit der Übernahme
eines SSD-Herstellers. Schon länger
ranken sich Gerüchte, dass man an
OCZ Technology dran sei.
Seine Flash-Expertise erweitert EMC mit dem 2009
gegründeten israelischen Startup XtremIO. Genaue
Zahlen wurden zwar nicht genannt, in israelischen
Medien wird jedoch eine Summen von 430 bis 450
Millionen US-Dollar gehandelt. 
Ansonsten war EMC das ganze Jahr über aktiv, allerdings mit einem weitaus kleinerem Budget als Dell.
Erwähnenswert ist unter anderem das Joint-Venture
mit Lenovo. Während EMC Teile des Tochterunternehmens Iomega einbringt, stattet der PC-Hersteller
die Kooperation mit Kapital aus. Iomegas NAS-Systeme passen gut zum Rechnergeschäft von Lenovo.
EMC will über Lenovo einen besseren Zugang zum
chinesischen Markt erzielen. Zudem wurde ein
Entwicklungsprogramm für Server-Technologien ins
Leben gerufen. 
VMware übernimmt Desktop-Virtualisierungs-Experte Wanova für rund 70 bis 80 Millionen US-Dollar. Ziel
ist es, die Wanova-Lösung »Mirage« in die DesktopVirtualisierungs-Plattform »VMware View« zu integrieren. 
Brocade krallt sich Software-Networking-Experte
Vyatta. 
IBM verstärkt mit dem Spezialist für HochleistungsFlash-Speicher Texas Memory Systems sein Portfolio. 
Ausgabe 1-2013
9
Advertorial
Fallstudie: Brennercom spiegelt synchron mit dem Storage-Hypervisor
Redundant und hochverfügbar hat Brennercom seine
Storage-Infrastruktur ausgebaut. Mit der Storage-Hypervisor
»SANsymphony-V« von Datacore zentralisiert das Südtiroler
ITK-Unternehmen seine Datenverwaltung und erspart sich
Investitionen in SAN-Hardware.
Michael Baumann, Konzept PR
Brennercom ist ein hochtechnologisches
und innovatives Unternehmen der IKT-Industrie (Information und Kommunikationstechnologie). Mit Hauptsitz in Bozen
und Zweigstellen in Trient und Verona
agiert das 1998 gegründete Unternehmen
auf der Achse Mailand – München und
entwickelt aus einer Hand individuell konzipierte Komplettlösungen für den Businessmarkt. Brennercom leistet individuelle Beratung und stellt den technischen
Support durch erfahrene IKT-Planer. Das
Unternehmen setzt auf Service, richtet
den Fokus auf die Anforderungen der BeEine Publikation von speicherguide.de
triebe und ist den Werten Zuverlässigkeit,
Transparenz und Seriosität verpflichtet.
Zum Leistungsangebot für Endkunden
gehören Breitband- und UltrabreitbandInternetzugänge, Festnetz-Telefonie, private virtuelle Netze für Betriebe mit mehreren Standorten sowie integrierte
Kommunikationskonzepte, ServerfarmLösungen, Sicherheitsdienstleistungen
und Mehrwertdienste – das Ganze auch
auf Cloud-Basis. Hinzukommt der zuverlässige und hoch qualifizierte Kundendienst.
Brennercom hat sein eigenes Glasfasernetz aufgebaut, das zu den modernsten
und innovativsten in ganz Europa gehört.
Es garantiert Übertragungskapazitäten
von bis zu einem Gbit, maximale Bandbreite ebenso wie minimale Latenzzeit
und erfüllt höchste Sicherheitsstandards.
Das Unternehmen ist per Gbit-Ethernet
direkt mit den Datenaustauschpunkten
Milan Internet Exchange in Mailand
(MIX) und dem German Commercial Internet Exchange in Frankfurt (DE-CIX)
verbunden, wo die größten und wichtigsten Akteure der Weltwirtschaft tätig sind.
Aufbau einer Virtual-Desktopund Cloud-Infrastructure
Bei Brennercom werden interne IT-Leistungen von der Abteilung »IT-Management« bereitgestellt. Diese beschloss
2011 seine bestehende virtuelle VM­wareServer-Infrastruktur auszubauen und auf
Basis von »VMware View« eine »Virtual
Desktop Infrastructure« (VDI) aufzusetzen.
Damit verbunden waren weitergehende
Überlegungen, die neben einer Erweiterung auch ein neues Speicherkonzept beinhalten musste.
Foto: Brennercom
Hochverfügbarer Storage für virtuelle
Server & Desktops
Die Virtualisierungs-Software
»SANsymphony-V« erspart
Brennercom die bis zu vierfache
Investition in ein Hardware-SAN.
Zum einen plant Brennercom den Ausbau seiner externen Rechenzentrumsdienste als Cloud-Computing-Angebot.
Zentrale, und damit effiziente Verwaltung
der Systeme war eines der Kernziele für
diesen Ausbau, verbunden mit einer erhöhten Hochverfügbarkeitsanforderung
durch die Zentralisierung.
Angesichts der anstehenden Investition
wurde ebenso ein späterer Teilumzug der
Systeme zu einem zweiten Standort im 50
Kilometer entfernten Trient miteinkalkuliert, um neben der sofortigen Hochverfügbarkeit ein Desaster Recovery-Konzept
Ausgabe 1-2013
Advertorial
für ein angestrebtes ISO-Audit umsetzen
zu können.
In die Überlegungen floss auch die angestrebte Konsolidierung der heterogenen IT-Landschaft des Unternehmens am
Standort Bozen mit ein. Während die zentralen Rechenzentrumsdienste auf einer
Fibre-Channel-Infrastruktur beruhten,
griffen einzelne Abteilungen auf iSCSISpeicher zu. Neben virtuellen Maschinen
unter »vSphere 4.1« war auch Citrix »Xen«
als Hypervisor im Einsatz. Zudem setzt das
Unternehmen auf den Ausbau externer
Rechenzentrumsdienste im Rahmen eines Cloud Computing-Angebots.
Datacore als performanter
Shared-Storage
»Wir suchten nach einer sehr flexiblen Zukunftslösung, die neben einer kompletten
Storage-Redundanz die Performance als
Shared-Storage mitbringt, um unsere im
Aufbau befindliche VDI zu unterstützen«,
sagt Roberto Sartin, Head of Technical Division bei der Brennercom. »Diese Lösung
haben wir mit dem Storage-Hypervisor
von DataCore gefunden. Für eine vergleichbare Hochverfügbarkeitslösung hätten wir mit einer konventionellen SAN-Lösung das bis zu drei- bis vierfache
investieren müssen, ohne die Skalierbarkeit und Hardwareunabhängigkeit zu erEine Publikation von speicherguide.de
Brennercom verwaltet
seine Unternehmensdaten zentral zwischen
unterschiedlicher
Hardware und spiegelt
diese synchron.
Foto: Brennercom
10
zielen.« Entsprechende Alternativangebote beispielsweise mit NetApp-Metrocluster
oder einem HP-SAN schieden also zugunsten Datacores »SANsymphony-V« aus.
Als reine Software-Lösung arbeitet der
Datacore Storage-Hypervisor mit jeder
gängigen Server- und Storage-Hardware
zusammen und lässt sich bezüglich Performance und Kapazität flexibel erweitern. Installiert auf einer herkömmlichen
Windows-Maschine, entstehen StorageServer, die sämtliche angeschlossene oder
integrierte Speicherkapazität (SAS, SATA,
SSD) virtualisieren. Die Skalierung erfolgt
über die Anzahl der Nodes sowie deren
Ausstattung bezüglich Prozessor und Arbeitsspeicher. Durch ein Multipath-Mirro-
ring zwischen den Storage-Servern entsteht auch zwischen heterogener
SAN-Hardware eine Hochverfügbarkeitsarchitektur, die sowohl Fibre-Channel als
auch iSCSI unterstützt. Autofailover und
Autofailback reduzieren den Managementaufwand und eliminieren Ausfälle.
Multipath-Mirroring für
Hochverfügbarkeit
In Zusammenarbeit mit dem lokalen Service-Partner DATEF machte man sich an
die Umsetzung des Projekts. Die DatacoreLösung ermöglichte zunächst die Weiterverwendung des vorhandenen Speichers,
einer HP »EVA 4400« mit 6,5 TByte Nettokapazität. In einem ersten Projektschritt
wurde ein baugleiches Gerät in einem
zweiten Rechenzentrumsraum in einem
anderen Stockwerk untergebracht, beide
Seiten auf 30 TByte erweitert und über
8-Gbit-FC redundant an zwei HP »StorageWorks SAN«-Switche angebunden.
Der Datacore Storage-Hypervisor Sansymphony-V ist auf zwei HP »DL370« mit
je zwei 4-Kern-Prozessoren und 24 GByte
RAM unter »Windows 2008 Server R2« aufgesetzt. Pro Seite stehen je acht FC-Ports
für die redundante Anbindung zwischen
Storage-Servern und Hosts zur Verfügung.
Zusammen mit dem Partner DATEF wurde die Konfiguration dieses Storage-Server, insbesondere die Ausstattung mit Arbeitsspeicher, erarbeitet, um den Cache
bei Datenbankzugriffen und multiplizierbaren VDI-Anforderungen auch in PeakZeiten ausreichend groß zu gestalten und
die Roh-Performance der genutzten Hardware zu verbessern. Erweiterungen sind
hier im Bedarfsfall mit herkömmlichem
RAM möglich.
Auf der Host-Seite sind die Speichersysteme verbunden mit zwei Blade-Centern
mit je vier physischen Systemen des Typs
HP »Proliant BL460c« mit 96 GByte RAM.
Auf ihnen laufen je nach Bedarf zwischen
140 und 160 virtuellen Maschinen unter
Vmware Vsphere 4.1, die ebenfalls redundant und ausfallsicher aufgesetzt sind. Als
Ausgabe 1-2013
11
Advertorial
Applikationen ist ein Mix aus Büroanwendungen, Oracle- und SQL-Datenbanken,
Microsoft »SharePoint« und SAP etwa mit
FI- und HR-Modul im Einsatz.
Optimierte
Ressourcen-Auslastung
Die Grundfunktion des Datacore StorageHypervisor liegt in der Virtualisierung der
angeschlossenen Ressourcen, so dass
nach und nach weitere Storage-Hardware
in den SAN-Pool integriert und zentral verwaltet werden können. Von den rund 30
TByte pro Seite werden effektiv derzeit 22
TByte genutzt, rund 90 Prozent der Daten
werden dabei durch den vollständig transparenten Multipath-Mirror synchron vorgehalten. Eine hohe Auslastung des Systems wird durch den Einsatz des
integrierten Thin-Provisionings von Datacore erzielt. Hierbei können virtuelle Volumes größer angelegt werden, als der tatsächliche Speicherverbrauch ist. Durch
die dynamische Speicherplatzbelegung
entfallen manuelle LUN-Konfigurationen
bzw. Störungen durch das Volllaufen von
Systemen.
»Virtualisierung und zentrale einheitliche Verwaltung mit dem Datacore Storage-Hypervisor senkt den Arbeitsaufwand für die IT-Abteilung erheblich«,
erläutert Mirko Breitenberger, MitarbeiEine Publikation von speicherguide.de
ter im IT-Management bei Brennercom.
»Im Gegensatz zum früher mühsamen
Aufsetzen neuer physischer Server-/Storage-Systeme lassen sich heute innerhalb
von zehn Minuten neue Systeme aufsetzen. Ebenso können Erweiterungen bei
akutem Speicherbedarf einfach über die
zentrale Konsole mit wenigen Mausklicks
umgesetzt werden.«
Von Nutzen ist dies bei Brennercom beispielsweise bei der am Monatsende anstehenden Fakturierung von Aufträgen.
Dann können temporäre Log-Dateien bei
den Datenbanksystemen hier schnell zu
Kapazitätsengpässen führen, die über den
Datacore Storage-Hypervisor ebenso
schnell wieder behoben werden können.
Kosteneffektive VDI mit 160
Desktops
Auf der virtuellen Infrastruktur mit virtuellem Storage und virtuellen Servern setzt
die Virtual Desktop Infrastructure mit Vmware View (VDI) auf. Die Entscheidung für
diese Plattform fiel nach den guten Erfahrungen mit dem Vmware-Hypervisor, zumal man auch auf ein erworbenes Knowhow zurückgreifen kann. Sukzessive
werden dazu auf der zentralen Infrastruktur rund 160 Desktops auf Notebooks
oder Thin-Clients der Außendienstmitarbeitern und des Helpdesks migriert. Die
Vorteile der VDI liegen langfristig in geringeren Hardwarekosten und in der wenig
aufwändigen, weil zentralen Administration bei der Einrichtung, Aktualisierung
und Pflege der entsprechenden
Desktops.
»Speicherseitig werden die VDI und die
virtuellen Server nicht nur durch eine
Rund-um-die-Uhr ausfallsichere Speicherinfrastruktur gestützt, auch die Performance durch das intelligente Caching hat
unsere Erwartungen erfüllt«, zeigt sich
Brennercom-Manager Sartin angetan.
»Mit dem Datacore Storage-Hypervisor
konnten wir eine technisch ausgereifte
Lösung mit universalem Leistungsspektrum integrieren, um den kurzfristigen Performance- und Hochverfügbarkeitsanforderungen unserer VDI gerecht zu werden.
Zudem haben wir mit den integrierten Migrations- und Replikationsfeatures die Basis geschaffen, um das geplante DisasterRecovery-Konzept effizient umzusetzen.«
Flexible Infrastruktur für
Cloud-Services
Dieses Großprojekt soll noch 2012 abgeschlossen werden, indem die vorhandenen Systeme zwischen den Rechenzentren in Bozen und Trient aufgeteilt und
synchronisiert werden sollen, um auch im
Katastrophenfall an einem Standort den
Geschäftsbetrieb aufrecht erhalten zu
können.
»Business Continuity ist in unserer wie
anderen Branchen ein absolutes Muss«,
sagt Brennercom-Geschäftsführer Dr. Karl
Manfredi. »Mit der Datacore-Lösung innerhalb der virtuellen Infrastruktur mit
Vmware Vsphere und VDI können wir diese Konzernvorgabe nicht nur gewährleisten, sondern durch die Hardwareunabhängigkeit der Lösung auch noch
besonders kosteneffizient umsetzen. Das
betrifft die unmittelbare Investition ebenso wie die mittel- und langfristigen Kosten bei Erweiterungen und Hardwarezukäufen. Für unsere externen IT-Services,
in deren Rahmen wir ein möglichst flexibles und vielfältiges Cloud-Angebot aufbauen, haben wir damit die technischen
Grundlage geschaffen.«
K
Weitere Informationen
Datacore Software GmbH
Bahnhofstraße 18,
D-85774 Unterföhring
Tel: +49 (0)89 - 46 13 57 00,
Fax: +49 (0)89 - 461 35 70 90
E-Mail: [email protected]
www.datacore.de
Ausgabe 1-2013
12
Advertorial
Fallstudie: Leistungsfähiger Speicher Grundlage für Server-Virtualisierung
Mit einer Vmware-Umgebung konsolidiert die Hochschule Regensburg
seine Server-Landschaft und bisher ausgelagerte Services. Gespeichert
wird dabei auf einer HDS/Bluearc-Plattform. Zu den Auswahlkriterien
gehörten Effizienz und Funktionalitäten wie Replikation und Snapshots.
Stefan Karl, Netpress
Mit mehr als 8.100 Studenten und über 40
Studiengängen zählt die Regensburg
University of Applied Sciences (HS.R) zu
den größten Hochschulen Bayerns. Die
Hochschule gehört zu den wenigen Bildungseinrichtungen, die auch ein Studienprogramm im Fach Mikrosystemtechnik anbieten, und sie war eine der ersten,
die die Fächer Europäische Betriebswirtschaft und Mechatronik lehrte. Darüber
hinaus können Master-Studiengänge in
Elektrotechnik und Mikrosystemtechnik
sowie eine große Anzahl weiterführender
Kurse im »Zentrum für Weiterbildung und
Wissensmanagement« (ZWW) belegt werden. Das Institut für Angewandte Forschung und Wirtschaftskooperationen
Eine Publikation von speicherguide.de
(IAFW) arbeitet mit Industrie, Wirtschaft
und sozialen sowie administrativen Organisationen zusammen und verbindet so
die Theorie mit der Praxis.
Zunahme der Services führte zu
Kostensteigerungen
Das umfangreiche und stets auf der Höhe
der Zeit stehende Studienprogramm hatte jedoch Auswirkungen auf die Hochschul-IT: Über die Jahre nahm die Anzahl
der benötigten Services immer mehr zu.
Entsprechende Leistungsaufwendungen
erhöhten die Kosten für Anschaffung, Betrieb und Verwaltung beträchtlich. Gleichzeitig konnte die hauseigene IT- Abteilung
die teure Kapazität der Systeme nicht auslasten, weil die Anforderungen der Services an die Hardware und andere Ressour-
Foto: Hochschule Regensburg
Hochschule Regensburg:
besser virtualisiert speichern
Bei seinen neuen Speichern schätzt die Hochschule Regensburg
vor allem die Snaphsot- und Replikations-Funktionen.
cen sehr unterschiedlich waren. Auch
beim Stromverbrauch und der benötigten Kühlkapazität ging stetig die Anforderung nach oben. Eine weitere Herausforderung stellte die »HisinOne«-Software
dar, die eine virtualisierte Umgebung benötigt. Diese war ehemals in der Administrationsumgebung integriert, sollte aber
ebenfalls in eine virtualisierte Umgebung
ausgelagert werden.
Einführung einer virtualisierten
Server-Landschaft
Um all diese Herausforderungen zu lösen,
war der erste Schritt, VMware auf neuen
Servern in Verbindung mit einem DirectAttached-Storage (DAS) zu installieren.
Schnell zeigte sich, dass der Einsatz einer
Vmware-basierten Server-Landschaft die
richtige Herangehensweise war. Jedoch
erwies sich die DAS-Lösung als nicht ausreichend bei Leistung und Skalierbarkeit,
so dass sich die IT-Abteilung auf die Suche nach einer robusten und hochperformanten Speicherlösung machte. In der
Folge überprüfte der Arbeitsgruppen-Verantwortliche für dieses Projekt Speicherlösungen von fünf verschiedenen Anbietern über mehrere Monate hinweg, ehe
die Wahl am Ende auf die HNAS-Lösung
von Hitachi Data Systems fiel, die
vom inzwischen durch Hitachi akquirierten Anbieter BlueArc stammt. Ausschlag­
gebend für die Entscheidung zu Guns­ten von Hitachi war das beste
Preis-Leistungs-Verhältnis.
Während der Evaluierungsphase hatte
sich das Team um System Administrator
Ausgabe 1-2013
13
Advertorial
Foto
: HD
Tom Förster Zeit genommen, eine ganze
Reihe spezifischer Applikationen unter die
Lupe zu nehmen: »Wir wollten NFS und
CIFS gleichzeitig verwenden«, erklärt Förster. »Im Endspurt mit den letzten beiden
Anbietern war uns besonders wichtig, auf
eine einfache Bedienung der Speicherlösung zu achten, speziell auch im Hinblick
auf die Verwaltungskosten. Die Tatsache,
dass die Hitachi-Lösung sowohl für
Snapshot als auch für Replikation geeignet ist, war der entscheidende Faktor. Mit
einem Mausklick kann der Nutzer etwa
eine gelöschte Datei selbst wieder herstellen, statt den Administrator stundenlang
mit der Suche auf verschiedenen Tapes zu
beschäftigen.«
Die Installation der Hitachi-Lösung verlief problemlos. Das lag zum einen daran,
dass das HR.S-Team alles sehr gut vorbereitet hatte. Zum anderen führte das beteiligte Systemhaus Brandl aus Straubing
die Integration sehr professionell aus und
stand dem Hochschulteam als kompetenter Ansprechpartner zur Seite. Während
der Installation wurde schnell klar, wie
wichtig die Lizenz zur Replikation des Hitachi- mit dem Storage »VMotion«-System
war. Die Hochschule konnte so jegliche
Speicherplatzprobleme während der Migration der Nutzerdaten vermeiden. Zudem ließen sich die Anforderungen einEine Publikation von speicherguide.de
fach anpassen, indem das Projektteam
den vorhandenen Speicherplatz durch zusätzliche Disks als Primärspeicher erweiterte. Hierbei kamen SAS- und NearlineSAS-Disks zum Einsatz. Der Hauptvorteil
der Hitachi-Lösung trat dabei besonders
deutlich zutage: die Fähigkeit zwischen
SAS und Nearline-SAS-Disks zu replizieren
und zu spiegeln und somit die Wiederherstellungsfunktionalitäten signifikant zu
verbessern.
Das Ergebnis: Kosten runter,
Leistung rauf
Die Hochschule Regensburg schaffte damit innerhalb nur eines Jahres den Umstieg von einer konventionellen ServerLandschaft hin zu einer nahezu komplett
virtualisierten Infrastruktur. Über 100 virtuelle Maschinen laufen inzwischen auf
acht physikalischen Servern. Die HitachiLösung erfüllt seitdem die komplexen Anforderungen an Geschwindigkeit und
Leistung der virtualisierten Umgebung
problemlos.
»Es war uns von Anfang an klar, dass die
Leistung der ausschlaggebende Faktor für
unser Projekt sein wird«, bekräftigt Förster. »Hitachi nutzt `Field Programmable
Gate Arrays´, kurz FPGAs, um die hohe Power der Systeme zu erreichen – also eine
Hardware-basierte Herangehensweise.
S
Auf Basis eines Hitachi »HNAS
3080«-Filers wird die IT nun als
Service für die gesamte Hochschule
angeboten.
Bei den anderen Anbietern war dies nur
durch Einsatz einer Software möglich, die
die Leistungsanforderung an den Speicherplatz nach oben schraubte.«
Durch den Einsatz des »HNAS 3080«-Filers war es der Hochschule Regensburg
möglich, die allerwichtigste Anforderung
an das gesamte Virtualisierungs-Projekt
zu erfüllen: IT als Service für die gesamte
Hochschule anzubieten. Der Virtualisierungs-Prozess entwickelte sich zu einer
wahren Erfolgsgeschichte, denn dadurch
kann die Hochschule nun ihren Nutzern
eine Service-orientierte Infrastruktur zur
Verfügung stellen. Mittlerweile sind fast
alle alten Server im DAS-System auf die
neue Hitachi Lösung migriert. Unter dem
Strich stehen eine verbesserte Skalierbarkeit, Verfügbarkeit und Flexibilität.
IT mit strategischer Bedeutung
Das geschilderte Virtualisierungs-Projekt
war erst der Anfang: »Wir haben die Kapazität, mit der vorhandenen Hardware die
Anzahl der virtuellen Maschinen bei Be-
darf zu erhöhen«, erklärt Förster. Die
Hochschule profitiert darüber hinaus neben den erforderlichen Funktionen wie
Replikation und Snapshot von weiteren
Funktionalitäten der Hitachi-Lösung. »Wir
sind optimistisch, dass wir in Kürze weitere Tools wie intelligentes Tiering, den Data-Migrator zum Speichern selten genutzter, großer Daten oder Deduplikation zum
Einsatz bringen können.« Auf diese Weise
kann die Hochschul-IT das Lehr- und Forschungsangebot der Hochschule Regensburg entscheidend unterstützen – und erhält so eine strategische Bedeutung. K
Weitere Informationen
Hitachi Data Systems GmbH
Im Steingrund 10,
63303 Dreieich-Buchschlag
Tel. +49 (0)6103 8040,
Fax +49 (0)6103 804-1111
E-Mail: [email protected]
www.hds.de
Ausgabe 1-2013
14
Advertorial
Fallstudie: ITK-Full-Service-Provider setzt auf Highend-Speichersystem
Hochverfügbares und skalierbares SAN
Foto: Fujitsu
Der Full-Service-Provider Info stellt hohe Ansprüche an seine
Speicherinfrastruktur. Neben höchster Verfügbarkeit wird eine
hohe I/O-Leistung und Skalierbarkeit gefordert. Das neue SAN auf
Basis von Fujitsus »ETERNUS DX«-Serie und der VirtualisierungsSoftware Falconstor NSS reduziert zudem die Energiekosten und
vereinheitlicht die Verwaltung.
Alexander Tlusti, Fujitsu
Eine hochverfügbare Storage-Umgebung
ist gerade für einen Anbieter von Outsourcing-Services von größter Bedeutung –
aber auch Effizienz und Skalierbarkeit
spielen eine große Rolle. Dies gilt auch für
den Hamburger Full-Service-Provider
INFO, der mittelständischen Kunden umfassende ITK-Services aus einer Hand bietet. Das Angebot reicht von Telefonie, Datenübertragung, Housing, über Hosting
bis zu IT-Outsourcing und IT-Consulting.
Info gehört mehrheitlich zu QSC und beEine Publikation von speicherguide.de
treibt Rechenzentren in Hamburg und
Oberhausen. Zu den mehr als 130 Kunden
gehören unter anderem die Deutscher
Ring Lebensversicherung, die Deutsche
Angestellten Krankenkasse (DAK) und
die Olympus Europa Holding. Mit rund
700 Mitarbeitern erwirtschaftet Info einen
Jahresumsatz von über 100 Millionen Euro
(2011).
Shared-Storage-Umgebungen
Insgesamt betreibt der Service-Provider
drei Rechenzentren. Zwei stehen in Hamburg, ein weiteres in Oberhausen. »Wir
betreiben für etwa 40 Kunden SharedStorage-Umgebungen«, erklärt Felix
Rönnebeck, Leiter Backup & Recovery
Services bei Info. »Dafür brauchen wir sehr
leistungsfähige Speichersysteme, die
leicht zu administrieren sind. Das war zuletzt nicht mehr gegeben. Für einen Refresh wollten wir aber nicht nur ein neues Hardware-Produkt, sondern eine
Gesamtlösung.«
Diese Gesamtlösung aus Speichersystem und Storage-Virtualisierung lieferte
das bundesweit tätige Systemhaus Concat. Gerade die Hamburger Niederlassung
verfügt über einen Storage-Schwerpunkt,
der die Ansprüche von Info exakt abdeckt.
Aufgrund positiver Erfahrungen aus früheren Projekten empfahl Concat den Einsatz von »ETERNUS DX8700« EnterpriseSpeichersystemen von Fujitsu. In Sachen
Skalierbarkeit, Performance und Energieeffizienz setzt dieses Modell ganz neue
Maßstäbe. Hinzu kommt die Storage-Virtualisierungs-Software FalconStor »NSS«
(Network Storage Server), die den Administrationsaufwand drastisch reduziert.
»Diese Lösung entspricht genau unseren
Anforderungen«, sagt Rönnebeck.
Einfache Migration mit
Falconstor
Der Vorteil der neuen Gesamtlösung zeigte sich schon beim Start des Projekts, wie
Lennart Off von Concat bestätigt: »Die
Migration von den alten zu den neuen Systemen wird durch eine Storage-Virtualisierungs-Lösung wie die von Falconstor
stark vereinfacht. Das ist im laufenden Betrieb möglich und verläuft von daher viel
sanfter als sonst bei einem HardwareWechsel üblich.« Concat ist übrigens der
größte Falconstor-Partner in Deutschland
und verfügt somit über viel Erfahrung
auch mit großen Storage-Projekten. FalconStor NSS ist natürlich auch im laufenden Betrieb vorteilhaft, denn es leistet
einen wertvollen Beitrag zur Hochverfügbarkeit der Storage-Umgebung. »Themen
wie Daten-Replikation, Erstellen von
Snapshots oder Daten-Spiegelung deckt
Falconstor optimal ab«, erklärt Off.
Ausgabe 1-2013
15
Advertorial
Foto: Info
In der neuen Storage-Infrastruktur des
Service-Providers Info kommen drei
»ETERNUS DX8700«-Speicher sowie
Falconstors NSS zum Einsatz.
Beim Dienstleister Info realisierte Concat ein Konzept aus fünf NSS-Clustern und
einem Eternus-DX8700-Speicher pro Rechenzentrum. Falconstor NSS übernimmt
hierbei die Spiegelung der Daten zwischen den Standorten inklusive Failover
im Bedarfsfall. Damit ist ein Höchstmaß
an Ausfallsicherheit gewährleistet bzw.
wird das Risiko eines Datenverlustes extrem minimiert.
Zentrales Monitoring statt
Einzel-Administration
Info-IT-Leiter Rönnebeck ist zusammen
mit seinem 13-köpfigen Team unter anderem auch für die Speichersysteme zuständig. Die bisherigen neun Systeme sind
jetzt durch drei neue Eternus DX8700 ersetzt worden. Zwei Systeme stehen in getrennten Brandabschnitten in einem Rechenzentrum in Hamburg, das dritte in
dem anderen Rechenzentrum in 15 km
Entfernung. Diese Konsolidierung auf weniger Hardware reduziert natürlich schon
Eine Publikation von speicherguide.de
den Administrationsaufwand. »Dank Falconstor wird dies aber noch mal deutlich
einfacher, denn alle unsere Speichersysteme lassen sich nun zentral über eine
Konsole verwalten«, erklärt Rönnebeck.
»Über diese eine Oberfläche können wir
zudem aus einem Storage-Pool SpeicherRessourcen an die Server verteilen. Diese
Zuweisung wie auch das Verschieben von
Storage-Kapazitäten geschieht ganz simpel per Mausklick.« Auch die Erweiterung
der Speicher-Ressourcen ist in einer virtualisierten Storage-Umgebung viel unkomplizierter, »da wir ohne Betriebsunterbrechung ein neues System anschließen
können«, betont Rönnebeck.
Enorme Skalierbarkeit
Auch in puncto Erweiterbarkeit bzw. Skalierbarkeit lassen die Fujitsu EternusDX8700-Systeme keine Wünsche offen.
Ausgelegt für große Rechenzentren beläuft sich die maximale Speicherkapazität
dieser Modelle auf 4.608 TByte. Die Fest-
platten-Bestückung bei Info summiert
sich auf etwa 300 TByte pro System. »Das
Datenwachstum wird sich in den kommenden Jahren weiter fortsetzen«, sagt
Rönnebeck. »Deshalb war uns dieses hohe
Maß an Skalierbarkeit sehr wichtig.« Der
Einsatz der sparsamen 2,5-Zoll-Festplatten führt zudem zu einer Energieeinsparung von 40 Prozent im Vergleich zu größeren Datenträgern. Dabei arbeiten alle
Eternus-DX-Systeme ohnehin schon sehr
energieeffizient.
Überragende Sicherheit und
Performance
Auch die integrierten Sicherheitsmechanismen machen die Eternus DX8700 zu einem idealen »Datensafe«. Fujitsu hat hier
mit »Redundant Copy« einen Sicherheitsstandard eingebaut, der RAID noch mal
übertrifft. Hinter Redundant Copy verbirgt
sich ein automatisierter vorbeugender
Laufwerkaustausch. Grundlage hierfür bildet die ständige Überwachung von Fehler-Schwellwerten. Die Kontrolle innerhalb der Plattenspeicher nennt sich bei
Eternus DX »Data Block Guard«. Dieses
Feature fügt an jeden Datenblock Prüfcodes an und verifiziert sie an mehreren
Prüfpunkten. Das System überwacht sich
also selbst, was das Team zusätzlich entlastet. Neben dem Plus an Sicherheit profitieren die Kunden von Info zudem von
einem Performance- Schub.
»Wir sind sehr begeistert von der
Geschwindigkeit der Fujitsu-Speichersysteme«, freut sich Rönnebeck. »Bisher hatten wir drei Storage-Performance-Klassen
für unsere Kunden im Angebot. Mit der
Implementierung der neuen EternusDX8700-Systeme konnten wir unser
Leistungsspektrum um eine weitere,
schnellere vierte Klasse erweitern. In
puncto Skalierbarkeit, Performance und
Preis-Leistungs-Verhältnis sind wir ebenfalls hochzufrieden. Zusammen mit der
Virtualisierungs-Lösung Falconstor NSS
verfügen wir jetzt über eine leicht zu administrierende und hochverfügbare Storage-Umgebung.«
K
Weitere Informationen
Fujitsu Technology Solutions
Hildesheimer Straße 25
30880 Laatzen/Hannover
Tel.: +49 (0)511 - 84 89 10 40
http://de.ts.fujitsu.com/storage
Ausgabe 1-2013
Advertorial
Foto: Takko
16
Fallstudie: Effizientes Backup und Recovery bei Takko
Speicherkonsolidierung in
virtuellen Rechenzentren
Storage-Konsolidierung sowie Server- und Datenspiegelung zwischen
zwei Rechenzentren lauten die Anforderungen der Fashion-Kette Takko.
Gleichzeitig sollte das Backup effizienter gestaltet und die RecoveryZeiten verkürzt werden. In der Entscheidungsphase fiel die Wahl auf eine
skalierbare Lösung von EMC und Vmware.
Adrian Schuster, freier Journalist
Ob klassisch elegant, modisch ausgefallen oder sportlich und bequem – Takko
Fashion bietet trendbewusste Mode für
die ganze Familie zu einem herausragend
günstigen Preis. Dabei legt der Value-Fashion-Retailer gleichermaßen Wert auf
modische Aktualität, eine ansprechende
Warenpräsentation in attraktiven Filialen
und eine gute Qualität seiner Produkte.
Jeder Artikel, der in einen der europaweit über 1.700 Takko Fashion-Stores gelangt, durchläuft zuvor ein vielstufiges
Qualitätssicherungsmanagement. Überprüft werden dabei unter anderem
Materialeigenschaften wie Verarbeitung,
Eine Publikation von speicherguide.de
Passform, Farbechtheit und das Dehnungsverhalten von Nähten sowie die Einhaltung von gesetzlich vorgeschriebenen
Schadstoffgrenzwerten.
Dieser Anspruch geht über die Grenzen
des eigenen Unternehmens hinaus. So engagiert sich der Fashion-Filialist für soziale Nachhaltigkeit – zum Beispiel im Rahmen der Initiative »Social-fair« des
Verbandes der Fertigwarenimporteure
VFI sowie als Mitglied der internationalen
Fair Wear Foundation.
Wer mit einem umfassenden Nachhaltigkeitsanspruch hochwertige Qualitätsprodukte zu dauerhaft niedrigen Preisen
anbieten will, der muss jede Chance wahrnehmen, um zusätzliche Kostenvorteile
Die Datensicherungsfenster haben sich halbiert. Takko
benötigen nun zwei Drittel weniger Tapes.
durch eine optimale Prozessgestaltung zu
erschließen. »Voraussetzung dafür ist eine
hochflexible IT-Umgebung, mit der wir einerseits veränderte Geschäftsabläufe
schnell und aufwandsarm abbilden
können und die sich andererseits durch
hohe Kosteneffizienz und Zuverlässigkeit
im täglichen Betrieb auszeichnet«, sagt
André Nordhoff, Bereichsleiter IT-Systeme von Takko Fashion am Stammsitz in
Telgte bei Münster.
Vmware war alternativlos
Eben dieser Wunsch nach maximaler Flexibilität veranlasste Takko Fashion schon
vor knapp fünf Jahren dazu, seine Serverlandschaft zu virtualisieren. »Wir können
die IT dadurch besser mit Geschäftsprozessen synchronisieren«, erklärt Nordhoff.
»Wir lasten Ressourcen um ein Vielfaches
intensiver aus, sparen Hardware-Kosten
und senken trotz steigender Leistung sowohl den Energieverbrauch als auch den
Aufwand für die Administration.
Das damalige Votum zugunsten von
»VMware ESX« als Virtualisierungs-Plattform nennt Nordhoff schlicht alternativlos. Inzwischen laufen fast 90 Prozent aller Non-SAP-Anwendungen von Takko
Fashion auf virtuellen Servern mit Vmware-Technologie – darunter auch geschäftskritische Applikationen wie Exchange,
Citrix und das Filesystem. Ausgenommen
sind lediglich große Data-Warehouse-AnAusgabe 1-2013
17
Advertorial
wendungen. Denn hier ist die Nutzlast so
groß, dass ein virtueller Server gegenüber
seinem physischen Pendant keinen hinreichenden Nutzen versprach – eine der
sehr seltenen Situationen, in denen dies
der Fall ist.
Das SAP-System lief seinerzeit noch bei
einem externen Dienstleister, bevor sich
Takko Fashion 2010 dafür entschied, es ins
eigene Haus zurückzuholen. Notwendige
Anpassungen der Infrastruktur lassen sich
vor dem Hintergrund des anhaltenden
Geschäftswachstums nur inhouse schnell
und kostengünstig realisieren. Auch die
SAP-Server wurden per Vmware ESX virtualisiert – und zwar zu hundert Prozent.
Insgesamt laufen zurzeit rund 250 virtuelle Maschinen auf 17 ESX-Hosts. Die Takko-Fashion-IT nähert sich damit der Idealarchitektur einer abgesicherten privaten
Cloud. Anders als bei hybriden oder öffentlichen Cloud-Modellen geben Unternehmen hierbei keinerlei Kontrolle über
Daten und Prozesse nach außen ab. Sie
behalten stattdessen alle Fäden selbst in
der Hand.
Skalierbar und ausfallsicher
Mit dem In-Sourcing der geschäftskritischen SAP-Landschaft stellte sich naturgemäß auch die Frage der Verfügbarkeit
neu. Da Systemausfälle bei betriebswirtEine Publikation von speicherguide.de
schaftlichen Anwendungen unter keinen
Umständen tolerierbar sind, baute Takko
Fashion knapp einen halben Kilometer
entfernt ein zweites Rechenzentrum.
Dorthin werden virtuelle SAP-Server samt
ihren Daten gespiegelt, sodass auch bei
einem Totalausfall eines Standorts die Arbeitsfähigkeit der Anwender jederzeit gewährleistet ist. Als skalierbare StoragePlattform für das SAP-System sind in
beiden Rechenzentren je ein NetzwerkSpeichersystem EMC »Unified Storage«
installiert. Die EMC-Systeme wurden den
Performance- und Skalierbarkeitsansprüchen bei Takko Fashion deutlich besser
gerecht als alle seinerzeit evaluierten
Konkurrenzsysteme, zum Beispiel von
NetApp und IBM. Skalierbarkeit ist für
Nordhoff ein enorm wichtiger Punkt denn
in Telgte wächst das Datenvolumen rasant. 2008 lag es noch bei rund 15 TByte.
Heute belaufen sich allein die SAP-Daten
auf mehr als 50 TByte; bei Non-SAP-Anwendungen sind es 94 TByte.
Für die Storage-Technologie von EMC
sprach ein weiteres Argument – nämlich
die Tatsache, dass mit EMC »RecoverPoint«
auch gleich ein passendes Werkzeug für
die Remote-Replikation der SAP-Daten
zwischen den Rechenzentren zur Verfügung stand. Takko-Bereichsleiter Nordhoff
betont das perfekte Zusammenspiel zwi-
schen EMC Recoverpoint und dem Vmware »Site Recovery Manager«: »Wir können
virtuelle Server und die zugehörigen Daten gemeinsam spiegeln, wobei ein spezielles Journal-File auf I/O-Ebene eine
schnelle Datenwiederherstellung garantiert.« Recoverpoint sorgt mit ausgefeilten Kompressionsmethoden für einen äußerst sparsamen Bandbreitenverbrauch.
Je nach Erfordernis lassen sich zudem per
Richtlinie unterschiedliche ReplikationsModi ansteuern, was eine kostengünstige Balance zwischen Performance und
Datensicherheit erlaubt.
Auch Non-SAP-Daten werden bei Takko
Fashion auf zwei EMC Unified-StorageSystemen gespeichert. Und wie im SAPFall verteilen sich die Systeme auf beide
Rechenzentren. Allerdings erfolgt die
Spiegelung hier nicht mit Recoverpoint,
sondern mit EMC »VPLEX Metro«. Nordhoff erläutert: »Mit VPLEX verfügen wir
über ein standortübergreifendes Speichernetzwerk, sodass trotz voller Redundanz die Non-SAP-Umgebungen beider
Standorte produktiv nutzbar sind.« Eine
sparsame Art und Weise um für maximalen Ausfallschutz zu sorgen.
Als jüngster Zuwachs der EMC-Plattform
bei Takko Fashion löst seit diesem Jahr die
Backup-Lösung »Data Domain« eine
Bandbibliothek in der täglichen Datensi-
cherung ab. Data Domain nutzt eine hocheffektive De-Duplikationsmethode, mit
der nur noch tatsächlich veränderte Datenblöcke gesichert werden müssen. »Die
Datensicherungsfenster haben sich halbiert«, konstatiert Nordhoff. »Wir benötigen zwei Drittel weniger Tapes. Außerdem
hat sich der Backup-Aufwand vermindert,
da Magnetbänder nur noch bei Monatssicherungen zum Einsatz kommen.«
Unterdessen denkt der Bereichsleiter
bereits über das herannahende Ende eines Produktlebenszyklus nach: Die
»CLARiiON«-Systeme sind bald abgeschrieben; eine Ersatzbeschaffung steht
an. Nordhoff interessiert sich daher sehr
für die FAST-Technologie der Unified-Storage-Plattform EMC »VNX«. Damit ließe
sich in Telgte die Speicher-Performance je
nach Bedarf automatisch dosieren. Mit anderen Worten: Höhere Performance zum
kleineren Preis.
K
Weitere Informationen
EMC Deutschland GmbH
Am Kronberger Hang 2a,
65824 Schwalbach/Ts.
Tel. 0800-10 16 944
http://germany.emc.com/backupand-recovery/data-domain/datadomain.htm
Ausgabe 1-2013
18
Storage 2013
speicherguide.de: Ausblick 2013
Storage 2013:
schneller, sicherer, mobiler
Anspruchsvolle Anwendungen, weiteres Datenwachstum und hohe
Mobilität der Nutzer stellt die Administratoren im Jahr 2013 vor große
Herausforderungen. Eine der größten ist dabei, die Masse an Informationen
sinnvoll zu nutzen. Analyse ist gefragt, am besten in Echtzeit.
Ulrike Rieß
Das IT-Jahr 2013 wird, wie in den Jahren
zuvor, einige Trends stärker nach vorne
bringen, andere werden als Hype-Stern
verglühen. FCoE ist beispielsweise ein
Thema, bei dem sich die Geister scheiden.
Gescheitert für die Einen, Nischenplayer
für Andere und eigentlich kurz vor dem
großen Durchbruch für Dritte begleitet
uns das Thema eher in der zweiten Reihe.
Andere Bereiche halten sich hartnäckig
auch seit Jahren: Cloud, Konvergenz und
Big Data beispielweise. Und natürlich wird
auch Flash im Jahre 2013 nicht fehlen. Darüber hinaus rückt die Analyse und dadurch die Mehrwertschöpfung aus digitalen Informationen in den Mittelpunkt
Eine Publikation von speicherguide.de
des IT-Interesses. Denn nur, wer seine Daten sinnvoll nutzen kann, kann sich einen
Geschäftsvorteil erwirtschaften.
Flash, Flash, Flash
Wie schon 2012 wird auch das kommende Jahr ganz im Zeichen der Flash-Medien stehen. Dabei geht es aber nicht nur
um den optimalen Einsatz: als Cache, als
I/O-Beschleuniger in Form einer PCIe-Karte oder als Medium. Vielmehr geht es auch
um die Optimierung der Lebensdauer und
der Leistungsfähigkeit. So sollen schon
bald MLC-Medien, die eine höhere
Speicherdichte als SLCs besitzen, ebenso
schnell und beständig wie besagte
SLC-Medien sein. Anwender können
bei reinen Flash-Speichermedien zudem
mit wachsenden Speicherkapazitäten
rechnen.
K
Foto:
on
ingst
Nicht nur im kommerziellen Bereich finden
Flash-Medien vermehrt ihren Platz.
Darüber hinaus sind die Entwicklungsabteilungen bemüht, die Größe der
NAND-Speicher zu schrumpfen, bei gleicher oder besser noch höherer Leistung.
Das betrifft vor allem die Chip-Industrie,
Ulrike Rieß,
Redaktion
speicherguide.de
die dadurch aber auch einen Einfluss auf
die Speicherbranche haben wird. Von den
derzeit 20 Nanometern soll die Abmessung innerhalb der nächsten ein bis zwei
Jahre auf 14 Nanometern schrumpfen.
Das wird die Leistungsfähigkeit steigern
und den Energieverbrauch senken. Allerdings sind diesem Trend physikalische
Grenzen gesetzt, denn ab einer bestimmten Größe verliert das Medium ganze Atome und ist somit unbrauchbar.
Sicherheitsstrategien
überdenken
Mit den steigenden Speicherkapazitäten
herkömmlicher Festplatten steigt auch
das Risiko des Datenverlustes an. 2013 soll
die 4-TByte-Platte in großen Stückzahlen
eingesetzt werden, was die üblichen SiAusgabe 1-2013
Storage 2013
Foto
: HG
ST/W
este
rn D
igita
l
19
satz. Brauchte der Administrator zum Beispiel zwölf 1-TByte-Laufwerke in einem
System, kann er nun die gleiche Kapazität
mit nur drei Platten erreichen. Da darf
dann aber auch keine ausfallen. Somit
muss das Prinzip der RAID-Absicherung
überdacht werden. Denn selbst mit dual
Parity und RAID 6 lässt sich das Sicherheitsrisiko bei einem Plattenversagen
nicht mehr zur Gänze abfangen.
Big Data: Mehr Info aus mehr
Daten mittels Analysen
Hochkapazitäre Festplatten zwingen zum
Umdenken der RAID-Strategien.
cherungsmechanismen wie RAID an die
Grenzen der Belastbarkeit treibt. Im Prinzip kann für die Wiederherstellung eines
TBytes – Pi mal Daumen – ein Tag eingerechnet werden. Macht bei einer HDD mit
vier TByte ganze vier Tage. Das Risiko eines weiteren Plattenausfalls während eine
im Rebuild-Modus ist, erhöht sich allein
dadurch, dass die anderen Medien die
ausgefallene auffangen müssen. Geht ein
zweites Medium kaputt, wird es noch
spannender. Nicht zuletzt kommen durch
die hohen Kapazitäten wieder vermehrt
Systeme mit weniger Einschüben (oder
weniger genutzten Einschüben) zum EinEine Publikation von speicherguide.de
Noch immer sprechen Wirtschaftsinstitute und Berater von Big Data. In der Realität sind dies eher enorme Zuwächse innerhalb der Datenbestände, meist
bestehend aus kleineren und unstrukturierten Datensätzen. Und noch immer
scheinen die Unternehmen das darin befindliche Wissen und Potential nicht ausnutzen zu können. Dabei ist das Problem
nicht die Verarbeitung der Daten, sondern
die Auswertung dessen, was sie enthalten, um dies wiederum nutzbringend für
das Unternehmen einzusetzen. AnalyseTools bzw. -software rücken hier in den
Fokus des Interesses. Nicht zuletzt werden
dabei auch erst einmal Grundlagenanalysen notwendig, um herauszukristallisieren, welche Daten eine Firma sammelt
und welche Informationen für eine Mehr-
wertsteigerung wirklich sinnvoll sind. Das
Jahr 2013 gebiert in diesem Umfeld sicher
weiterhin viele neue Produkte und
Start-ups.
Rundum-Lösungen, die das IT-Leben vereinfachen sollen.
Transformation heißt
Konvergenz
Noch sind In-Memory-Lösungen und
HPC-Systeme eher Nischenplayer, sie gewinnen aber vor allem durch Big Data an
Bedeutung. Analyse-Anwendungen in
Echtzeit sowie die ebenso schnelle Datenverarbeitung treibt die IT-Anforderungen
einzelner Branchen in die Höhe. In-Memory-Lösungen verhelfen im Datenbankumfeld zu schnellen Transaktionen und Auswertungen. HPC kommt generell in
Umgebungen mit hoher Arbeitslast und
Speicherkapazität zum Tragen. Dieser Bereich dürfte sich in Zukunft vergrößern,
insbesondere bei Internet-getriebenen
Unternehmen, denn deren Vernetzung
und die dadurch massiv ansteigenden Datenbestände und Transaktionen lassen
sich bald nicht mehr mit herkömmlichen
Lösungen bewältigen. Cluster und ScaleOut sind sicher auch Lösungsansätze, können aber oft dem Echtzeitwunsch nicht
entsprechen.
Ein weiterer Trend zeichnet sich bereits
seit einigen Jahren ab, scheint aber erst
jetzt und somit auch im Jahr 2013 richtig
pp
ta
Foto: Ne
Vorkonfigurierte Appliance-Systeme sollen
das IT-Leben erleichtern.
zu greifen: konvergente Systeme, gern
auch »converged« oder »unified« genannt. Diese vorkonfigurierte Blockverbindung aus Server, Storage und Netzwerk soll dem Anwender eine einfache
und schnelle Lösung bieten, die sich ohne
viel Aufwand ins Rechenzentrum einfügt
und quasi sofort einsatzbereit ist. Fast jeder namhafte Hersteller hat ein solches
Produkt in seinem Portfolio. Ein vermehrter Einsatz solcher Systeme heißt aber
auch eine Veränderung im Rechenzentrum, weg vom Verbund einzelner Komponenten hin zum Einsatz technischer
In-Memory und High
Performance Computing
Band stirbt nicht aus
Das Medium Band mag im Backup-Bereich keine große Rolle mehr spielen, aus
der IT ist es trotzdem nicht wegzudenken.
Ausgabe 1-2013
Foto: IBM
20
Storage 2013
LTO-6 kommt 2013 in
großen Stückzahlen
auf den Markt, wie in
der IBM-Library.
Das beweist das kürzlich eingeführte LTO6-Format. Zwar kam es mit Verspätung auf
den Markt, wird aber 2013 in großen
Stückzahlen verkauft werden. Auf eine
LTO-6-Cartridge passen 2,5 TByte unkomprimierte und 6,2 TByte an komprimierten Daten. Der Datendurchsatz liegt bei
160 MByte/s ohne und bei 400 MByte/s
mit Komprimierung. Das gibt Archiven
wieder mehr Spielraum in punkto Kapazität und Performance. Weitere Generationen sind nach wie vor geplant und in
Entwicklung.
ter Auftrieb. Für die Verteilung und das
Teilen von Informationen über unterschiedliche Standorte hinweg, sind solche
Lösungen nach wie vor hoch im Kurs, seien sie nun private, öffentliche oder hybride Clouds.
Die steigende Mobilität der Nutzer wirft
zudem neue Sicherheitsfragen insbesondere für Unternehmen auf. »Bring your
own device« mag ja eine effiziente Strategie sein, sie birgt aber auch das Risiko von
Datenmanipulation, -missbrauch oder das
Einschleppen von Viren oder Malware. Firmen werden hier künftig verstärkt in policy-basierte Software zur Authentifizierung und ähnlichem investieren müssen.
Auch die Computerforensik wird in diesem Zusammenhang sicher stärker gefragt sein.
Mobile Geräte sind Segen und Fluch
für IT-Verantwortliche zugleich.
Mehr IT-Kompetenz als Schlüssel
zum Erfolg
Auch das kommende Jahr zeigt, dass ITVerantwortliche keine im Keller hausenden Computer-Nerds sind und dass CEO,
CTO und andere große »C«s nicht mehr
unbeleckt sind, wenn es um RZ-Anschaffungen geht. Das ist strategisch für ein Unternehmen auch nicht förderlich. Inseldenken führt zu Insellösungen und
erschwert die EDV. Will eine Firma ganzheitlich umfassende Installationen, so
muss das IT-Problem auch ganzheitlich
betrachtet werden und das kann der Administrator nicht allein. Hier wird ein Umdenken stattfinden, welches bei der Anschaffung neuer IT alle Abteilungen mit
einbezieht. Welche Anwendung erzeugt
welche Daten in welcher Geschwindigkeit
und was soll mit diesen Informationen geschehen? Es reicht nicht mehr aus, nur irgendwo punktuell Speicher hinzuzufügen, mehr CPU in einen Server zu verbauen
Mobil und in der Cloud
Der Begriff »Cloud« mag zwar nicht mehr
allzu häufig verwendet werden, die Wolke an sich ist aber allgegenwärtig. Und daran wird sich auch nichts ändern. Allein
die zahlreichen mobilen Geräten, mit denen Daten abgerufen, vor allem aber erzeugt werden, geben diesem Trend weiEine Publikation von speicherguide.de
ple
: Ap
o
Fot
oder schnellere Switche einzusetzen. Die
IT-Kompetenz sollte und darf nicht nur bei
einem oder wenigen liegen. Das ist nicht
nur im Falle eines technischen Problems
hinderlich, es verlangsamt auch Ent­
scheidungsprozesse und somit das
Geschäftsleben.
Alles auf Anwendung
In Zukunft wird natürlich auch die Anwendung mehr in den Mittelpunkt rücken.
Vorbei sind die Zeiten, in denen der ITVerantwortliche nur auf technische Engpässe schaute und entsprechend mittels
Bausteinprinzip aufstockte: ein RAID-NASSystem hier, eine Flash-Karte dort, mehr
Rechenleistung hier. Performance, Kapazität und Datendurchsatz spielen nach wie
vor eine große Rolle, wichtiger aber ist die
zugrunde liegende Anwendung, die diese Anforderungen erzeugt. Bereits jetzt
gibt es Produkte, die »application-aware«
oder »application-agnostic« und nicht nur
auf die bestehende Hardware schauen,
sondern sich nach der Anwendung richten. Dieser Trend wird sich fortsetzen,
denn letztlich soll die IT keinen Selbstzweck erfüllen, sondern den Problemstellungen gerecht werden; dies muss nicht
zuletzt die Anwendung umspannen. Und
erneut wartet ein interessantes und buntes Speicherjahr auf uns.
K
Ausgabe 1-2013
21
Storage 2013
Schlagwörter für 2013 und Rückblick auf unsere Prognosen für 2012
Die Topp-10-Trends für 2013
Die Prognose lautete: »Durch die schwächelnde Börse und die anhaltende Schuldendiskussion
in Europa könnte sich 2012 die Weltwirtschaft eintrüben.« Passiert ist – bislang – allerdings
noch nichts. Big Data bereitet indes wie erwartet nun den Administratoren Kopfzerbrechen.
Hier unsere diesjährige Auswahl an Storage-Trends fürs nächste Jahr.
Im neuen Windows 8 und in Windows Server 2012 hat Microsoft die Storage Spaces
integriert. Damit lässt sich derselbe Schutz
für Daten erzeugen wie mit altbekannten
Arrays und ihren RAID-1-, RAID-5- oder
RAID-6-Gruppen, eben nur ohne die separate Anschaffung eines solchen Systems. Als Dreingabe hat Microsoft seiner
Implementierung sogar Thin-Provisioning
mitgegeben, so dass der Anwender den
vorhandenen Plattenplatz noch besser
ausnutzen kann. »Die Einrichtung und
Verwaltung der Storage Spaces ist befriedigend einfach und bei weitem nicht
so komplex wie diejenige mancher Arrays«, urteilte bereits speicherguide.deHausanalyst Doc. tec. Storage. Spricht
sich das Feature unter Administratoren
Eine Publikation von speicherguide.de
sierte Netzwerkkomponenten und das
OpenFlow-Protokoll.
Software Defined
Networking (SDN)
Derzeit wird die Bandgeneration LTO-6
eingeführt, der Nachfolger des ShootingStars LTO-5. 6,25 TByte (komprimierte)
Speicherkapazität auf einer Tape-Cartridge nebst 400 MByte/s Datenübertragungsrate sind für eine Bandtechnologie
richtig gute Werte. Das muss eine Back-
Hier geht es um »Programmierbare Netzwerke« auf Basis eines Hypervisors. Sie gewinnen anscheinend extrem schnell an
Boden. Der Begriff Software Defined Networking (SDN) poppte innerhalb eines
Jahres extrem oft auf. Größte Firmen wie
EMC, VMware, Brocade, HP, Deutsche
Telekom, Google, Microsoft und Facebook nahmen sich der Thematik an. 2013
dürfte SDN also forciert in Unternehmensnetzen Einzug halten. Der Grund ist, dass
sich SDN flexibler implementieren und
konfigurieren lassen. Zudem versprechen
sich die Anwender Kosteneinsparungen.
Die Grundlage von SDN bilden virtuali-
LTO-6: das muss Kesseln
Bild: Spectra Logic
Storage Spaces –
Microsoft greift an
rum, könnten Anbieter ähnlicher
Technolo­-gien wie Drobo in Zukunft einige Nutzer verlieren.
Engelbert
Hörmannsdorfer,
News-Reporter,
speicherguide.de
up- bzw. Archiv-Appliance erst mal
verarbeiten.
Und die Pläne sehen für LTO-7 bzw. LTO8 – die jeweils im Abstand von zweieinhalb bis drei Jahren kommen dürften –
deutliche Sprünge bei den Kapazitäten
vor. Das sollte eigentlich für richtig fette
Big-Data-Anwendungen reichen. LTO-5
setzte sich vor allem wegen dem LTFS-Feature (Linear Tape File System) stark durch
(siehe nachfolgenden Punkt).
LTO-Roadmap: Die LTO-6Generation startet jetzt
Ausgabe 1-2013
22
Storage 2013
LTSF – der Turbo für LTO-6?
Das Feature LTFS (Linear Tape File System)
wurde erstmals mit der LTO-5-Bandlaufwerkegeneration 2010 eingeführt. Zunächst unbeachtet, gewann es 2012 doch
deutlich mehr Fahrt. LTFS stellt das Tape
als Filesystem dar. Dieses Filesystem ist inzwischen fester Bestandteil des LTO-ISOStandards geworden. Wird das Tape geladen, verhält es sich wie ein USB-Stick oder
eine externe Festplatte mit eigener Directory, ohne dass Backup-Applikationen erforderlich sind, um das Tape zu bearbeiten. Damit könnten ganz neue Wege in
der Archivierungsstrategie gegangen
werden. Vor allem die Multimedia- & Entertainment-Industrie (Filmstudios, PostProduction-Unternehmen) hat sich LTFS
bereits bemächtigt. Aber es müssen noch
mehr Branchen darauf setzen und es muss
Lösungen für KMUs geben, dann könnte
es ein zusätzlicher Turbo für LTO-6
werden.
rer Vmware (vSphere) gut machen. Vor allem Microsoft hat 2012 Marktanteile
gewonnen und die Leistung von Hyper-V
deutlich verbessert. Windows 2012 Server
zieht derzeit in die Data-Center ein. Dies
dürfte sich 2013 fortsetzen und dazu führen, dass Hyper-V verstärkt auch in großen Rechenzentren und bei Cloud-Service-Providern zum Zuge kommt.
Virtuelle Appliances kommen
Anwender rebellieren gegen die Austausch-Zyklen von IT-Hardware: CIOs wollen nicht länger hinnehmen, dass Hersteller von IT-Hardware Systeme nach
wenigen Jahren abkündigen, meist nach
fünf Jahren die Support-Gebühren dras-
tisch erhöhen – und damit die Anschaffung neuer Komponenten erzwingen. Unternehmen könnten deshalb in den
kommenden Jahren verstärkt auf Produkte setzen, die in virtualisierter Form (Virtual Machine, Virtual Appliance) vorliegen
und im Rahmen eines flexiblen Mietmodells geordert werden können. Beispielsweise von Acronis, Arkeia und Quantum
gibt es bereits virtuelle Backup-Appliances, Datacore Software hat eine virtuelle SAN-Appliance, Reddoxx führt eine virtuelle Appliance fürs E-Mail-Management
im Programm, und Silver Peak Systems
bietet seine WAN-Optimierungslösungen
in Form von Virtual Machines an, die sich
auf allen gängigen Virtualisierungsplattformen implementieren lassen. Logisch,
dass auch Vmware eine virtuelle StorageAppliance offeriert.
Der Kampf der Hypervisors
Eine Publikation von speicherguide.de
Das Thema Virtualisierung ist vom Hype
zur Wirklichkeit geworden. Immer mehr
Unternehmen profitieren von den Vorteilen virtueller Umgebungen. Allerdings
nicht in jedem Unternehmen wird Virtualisierung konsequent zu Ende gedacht,
vor allem nicht im Bereich der Datensicherung. Doch der Trend setzt nun massiv ein.
Veeam war das erste Unternehmen mit
einem Backup & Recovery-Paket speziell
für Vmware-Umgebungen. Acronis war
später dran, brachte aber dann dafür innerhalb von eineinhalb Jahren bereits die
dritte Version ihres »vmProtect«. Auch
Quest Software mischt munter mit ihrem
»vRanger« mit, was wohl mit ein Grund für
die Übernahme durch Dell war. Es wird in
2013 spannend zu sehen, wie sich diese
Firmen gegeneinander positionieren. Erfreulich ist jedenfalls: Backup in virtuellen
Umgebungen wird für Systemverwalter
zunehmend einfacher.
FCoE – kommt die Trendwende?
Bild: Acronis
Der Wettstreit verschärft sich: Wer hat den
Hypervisor mit der besten Performance?
Diese Frage wird 2013 nicht nur die Anwender beschäftigen, sondern – natürlich
– auch die Hersteller. Citrix (Xen), KVM
und Microsoft (Hyper-V) werden in puncto Performance Boden auf den Marktfüh-
Backup in virtuellen
Umgebungen
Eine neue Disziplin: Backup, hier mit
»vmProtect 8«, in Vmware-Umgebungen
Wer Storage-Messen a la »SNW Europe«
in den Jahren 2008 bis 2010 besuchte,
kam zu der festen Überzeugung: FCoE
(Fibre Channel over Ethernet) wird ein
Trend. Wo man hinblickte, ließen sich
FCoE-Ankündigungen und -Produkte finAusgabe 1-2013
23
Storage 2013
den. Doch in diesem Jahr? Pustekuchen. Emulex, QLogic und Brocade – eigentlich die FCoE-Protagonisten – hängten auf der diesjährigen »SNW Europe 2012« das Thema gaaaanz tief. Der einzige,
der wenigsten etwas die FCoE-Fahne hochhielt, war – Intel. Dort
setzt man ganz locker darauf, dass es sich durchsetzt, vor allem
wegen Windows Server 2012. Laut dem Gartner-Hype-Zyklus
wäre FCoE jetzt im »Tal der Enttäuschung«. Hier lohnt in jedem
Fall der Blick, ob 2013 der »Pfad der Erleuchtung« kommt.
Enterprise App Stores
Mit einem Enterprise App Store ist für Unternehmen die umständliche Zeit vorbei, in der Apps mit der Verschenkoption eines übergeordneten App-Stores – zum Beispiel den iTunes Store von
Apple – an Anwender verteilt werden mussten. Sogar Apple hat
eine entsprechende Lösung für Unternehmenskunden gelauncht:
»Volume Purchase Program« (VPP) nennt sich diese Variante. Mit
dem VPP-Programm wird es Unternehmen nun deutlich erleichtert, kostenpflichtige Apps aus Apples App-Store an die Anwender zu verteilen; vernünftigerweise sollte dies kombiniert mit einem »Mobile Device Management«-System erfolgen (siehe
nachfolgenden Punkt). Der Vorteil für Unternehmen ist: Kontrollund Sicherheitsmechanismen verhindern dabei ungewolltes Nutzungsverhalten, missbräuchliche Benutzung durch unternehmensfremde Personen oder unzulässiges Speichern von sensitiven
Unternehmensdaten in der Cloud.
Unsere Prognose Ende 2011 – Reality Check
Thunderbolt
»konkurriert mit USB 3.0«
»Herstelleranzahl überschaubar«
ll Thunderbolt kommt langsam, aber sicher
ll Es gibt erste Motherboards mit Thunderbolt
Cloud-Storage und »Patriot Act«
»US-Behörden dürfen auf Cloud-Daten zugreifen«
»gefundenes Fressen für europäische Unternehmen«
ll Weiterhin anhaltende heftige Diskussionen
ll Etliche Cloud-Server zogen nach Deutschland
um
12 Gbit/s SAS
»echte Power für die SSD«
»wird sehnsüchtig erwartet«
ll 12 Gbit/s SAS immer noch in den Startlöchern
ll PCIe-Flash-Karten stattdessen im Höhenflug
Big Data
»Bald erste Datenbanken in EByte-Größe«
»jeder Storage-Hersteller hat Lösung«
ll Big-Data-Welle rollt weiterhin
ll Viele unterschiedliche Lösungen auf dem Markt
Thailand-Hochwasser und der Festplattenmarkt
»IDC: Pre-Flut-Level wird Mitte 2012 erreicht«
»Seagate: es wird bis mindestens Ende 2012
dauern«
ll Die Produktion kam schneller wieder ins Laufen
als gedacht
ll Preise bleiben aber auf erhöhtem Level
ll Rekordgewinne bei Western Digital und Seagate
Kapriolen dank Big Data
»Big Data sorgt auch für neue Compliance-Anforderungen«»
»Storage-Administratoren dürften Spaß haben«
ll Compliance hat sich dem Big-Data-Thema noch
nicht besonders angenommen
In-Memory Computing
»In-Memory-Datenbanken deutlich schneller«
»SAP sprang mit SAP HANA sehr früh darauf«
ll In-Memory-Computing setzt sich weiter durch
ll Viele Ankündigungen rund um SAP HANA
Tablet-PCs
»Apple trat Lawine los«
»Anbieter von Memory-Speicherkarten freuen sich«
ll Tablet-PCs sind weiterhin stark steigendes
Marktsegment
ll Speicherkartenhersteller profitieren nur
unterdurchschnittlich
Linus-Filesystem Lustre
»Lustre oft in Forschungseinrichtungen eingesetzt«
»Netapp engagiert sich stark«
ll Sehr wenig Ankündigungen bei Lustre in 2012
ll Vermutlich weiter Nischendasein
Green-Storage
»Zwangsläufige Folgeerscheinung von Big Data?«
»Big Data macht Energieeinsparungen wieder
zunichte«
ll Energieverbrauch wird öfters nachgefragt
ll Aber kein bedeutender Trend erkennbar
Mobile Device Management (MDM)
Im Prinzip zählte MDM bereits im Jahr 2012 zu den viel diskutierten Themen. Aber es zeigt sich immer mehr: an MDM kommt niemand vorbei – zumal es auch BYOD (Bring Your Oqn Device) ermöglicht. Davon sind vor allem Unternehmen mit einem intensiven
Außendienst betroffen; Versicherungen beispielsweise befinden
Eine Publikation von speicherguide.de
sich sogar in einem Strukturwandel. Hier mobile
Endgeräte zu nutzen ist fast nicht mehr wegzudenken. Aber auf den mobilen Winzlingen a la
Smartphones und Tablets befinden sich dank ihrer Speichermöglichkeiten auch sensitive Firmen-
daten. Die gilt es zu schützen, zu sichern, ins
heimische Rechenzentrum zu überspielen, Zugriffsberechtigungen einzurichten etc. Hier dürften sich schnell MDM-Lösungen aus der Cloud
etablieren.
K
Ausgabe 1-2013
24
Impressum
Das speicherguide.de -Team
wünscht allen Lesern, Kunden und Partnern
ein gesundes und erfolgreiches
Jahr 2013
Die nächste PDF-Ausgabe von storage-magazin.de erscheint am 28. Februar 2013
storage-magazin.de
eine Publikation von speicherguide.de GbR
Karl Fröhlich, Ulrike Haak,
Engelbert Hörmannsdorfer
Auf der Grün 8, D-83714 Miesbach
Tel. 080 25-51 79, Fax: 080 25-51 71
E-Mail: [email protected]
Chefredaktion, Konzept:
Karl Fröhlich (verantwortlich für den
redaktionellen Inhalt)
Tel. 089-740 03 99, Fax: 089-740 03 98
E-Mail: [email protected]
Redaktion:
Karl Fröhlich, Engelbert Hörmannsdorfer,
Ulrike Rieß
Schlussredaktion:
Karl Fröhlich, Brigitte Scholz
Layout/Grafik:
Uwe Klenner, Layout und Gestaltung,
Rittsteiger Str. 104, 94036 Passau,
Tel. 08 51-9 86 24 15
www.layout-und-gestaltung.de
Titelbild:
© iStockphoto.com / Felix Möckel
Mediaberatung:
Claudia Hesse,
Tel. +41 (0) 41 - 780 04 86
E-Mail: [email protected]
Webkonzeption und Technik:
Günther Schmidlehner
E-Mail: [email protected]
Urheberrecht:
Alle in »storage-magazin.de« erschienenen
Beiträge sind urheberrechtlich geschützt.
Alle Rechte (Übersetzung, Zweitverwertung)
vorbehalten. Reproduktion, gleich welcher
Art, sowie e
­ lektronische Auswertungen nur
mit schriftlicher Genehmigung der
Redaktion. Aus der Veröffentlichung kann
nicht geschlossen werden, dass die
verwendeten Bezeichnungen frei von
gewerblichen Schutzrechten sind.
Haftung:
Für den Fall, dass in »storage-magazin.de«
unzutreffende Informationen oder Fehler
enthalten sein sollten, kommt eine Haftung
nur bei grober Fahrlässigkeit der Redaktion
oder ihrer Mitarbeiter in Betracht.
Unser Team
Karl Fröhlich,
Chefredakteur
speicherguide.de
Engelbert Hörmannsdorfer,
News-Editor
speicherguide.de
Rainer Huttenloher,
Redaktion
virtualisierungs-guide.de
Ulrike Rieß,
Redaktion
speicherguide.de
Claudia Hesse,
Mediaberatung
speicherguide.de
Wir empfehlen zur vollständigen Funktionalität des eBooks »Acrobat Reader«, ab Version 9
Eine Publikation von speicherguide.de
Ausgabe 1-2013