storage-magazin.de
Transcription
storage-magazin.de
Ausgabe 1-2013 storage-magazin.de Eine Publikation von speicherguide.de Storage 2012 im Rückblick Ausblick 2013 2 Editorial IT und Daten werden mobil Inhalt Editorial Seite 2 Liebe Leserinnen und Leser, Storage 2012 – Wirtschaftslage blockiert die Entwicklung Seite 3 und schon wieder neigt sich ein Jahr zu Ende. Es soll ja Kollegen geben, die Rückblicke für vollkommen überflüssig halten. Kann man so sehen. Auf der anderen Seite schadet es nicht, nochmal zu reflektieren, was war und wie es dazu gekommen ist. Kam es so wie erwartet oder doch ganz anders? 2012 war für viele Admins sicherlich wieder so ein Jahr, in dem sie mit dem Vorhandenen zurechtkommen mussten. Die unklare Wirtschaftslage zwang einige Firmen zum Sparen bzw. wurde zumindest als Ausrede benutzt, die Budgets einzuschränken. Technologisch würde ich sagen, war 2012 ein Übergangsjahr. Cloud und Big Data wurden bereits zuvor diskutiert. Mit »Bring Your Own Device« (BYOD) kam nun ein weiteres Thema hinzu. Natürlich klingt es verlockend, wenn Mitarbeiter mit ihren eigenen Geräten arbeiten – muss man ihnen keine kaufen. Sicher ist auch, sie arbeiten länger und durchaus über die üblichen Bürozeiten hinaus. Dazu benötigen sie aber Zugriff auf Firmendaten. Da kommen Sicherheitsfragen ins Spiel. Sollen Unternehmensdaten auf einem privaten Gerät gespeichert werden? Wie verhindert man den Zugriff Unberechtigter und kann die IT Unternehmensdaten remote sichern oder bei Bedarf löschen? So interessant der Gedanke ist, in Begeisterungsstürme brechen IT-Abteilungen bei dem Thema nicht aus. Egal ob mit oder ohne BYOD, die IT wird mobiler. Via Smartphone ist man es heute bereits gewöhnt, immer online zu sein. Gleiches gilt künftig nicht nur für den Zugriff auf das Personen – Die Storage-Gesichter des Jahres Seite 6 Produkte und Innovationen des Jahres Seite 7 Unternehmen und Akquisitionen des Jahres Seite 8 Advertorials und Fallstudien: Hochverfügbarer Storage für virtuelle Server & Desktops Seite 9 Hochschule Regensburg: besser virtualisiert speichern Seite 12 Hochverfügbares und skalierbares SAN Seite 14 Speicherkonsolidierung in virtuellen Rechenzentren Seite 16 Storage-Ausblick 2013: Storage 2013: schneller, sicherer, mobiler Seite 18 Die Topp-10-Trends für 2013 Seite 21 Impressum Seite 24 Eine Publikation von speicherguide.de Internet, sondern auch auf die eigenen Daten – privat wie beruflich. In beiden Fällen wird die Lösung mit der Cloud zu tun haben. In den letzten beiden Karl Fröhlich, Jahren wurde viel darüber diskutiert Chefredakteur und philosophiert. 2013 wird es nun speicherguide.de aber auf Produktseite richtig spannend. Die Dropbox ist sehr beliebt, aber nicht sicher. Viel praktischer wäre es auch, seine eigenen Daten zu »sharen« und nicht erst einen kleinen Teil davon woanders hin kopieren zu müssen. Filesharing auf Unternehmensniveau wird kommendes Jahr eines der zentralen Themen sein. Von Produkten wie dem »Grau Data Space« erwarte ich mir daher einiges. Wir werden diesen Ansatz im neuen Jahr ausgiebig unter die Lupe nehmen. Bis dahin wünsche ich Ihnen im Namen des speicherguide.de-Teams für 2013 alles Gute, viel Glück und Gesundheit und mögen Sie von Datenverlusten und Downtimes verschont bleiben. Kommendes Jahr lohnt sich ein Besuch auf speicherguide.de doppelt. Wir feiern unser 10-jähriges Bestehen und werden neben interessanten Themen auch ganzjährig einige Geschenke verteilen. Wir bedanken uns für Ihren Zuspruch. Herzlichen Dank und bleiben Sie uns gewogen. Ihr Karl Fröhlich, Chefredakteur speicherguide.de Ausgabe 1-2013 3 Storage 2012 Storage 2012 – Ein letzter Blick zurück Wirtschaftslage blockiert die Entwicklung Die Naturkatastrophen und ihre Auswirkungen bestimmten weite Teile des Jahres. Eine schwache Börse und eine ungewisse Wirtschaftslage taten ihr übriges. Für Unternehmen war es ein Übergangsjahr um 2013 die IT und Geschäftsprozesse noch tiefer miteinander zu verzahnen. Karl Fröhlich Auf 2012 lastete von vorne herein eine Hypothek. Die Wirtschaftskrise und die hohen Festplattenpreise aufgrund der Thailandflut drückte von Anfang auf die Stimmung. Es war klar, Administratoren müssen die wenigen vorhandenen Mittel noch zielgerichteter einsetzen. Letztendlich muss man sagen, 2012 war ein Übergangsjahr. Es gab weder spektakuläre Neuerungen noch Übernahmen, unspannend war es aber trotzdem nicht. Lassen Sie uns das Jahr noch einmal Revue passieren und erinnern Sie sich mit uns an die Geschehnisse der vergangenen zwölf Monate. rückhaltende Nachfrage über die Weihnachtsfeiertage und der Jahreswechsel aber für eine Stabilisierung der Preise. Vor allem der Consumer-Markt übte sich in Kaufzurückhaltung und auch die PC-Einkäufe sind stark eingebrochen. Zur Consumer Electronic Show (CES) läutete die Harddisk-Branche die Thunderbolt-Ära ein. Rückblickend lässt sich allerdings feststellen, zwar wurden über das Jahr einige neue Produkte vorgestellt, von einem Durchbruch ist die Technik aber noch entfernt. Zu groß ist der Aufpreis gegenüber USB-3.0-Laufwerken. Dass das Anschlusskabel 49 Euro kosten soll und nur über Apple erhältlich ist, trägt ebenfalls nicht zur Akzeptanz bei. Januar Februar Der Januar stand noch sehr deutlich unter dem Einfluss der Festplattenkrise. Anders als prognostiziert, sorgten die zu- Mit Spannung wurden in der HDD-Branche die Quartalszahlen erwartet. Während Seagate seinen Gewinn verdreifacht, Eine Publikation von speicherguide.de brach bei Western Digital der Stückzahlenabsatz um 51 Prozent ein. Wobei der Umsatz nur um 19 Prozent zurückging. Hier dürften einige schlaflose Nächte gehabt haben. IT-Verantwortlichen ergeht es da zum Teil nicht anders. Laut einer SymantecUmfrage vertrauen Administratoren ihrem Backup und Recovery nicht. Mehr als ein Drittel würde ihren Gehaltsscheck nicht darauf verwetten, alle Daten im Bedarfsfall wiederherstellen zu können. Vor allem die Einhaltung der SLAs und der vereinbarten Zeitfenster bereiten hier Kopfzerbrechen. Als Problem entpuppen sich auch hybride Umgebungen: Die Datenströme setzen sich aus einer Mischung von physischen und virtuellen sowie von Cloud-Umgebungen zusammen. Dies ergab eine internationale von Acronis initiierte Umfrage. Zu oft müsse auf bis zu vier Backup-Lösungen gleichzeitig zurückgegriffen werden. März Die »CeBIT« stand in diesem Jahr im Zeichen der Cloud, wobei die Hauptthemen hier Virtualisierung, Flexibilität, Mobilität und vereinfachte Prozesse waren. Mit 312.000 Besuchern verzeichnet die Messe spürbar weniger Gäste als im Vorjahr. Der Veranstalter schob den Rückgang zum Teil auf den Streik im öffentlichen Nahverkehr. Wobei der Rückgang in der StorageHalle eigentlich nicht zu spüren war. Der Vorwurf an die Cebit lautet für 2012, nicht genug Highlights geboten zu haben. Das trifft grundsätzlich auch für den Storage-Bereich zu. Für den Verbraucher bietet die Messe wenig. Wer sich gezielt und direkt informieren möchte, für den gibt es trotzdem genug zu entdecken. Seinen Abschluss findet die Akquisition von Hitachi GST, für die Western Digital insgesamt rund 4,8 Milliarden US-Dollar aufbringt. Hitachi hält nun zehn Prozent der WD-Aktien. Die Hitachi-Marke soll es weiterhin auf dem Festplattenmarkt geben. Zur Erfüllung der EU-Auflagen musste WD zudem Fabrikationsstätten an Toshiba verkaufen. Ausgabe 1-2013 4 Storage 2012 April BYOD (Bring Your Own Device) gehört heuer zu den Trendthemen. Darauf vorbereitet sind allerdings die wenigsten Firmen. Studien belegen beispielsweise, dass in den USA 87 Prozent der Unternehmen mit weniger als 1.000 Mitarbeitern keine formelle Richtlinie bei der Verwendung persönlicher Geräte für berufliche Zwecke besitzen. Hierzulande ist die Lage nicht wirklich besser. Allerdings öffnen sich viele IT-Abteilungen dem Trend nur widerwillig, zu groß sind die Sicherheitsbedenken. Mai Während in Unternehmen die Cloud viel diskutiert aber eher zögerlich umgesetzt wird, ist der Heimbereich bereits weiter. Privatanwendern ist es egal, wo ihre Daten abgespeichert sind, Hauptsache es ist praktisch und billig. Die beliebteste Anwendung ist aktuell die Speicherung von Bildern. Die Dropbox gehört ebenfalls zu den häufig genutzten Diensten, obwohl der Online-Speicher in puncto Sicherheit Defizite aufweist. Apple-Anwender bekommen die »iCloud« frei Haus geliefert, die Akzeptanz ließ nicht lange auf sich warten. Mit dem »Google Drive« betritt nun auch der Internetriese die Szene und offeriert kostenlos fünf GByte. Die Offerte bleibt aber hinter Microsofts »SkyDrive« zurück. Hier stehen Nutzern sieben GByte zur Verfügung – es waren aber auch schon mal 25 GByte. Grafik: Bitkom Das Speichern von Fotos im Netz ist bei deutschen Internet-Usern die beliebteste Anwendung. Eine Publikation von speicherguide.de Juni Juli Damit Cloud-Anwendungen richtig Sinn ergeben, werden große Bandbreiten benötigt. Hier hapert es mitunter noch und die Prognosen machen wenig Mut auf einen baldige Besserung. Bis 2016 soll sich die Anzahl der weltweit an das Internet angebundenen Geräte auf insgesamt fast 19 Milliarden verdoppeln. Einer Cisco-Studie zufolge übersteigt der globale IPDatenverkehr 2016 mit einem Volumen von 1,3 Zettabyte pro Jahr bzw. 110 Exabyte pro Monat den Wert von 31 Exabyte pro Monat im Jahr 2011 um fast das Vierfache. Alleine in Deutschland werden fünf internetfähige Endgeräte pro Kopf erwartet. Deutsche Firmen bleiben beim Thema Cloud aber zögerlich. EMEA-Unternehmen planen fast ein Drittel ihres IT-Budgets in Cloud-Computing zu investieren. Deutschland hinkt hier etwas hinterher: Hierzulande sind Unternehmen – mit 28 Prozent Quote – noch nicht so weit mit der Adaption von Cloud-Management wie der weltweite Durchschnitt. Eine von VMware initiierte Umfrage belegt aber auch, dass Cloud in den kommenden 18 Monaten durchaus als wichtig erachtet und in der Priorität nach oben wandern wird. Das berühmte Sommerloch füllt heuer Overland mit einer großangelegten Patentklage. Bereits seit 2010 geht man unter anderem gegen den OEM-Hersteller BDT vor, unterlag aber nun vor Gericht. Overland bleibt da aber hartnäckig und ging in Berufung. Parallel zettelte man eine Klage gegen sieben weitere Firmen wie Quantum, Spectra Logic und Tandberg Data an, die Tape-Library-Patente von Overland verletzt haben sollen. Anfang Juli gewinnt Dell den Bieterkampf um Quest Software gegen eine Investmentgesellschaft. 2,4 Milliarden USDollar lässt sich der IT-Konzern den Ausbau seines Software-Geschäfts kosten. Dabei handelt es sich 2012 um den bis dato größten Deal im Storage- und Virtualisierungs-Umfeld. Ungefähr zeitgleich geben EMC und Dell einen Einblick in ihre Flash-Roadmaps. EMC packt seinen »VFCache Lightning« in eine Appliance: Thunder heißt das Ganze und verbindet die Cache-Karten mit Servern. Verkauft wird Thunder voraussichtlich ab 2013. Ein ähnliches Konzept verfolgt Dell mit dem Projekt »Hermes«. Im Prinzip geht es um ein Clustern von PCIe-SSDs, der dann extrem hohe I/OAnforderungen bedienen soll. Ausgabe 1-2013 Storage 2012 Mitte Juli stellt zudem Western Digital mit der »WD Red« eine Festplattenserie vor, die speziell für SOHO-NAS-Systeme konzipiert ist. Was zunächst wenig spektakulär klang, entpuppte sich jedoch als wahrer Verkaufsschlager. August Insgesamt nimmt das Wehklagen im HDDSektor ab. Das zweite Quartal 2012 verlief für WD überraschend gut. Der Festplattenausstoß war so hoch, dass man sowohl bei den Umsatzzahlen als auch bei den ausgelieferten Stückzahlen Seagate überholte. Für die es mit einem Nettogewinn von fast einer Milliarde US-Dollar ebenfalls nicht schlecht lief. Gerüchten zufolge ist Seagate an einer Übernahme von OCZ Technology und/oder STEC interessiert. Für 2013 gehen wir fest davon aus, dass sich Seagate SSD-Expertise und Marktanteile ins Haus holt. Einen Bärendienst erwiesen Hacker der Cloud-Fraktion: Der Cloud-Speicherdienst Dropbox musste Sicherheitsprobleme einräumen, nachdem es mehrere unerlaubte Zugriffe vor allem auf Firmen-Accounts gab. Gehackt wurde ein Konto eines Dropbox-Mitarbeiters, und dort Firmeninterna mit E-Mails und KundenPasswörtern gestohlen. Eine Publikation von speicherguide.de Die Festplattenpreise orientieren sich 2012 kontinuierlich nach unten. Seit Dezember 2011 kaufen Anwender DesktopPlatten durchschnittlich um 25 Prozent günstiger ein. Im Jahresvergleich liegt der Verkaufspreis aber immer noch um über 50 Prozent über den Kursen des vergangenen Sommers. Was Big Data bedeuten kann belegt Facebook: Das soziale Netzwerk wächst täglich um 500 TByte und proklamiert, mit über 100 PByte den weltweit größten Hadoop-Disk-Cluster zu betreiben. Die tägliche Datenflut wird unter anderem durch mehr als 2,5 Milliarden Postings, 2,7 Milliarden Likes sowie 300 Millionen neu hochgeladenen Bildern verursacht. und Geschäftsprozesse sind künftig unverrückbar miteinander verzahnt. Für Unternehmen sei die Wertschöpfung aus gespeicherten Informationen elementar. Technologien wie Cloud Computing und Big Data schaffen in den nächsten drei Jahren neue Aufgaben und Positionen im IT-Bereich. Zu den neuen Berufsbildern sollen unter anderem der Cloud-Architekt und der Data Scientist zählen. Das Wachstum der »Storage Networking World Europe« ( (SNW Europe) erreicht allmählich sein Momentum. Trotz einiger neuer interessanter Ansätze verzeichnet die wichtigste Storage-Messe Europas keine neuen Erfolge. Zwar konnten mehr Aussteller akquiriert werden, die Teilnehmerzahl ist jedoch rückläufig. Für kommendes Jahr sollte sich die Branche wieder etwas mehr Mühe geben. Oktober/November Dezember Mit einer Referenzplattform drängt Intel in den NAS-Markt. OEMs können damit kleinere Systeme konfigurieren, deren Motherboard auf den neuen Intel-DualCore-Atom-CPUs »D2550« und »D2500« Wie schon 2011 vertreibt auch dieses Jahr Aldi wieder eine Netzwerkfestplatte. Diesmal ist das Angebot allerdings nicht so attraktiv. Gab es damals 1,5 TByte für rund 100 Euro, mussten sich Käufer mit einem TByte (129 Euro) begnügen. Das Interesse war dennoch enorm. Der Markt für SOHO-NAS-System hat 2012 einen deutlichen Sprung nach vorne gemacht. Nahezu jeder Anbieter einer externen Festplatte ist nun auch im NAS-Segment vertreten. Cloud-Funktionen werden hier ebenfalls zunehmend als Kaufargument gehandelt. Für 2013 wird eine Verschärfung des Wettbewerbs erwartet. Im kommenden Jahr wird die Cloud Realität, im Heimbereich wie auch in den Unternehmen. Treibende Kraft werden hier professionelle File-Sharing-Funktionen und Private-Cloud-Architekturen sein. K September Die Bedeutung optischer Laufwerke schwindet rapide. Für Sony Optiarc ist dies das Aus. Die Produktion wird noch vor Jahresende eingestellt. Quantum und Spectra Logic läuten im Streit mit Overland eine neue Runde ein und zitieren den Kontrahenten ihrerseits wegen Patentverletzungen vor den Kadi. Die Patentklagen mutieren für Overland offensichtlich zum Bumerang. Im Verfahren gegen BDT gibt es nach wie vor keine Einigung. Auf dem EMC Forum umreißt Geschäftsführerin Sabine Bendiek die Zukunft: IT Foto: Asustor 5 NAS-Referenzplattform auf Basis von Intels »Atom«-CPUs D2550 und D2500. (Codename »Milstead«) basiert. Laut Intel seien die NAS-Server sowohl für Privat- als auch KMU-Anwender gedacht. Ausgabe 1-2013 6 Storage 2012 Personen – Die Storage-Gesichter des Jahres IBM ärgert EMC MANFRED REITER Überraschung bei Netapp Damit hatte niemand gerechnet: Andreas König verlässt NetApp. Er war vor 16 Jahren Mitbegründer des deutschen Büros und stand seit 2007 an der EMEA-Spitze. Als Nachfolger rückt Manfred Reiter als Senior Vice President & General Manager EMEA auf. Er ist bereits seit 15 Jahren in der EMEAOrganisation tätig, und verantwortete zuletzt als Vice President Enterprise Area den Vertrieb in Deutschland, Frankreich und Großbritannien. König ist übrigens im Oktober als CEO bei Swisscom IT Services eingestiegen. Eine Publikation von speicherguide.de CARSTEN HAAK Klaas de Vos wechselt von Western Digital zum NAS- und Wireless-Spezialisten Buffalo und übernimmt die Position des Senior Director European Sales. Er ersetzt Andreas Arndt, der beim Schweizer Spezialdistributor Littlebit Technology als Sales und Marketing Direktor anheuert. Einen der größten Coups des Jahres landet IBM: Mit Dr. Carsten Haak wechselt einer der renommiertesten Systemingenieure für Enterprise-Storage-Systeme von EMC zu Big Blue. Sein neuer Titel lautet dort nun Executive Business Development IOT Europe, sein Tätigkeitsfeld soll sich weit über das angestammte Speicherumfeld hinaus erstrecken. Druva mit Deutschland-Office Backup-Spezialist Druva eröffnet seine erste Niederlassung in Deutschland. Als Vertriebsleiterin holt sich der vom Marktforscher Gartner als »Cool Vendor« eingeordnete Hersteller Beate Lange von Nova Stor. BEATE LANGE KLAAS DE VOS Führungswechsel bei Buffalo Das Personalkarussel 2012 in Auszügen Acronis lockt Alex Fürst von Avaya weg. Er ist als Country Manager DACH und Eastern Europe zuständig für das regionale Management sowie Wachstum der Region. Fürst ersetzt dabei Michael Hon-Mong, der den Backup-Spezialist im Sommer verlassen hat. Ende Juli verstarb überraschend Claus Egge im Alter von 54 Jahren. Der ehemalige IDC-Storage-Analyst betrieb zuletzt eine eigene Beratungsgesellschaft. TIM erweitert mit Tim Henneveld den Vorstand, der die Resorts IT und Professional Services sowie die Geschäfte der Gesellschaft in der Schweiz verantwortet. OCZ Technology verstärkt im Sommer mit Georg Dietsch das Channel-Team für seine »VXL Storage Acceleration«Software. Nach Umstrukturierungen im amerikanischen Management, hat Dietsch den SSD-Hersteller allerdings bereits wieder verlassen. Gerüchten zufolge wird OCZ zum Verkauf vorbereitet. Stefan von Dreusche steigt bei DataCore zum Channel-Leiter auf. Er löst Siegfried Betke ab, der zum Director CE Business Development and New Strategic Channel Sales befördert wurde. André M. Braun wird bei Dell Deutschland neuer Sales Director für die Bereiche Intelligent-Data-Management und Storage. Ausgabe 1-2013 7 Storage 2012 Produkte und Innovationen des Jahres Foto: Oracle Binnen kürzester Zeit hat sich Oracle mit der »StorageTek SL150« etabliert. Die Einstiegs-Library skaliert von 30 bis 300 Cartridge-Slots und von einem bis zu 20 LTO-5Laufwerke. Damit löst der Hersteller nicht nur drei Produkte im eigenen Haus ab, sondern konsolidiert in KMUs Autoloader und kleine Librarys in eine größere modular ausbaubare Bandbibliothek. Der Bandroboter ist für Tiered-Storage vorbe reitet und soll dem Trend bei KMUs Rechnung tragen, Backup-Medien direkt der Archivierung zuzuführen. Der Erfolg der SL150 zwingt Marktbegleiter dazu, zu reagieren. Unseren Informationen zufolge haben unter anderem HP und IBM den Auftragsfertiger BDT damit beauftragt, ein Konkurrenzprodukt zu entwickeln. Eine Publikation von speicherguide.de In der »CS Series«-Appliance vereint Nimble Storage iSCSI-Storage, Backup und Disaster-Recovery in einer Box. Mit günstigen Kosten pro I/O und pro GByte sollen vor allem KMUs adressiert werden. Der Einstiegspreis liegt bei rund 25.000 Euro. Dafür erhält man eine skalierbare und flexible Architektur. Fünf Prozent der Speicherkapazität stellt ein Flash-Memory und sorgt so für Performance und eine hohe I/O-Leistung. Mit dem Anschluss weiterer Arrays lassen sich Leistung und Kapazität linear ausbauen. Gleichzeitig kann der IT-Manager im laufenden Betrieb jederzeit neue Systeme an einen Cluster anschließen oder entfernen, ohne dass dies den Zugriff auf die Daten in irgendeiner Form beeinträchtigt. Das Nimble-Betriebssystem verteilt diese automatisch über alle in dem Cluster zusammengeschlossenen Arrays um. Foto: N im ble Sto rage Foto: N-Tec Hochverfügbarkeit ist auch für kleine und mittelständische Unternehmen erschwinglich. Dies belegt der Ismaninger Storage-Hersteller N-Tec mit seiner »rapidCore«-Lösung. Die schlüsselfertige und vorinstallierte SANAppliance basiert auf Storage-Hardware von N-Tec sowie auf dem Storage-Hypervisor »SANsymphony-V« von DataCore. Bei Bedarf wird auf ein gespiegeltes System umgeschaltet, eine Betriebsunterbrechung findet nahezu nicht statt. Ein Einstiegs-Bundle mit zwei TByte mit zwei Nodes und DatacoreLizenz beginnt bei 17.500 Euro. Ausgabe 1-2013 8 Storage 2012 Unternehmen und Akquisitionen des Jahres Sonstige Unternehmensmeldungen Dell gibt Milliarden aus Richtig spektakuläre Übernahmen gab es 2012 keine. Angesichts der angespannten Wirtschaftslage konnte oder wollte kein Unternehmen aus der Deckung kommen. Bis auf Dell. Der einstige Direktversender stemmt heuer drei Milliarden-Deals und steht mittlerweile auf einem breiten Fundament. Dell holt sich Wyse und Quest Mit enormer Kaufkraft stellt Dell die Weichen für die Zukunft. Zuerst wird der Thin-Client-Spezialist Wyse Technology übernommen. Bis zu 15 Milliarden US-Dollar investieren Unternehmen laut IDC in Thin-Client- und Virtual-Desktop-Strukturen. Davon will Dell ein großes Stück abhaben und gibt Insidern zufolge bis zu einer Milliarde US-Dollar für Wyse aus. Im Sommer bootet Dell nach einem monatelangen Bieterkampf unter anderem die Investmentgesellschaft Insight Venture Partners aus. Die Eine Publikation von speicherguide.de Übernahme von Quest kostet letztendlich 2,4 Milliarden US-Dollar in bar. Dell verspricht sich von dem Kauf vor allem eine Belebung seines Software-Geschäfts. Das Unternehmen ist gut aufgestellt im Bereich Backup & Recovery für VMware-Umgebungen, und auch Microsoft-Sharepoint-Migration gehört zu den künftigen Zukunftsmärkten. Außerdem soll Dell am Jahresanfang 1,2 Milliarden US-Dollar für den Netzwerk- und DatensicherheitsSpezialisten SonicWall ausgegeben haben. Hinzukamen noch einige kleinere Investments. Insgesamt hat Dell heuer eine gewaltige Summe für Akquisitionen ausgegeben. In den kommenden zwei Jahren muss sich zeigen, ob der Hersteller daraus Kapital schlagen kann. Seagate kauft Lacie Vor allem die NAS-Produkte waren für Seagate interessant: Die Übernahme des französischen Herstellers von externen Speichern LaCie wird mit 186 Millionen US-Dollar bewertet. Darin enthalten ist auch der Online-Speicherdienst Wuala. Nach dem Merger mit Samsungs HDDSparte agiert Seagate dieses Jahr etwas zurückhaltender. Experten rechnen für 2013 fest mit der Übernahme eines SSD-Herstellers. Schon länger ranken sich Gerüchte, dass man an OCZ Technology dran sei. Seine Flash-Expertise erweitert EMC mit dem 2009 gegründeten israelischen Startup XtremIO. Genaue Zahlen wurden zwar nicht genannt, in israelischen Medien wird jedoch eine Summen von 430 bis 450 Millionen US-Dollar gehandelt. Ansonsten war EMC das ganze Jahr über aktiv, allerdings mit einem weitaus kleinerem Budget als Dell. Erwähnenswert ist unter anderem das Joint-Venture mit Lenovo. Während EMC Teile des Tochterunternehmens Iomega einbringt, stattet der PC-Hersteller die Kooperation mit Kapital aus. Iomegas NAS-Systeme passen gut zum Rechnergeschäft von Lenovo. EMC will über Lenovo einen besseren Zugang zum chinesischen Markt erzielen. Zudem wurde ein Entwicklungsprogramm für Server-Technologien ins Leben gerufen. VMware übernimmt Desktop-Virtualisierungs-Experte Wanova für rund 70 bis 80 Millionen US-Dollar. Ziel ist es, die Wanova-Lösung »Mirage« in die DesktopVirtualisierungs-Plattform »VMware View« zu integrieren. Brocade krallt sich Software-Networking-Experte Vyatta. IBM verstärkt mit dem Spezialist für HochleistungsFlash-Speicher Texas Memory Systems sein Portfolio. Ausgabe 1-2013 9 Advertorial Fallstudie: Brennercom spiegelt synchron mit dem Storage-Hypervisor Redundant und hochverfügbar hat Brennercom seine Storage-Infrastruktur ausgebaut. Mit der Storage-Hypervisor »SANsymphony-V« von Datacore zentralisiert das Südtiroler ITK-Unternehmen seine Datenverwaltung und erspart sich Investitionen in SAN-Hardware. Michael Baumann, Konzept PR Brennercom ist ein hochtechnologisches und innovatives Unternehmen der IKT-Industrie (Information und Kommunikationstechnologie). Mit Hauptsitz in Bozen und Zweigstellen in Trient und Verona agiert das 1998 gegründete Unternehmen auf der Achse Mailand – München und entwickelt aus einer Hand individuell konzipierte Komplettlösungen für den Businessmarkt. Brennercom leistet individuelle Beratung und stellt den technischen Support durch erfahrene IKT-Planer. Das Unternehmen setzt auf Service, richtet den Fokus auf die Anforderungen der BeEine Publikation von speicherguide.de triebe und ist den Werten Zuverlässigkeit, Transparenz und Seriosität verpflichtet. Zum Leistungsangebot für Endkunden gehören Breitband- und UltrabreitbandInternetzugänge, Festnetz-Telefonie, private virtuelle Netze für Betriebe mit mehreren Standorten sowie integrierte Kommunikationskonzepte, ServerfarmLösungen, Sicherheitsdienstleistungen und Mehrwertdienste – das Ganze auch auf Cloud-Basis. Hinzukommt der zuverlässige und hoch qualifizierte Kundendienst. Brennercom hat sein eigenes Glasfasernetz aufgebaut, das zu den modernsten und innovativsten in ganz Europa gehört. Es garantiert Übertragungskapazitäten von bis zu einem Gbit, maximale Bandbreite ebenso wie minimale Latenzzeit und erfüllt höchste Sicherheitsstandards. Das Unternehmen ist per Gbit-Ethernet direkt mit den Datenaustauschpunkten Milan Internet Exchange in Mailand (MIX) und dem German Commercial Internet Exchange in Frankfurt (DE-CIX) verbunden, wo die größten und wichtigsten Akteure der Weltwirtschaft tätig sind. Aufbau einer Virtual-Desktopund Cloud-Infrastructure Bei Brennercom werden interne IT-Leistungen von der Abteilung »IT-Management« bereitgestellt. Diese beschloss 2011 seine bestehende virtuelle VMwareServer-Infrastruktur auszubauen und auf Basis von »VMware View« eine »Virtual Desktop Infrastructure« (VDI) aufzusetzen. Damit verbunden waren weitergehende Überlegungen, die neben einer Erweiterung auch ein neues Speicherkonzept beinhalten musste. Foto: Brennercom Hochverfügbarer Storage für virtuelle Server & Desktops Die Virtualisierungs-Software »SANsymphony-V« erspart Brennercom die bis zu vierfache Investition in ein Hardware-SAN. Zum einen plant Brennercom den Ausbau seiner externen Rechenzentrumsdienste als Cloud-Computing-Angebot. Zentrale, und damit effiziente Verwaltung der Systeme war eines der Kernziele für diesen Ausbau, verbunden mit einer erhöhten Hochverfügbarkeitsanforderung durch die Zentralisierung. Angesichts der anstehenden Investition wurde ebenso ein späterer Teilumzug der Systeme zu einem zweiten Standort im 50 Kilometer entfernten Trient miteinkalkuliert, um neben der sofortigen Hochverfügbarkeit ein Desaster Recovery-Konzept Ausgabe 1-2013 Advertorial für ein angestrebtes ISO-Audit umsetzen zu können. In die Überlegungen floss auch die angestrebte Konsolidierung der heterogenen IT-Landschaft des Unternehmens am Standort Bozen mit ein. Während die zentralen Rechenzentrumsdienste auf einer Fibre-Channel-Infrastruktur beruhten, griffen einzelne Abteilungen auf iSCSISpeicher zu. Neben virtuellen Maschinen unter »vSphere 4.1« war auch Citrix »Xen« als Hypervisor im Einsatz. Zudem setzt das Unternehmen auf den Ausbau externer Rechenzentrumsdienste im Rahmen eines Cloud Computing-Angebots. Datacore als performanter Shared-Storage »Wir suchten nach einer sehr flexiblen Zukunftslösung, die neben einer kompletten Storage-Redundanz die Performance als Shared-Storage mitbringt, um unsere im Aufbau befindliche VDI zu unterstützen«, sagt Roberto Sartin, Head of Technical Division bei der Brennercom. »Diese Lösung haben wir mit dem Storage-Hypervisor von DataCore gefunden. Für eine vergleichbare Hochverfügbarkeitslösung hätten wir mit einer konventionellen SAN-Lösung das bis zu drei- bis vierfache investieren müssen, ohne die Skalierbarkeit und Hardwareunabhängigkeit zu erEine Publikation von speicherguide.de Brennercom verwaltet seine Unternehmensdaten zentral zwischen unterschiedlicher Hardware und spiegelt diese synchron. Foto: Brennercom 10 zielen.« Entsprechende Alternativangebote beispielsweise mit NetApp-Metrocluster oder einem HP-SAN schieden also zugunsten Datacores »SANsymphony-V« aus. Als reine Software-Lösung arbeitet der Datacore Storage-Hypervisor mit jeder gängigen Server- und Storage-Hardware zusammen und lässt sich bezüglich Performance und Kapazität flexibel erweitern. Installiert auf einer herkömmlichen Windows-Maschine, entstehen StorageServer, die sämtliche angeschlossene oder integrierte Speicherkapazität (SAS, SATA, SSD) virtualisieren. Die Skalierung erfolgt über die Anzahl der Nodes sowie deren Ausstattung bezüglich Prozessor und Arbeitsspeicher. Durch ein Multipath-Mirro- ring zwischen den Storage-Servern entsteht auch zwischen heterogener SAN-Hardware eine Hochverfügbarkeitsarchitektur, die sowohl Fibre-Channel als auch iSCSI unterstützt. Autofailover und Autofailback reduzieren den Managementaufwand und eliminieren Ausfälle. Multipath-Mirroring für Hochverfügbarkeit In Zusammenarbeit mit dem lokalen Service-Partner DATEF machte man sich an die Umsetzung des Projekts. Die DatacoreLösung ermöglichte zunächst die Weiterverwendung des vorhandenen Speichers, einer HP »EVA 4400« mit 6,5 TByte Nettokapazität. In einem ersten Projektschritt wurde ein baugleiches Gerät in einem zweiten Rechenzentrumsraum in einem anderen Stockwerk untergebracht, beide Seiten auf 30 TByte erweitert und über 8-Gbit-FC redundant an zwei HP »StorageWorks SAN«-Switche angebunden. Der Datacore Storage-Hypervisor Sansymphony-V ist auf zwei HP »DL370« mit je zwei 4-Kern-Prozessoren und 24 GByte RAM unter »Windows 2008 Server R2« aufgesetzt. Pro Seite stehen je acht FC-Ports für die redundante Anbindung zwischen Storage-Servern und Hosts zur Verfügung. Zusammen mit dem Partner DATEF wurde die Konfiguration dieses Storage-Server, insbesondere die Ausstattung mit Arbeitsspeicher, erarbeitet, um den Cache bei Datenbankzugriffen und multiplizierbaren VDI-Anforderungen auch in PeakZeiten ausreichend groß zu gestalten und die Roh-Performance der genutzten Hardware zu verbessern. Erweiterungen sind hier im Bedarfsfall mit herkömmlichem RAM möglich. Auf der Host-Seite sind die Speichersysteme verbunden mit zwei Blade-Centern mit je vier physischen Systemen des Typs HP »Proliant BL460c« mit 96 GByte RAM. Auf ihnen laufen je nach Bedarf zwischen 140 und 160 virtuellen Maschinen unter Vmware Vsphere 4.1, die ebenfalls redundant und ausfallsicher aufgesetzt sind. Als Ausgabe 1-2013 11 Advertorial Applikationen ist ein Mix aus Büroanwendungen, Oracle- und SQL-Datenbanken, Microsoft »SharePoint« und SAP etwa mit FI- und HR-Modul im Einsatz. Optimierte Ressourcen-Auslastung Die Grundfunktion des Datacore StorageHypervisor liegt in der Virtualisierung der angeschlossenen Ressourcen, so dass nach und nach weitere Storage-Hardware in den SAN-Pool integriert und zentral verwaltet werden können. Von den rund 30 TByte pro Seite werden effektiv derzeit 22 TByte genutzt, rund 90 Prozent der Daten werden dabei durch den vollständig transparenten Multipath-Mirror synchron vorgehalten. Eine hohe Auslastung des Systems wird durch den Einsatz des integrierten Thin-Provisionings von Datacore erzielt. Hierbei können virtuelle Volumes größer angelegt werden, als der tatsächliche Speicherverbrauch ist. Durch die dynamische Speicherplatzbelegung entfallen manuelle LUN-Konfigurationen bzw. Störungen durch das Volllaufen von Systemen. »Virtualisierung und zentrale einheitliche Verwaltung mit dem Datacore Storage-Hypervisor senkt den Arbeitsaufwand für die IT-Abteilung erheblich«, erläutert Mirko Breitenberger, MitarbeiEine Publikation von speicherguide.de ter im IT-Management bei Brennercom. »Im Gegensatz zum früher mühsamen Aufsetzen neuer physischer Server-/Storage-Systeme lassen sich heute innerhalb von zehn Minuten neue Systeme aufsetzen. Ebenso können Erweiterungen bei akutem Speicherbedarf einfach über die zentrale Konsole mit wenigen Mausklicks umgesetzt werden.« Von Nutzen ist dies bei Brennercom beispielsweise bei der am Monatsende anstehenden Fakturierung von Aufträgen. Dann können temporäre Log-Dateien bei den Datenbanksystemen hier schnell zu Kapazitätsengpässen führen, die über den Datacore Storage-Hypervisor ebenso schnell wieder behoben werden können. Kosteneffektive VDI mit 160 Desktops Auf der virtuellen Infrastruktur mit virtuellem Storage und virtuellen Servern setzt die Virtual Desktop Infrastructure mit Vmware View (VDI) auf. Die Entscheidung für diese Plattform fiel nach den guten Erfahrungen mit dem Vmware-Hypervisor, zumal man auch auf ein erworbenes Knowhow zurückgreifen kann. Sukzessive werden dazu auf der zentralen Infrastruktur rund 160 Desktops auf Notebooks oder Thin-Clients der Außendienstmitarbeitern und des Helpdesks migriert. Die Vorteile der VDI liegen langfristig in geringeren Hardwarekosten und in der wenig aufwändigen, weil zentralen Administration bei der Einrichtung, Aktualisierung und Pflege der entsprechenden Desktops. »Speicherseitig werden die VDI und die virtuellen Server nicht nur durch eine Rund-um-die-Uhr ausfallsichere Speicherinfrastruktur gestützt, auch die Performance durch das intelligente Caching hat unsere Erwartungen erfüllt«, zeigt sich Brennercom-Manager Sartin angetan. »Mit dem Datacore Storage-Hypervisor konnten wir eine technisch ausgereifte Lösung mit universalem Leistungsspektrum integrieren, um den kurzfristigen Performance- und Hochverfügbarkeitsanforderungen unserer VDI gerecht zu werden. Zudem haben wir mit den integrierten Migrations- und Replikationsfeatures die Basis geschaffen, um das geplante DisasterRecovery-Konzept effizient umzusetzen.« Flexible Infrastruktur für Cloud-Services Dieses Großprojekt soll noch 2012 abgeschlossen werden, indem die vorhandenen Systeme zwischen den Rechenzentren in Bozen und Trient aufgeteilt und synchronisiert werden sollen, um auch im Katastrophenfall an einem Standort den Geschäftsbetrieb aufrecht erhalten zu können. »Business Continuity ist in unserer wie anderen Branchen ein absolutes Muss«, sagt Brennercom-Geschäftsführer Dr. Karl Manfredi. »Mit der Datacore-Lösung innerhalb der virtuellen Infrastruktur mit Vmware Vsphere und VDI können wir diese Konzernvorgabe nicht nur gewährleisten, sondern durch die Hardwareunabhängigkeit der Lösung auch noch besonders kosteneffizient umsetzen. Das betrifft die unmittelbare Investition ebenso wie die mittel- und langfristigen Kosten bei Erweiterungen und Hardwarezukäufen. Für unsere externen IT-Services, in deren Rahmen wir ein möglichst flexibles und vielfältiges Cloud-Angebot aufbauen, haben wir damit die technischen Grundlage geschaffen.« K Weitere Informationen Datacore Software GmbH Bahnhofstraße 18, D-85774 Unterföhring Tel: +49 (0)89 - 46 13 57 00, Fax: +49 (0)89 - 461 35 70 90 E-Mail: [email protected] www.datacore.de Ausgabe 1-2013 12 Advertorial Fallstudie: Leistungsfähiger Speicher Grundlage für Server-Virtualisierung Mit einer Vmware-Umgebung konsolidiert die Hochschule Regensburg seine Server-Landschaft und bisher ausgelagerte Services. Gespeichert wird dabei auf einer HDS/Bluearc-Plattform. Zu den Auswahlkriterien gehörten Effizienz und Funktionalitäten wie Replikation und Snapshots. Stefan Karl, Netpress Mit mehr als 8.100 Studenten und über 40 Studiengängen zählt die Regensburg University of Applied Sciences (HS.R) zu den größten Hochschulen Bayerns. Die Hochschule gehört zu den wenigen Bildungseinrichtungen, die auch ein Studienprogramm im Fach Mikrosystemtechnik anbieten, und sie war eine der ersten, die die Fächer Europäische Betriebswirtschaft und Mechatronik lehrte. Darüber hinaus können Master-Studiengänge in Elektrotechnik und Mikrosystemtechnik sowie eine große Anzahl weiterführender Kurse im »Zentrum für Weiterbildung und Wissensmanagement« (ZWW) belegt werden. Das Institut für Angewandte Forschung und Wirtschaftskooperationen Eine Publikation von speicherguide.de (IAFW) arbeitet mit Industrie, Wirtschaft und sozialen sowie administrativen Organisationen zusammen und verbindet so die Theorie mit der Praxis. Zunahme der Services führte zu Kostensteigerungen Das umfangreiche und stets auf der Höhe der Zeit stehende Studienprogramm hatte jedoch Auswirkungen auf die Hochschul-IT: Über die Jahre nahm die Anzahl der benötigten Services immer mehr zu. Entsprechende Leistungsaufwendungen erhöhten die Kosten für Anschaffung, Betrieb und Verwaltung beträchtlich. Gleichzeitig konnte die hauseigene IT- Abteilung die teure Kapazität der Systeme nicht auslasten, weil die Anforderungen der Services an die Hardware und andere Ressour- Foto: Hochschule Regensburg Hochschule Regensburg: besser virtualisiert speichern Bei seinen neuen Speichern schätzt die Hochschule Regensburg vor allem die Snaphsot- und Replikations-Funktionen. cen sehr unterschiedlich waren. Auch beim Stromverbrauch und der benötigten Kühlkapazität ging stetig die Anforderung nach oben. Eine weitere Herausforderung stellte die »HisinOne«-Software dar, die eine virtualisierte Umgebung benötigt. Diese war ehemals in der Administrationsumgebung integriert, sollte aber ebenfalls in eine virtualisierte Umgebung ausgelagert werden. Einführung einer virtualisierten Server-Landschaft Um all diese Herausforderungen zu lösen, war der erste Schritt, VMware auf neuen Servern in Verbindung mit einem DirectAttached-Storage (DAS) zu installieren. Schnell zeigte sich, dass der Einsatz einer Vmware-basierten Server-Landschaft die richtige Herangehensweise war. Jedoch erwies sich die DAS-Lösung als nicht ausreichend bei Leistung und Skalierbarkeit, so dass sich die IT-Abteilung auf die Suche nach einer robusten und hochperformanten Speicherlösung machte. In der Folge überprüfte der Arbeitsgruppen-Verantwortliche für dieses Projekt Speicherlösungen von fünf verschiedenen Anbietern über mehrere Monate hinweg, ehe die Wahl am Ende auf die HNAS-Lösung von Hitachi Data Systems fiel, die vom inzwischen durch Hitachi akquirierten Anbieter BlueArc stammt. Ausschlag gebend für die Entscheidung zu Gunsten von Hitachi war das beste Preis-Leistungs-Verhältnis. Während der Evaluierungsphase hatte sich das Team um System Administrator Ausgabe 1-2013 13 Advertorial Foto : HD Tom Förster Zeit genommen, eine ganze Reihe spezifischer Applikationen unter die Lupe zu nehmen: »Wir wollten NFS und CIFS gleichzeitig verwenden«, erklärt Förster. »Im Endspurt mit den letzten beiden Anbietern war uns besonders wichtig, auf eine einfache Bedienung der Speicherlösung zu achten, speziell auch im Hinblick auf die Verwaltungskosten. Die Tatsache, dass die Hitachi-Lösung sowohl für Snapshot als auch für Replikation geeignet ist, war der entscheidende Faktor. Mit einem Mausklick kann der Nutzer etwa eine gelöschte Datei selbst wieder herstellen, statt den Administrator stundenlang mit der Suche auf verschiedenen Tapes zu beschäftigen.« Die Installation der Hitachi-Lösung verlief problemlos. Das lag zum einen daran, dass das HR.S-Team alles sehr gut vorbereitet hatte. Zum anderen führte das beteiligte Systemhaus Brandl aus Straubing die Integration sehr professionell aus und stand dem Hochschulteam als kompetenter Ansprechpartner zur Seite. Während der Installation wurde schnell klar, wie wichtig die Lizenz zur Replikation des Hitachi- mit dem Storage »VMotion«-System war. Die Hochschule konnte so jegliche Speicherplatzprobleme während der Migration der Nutzerdaten vermeiden. Zudem ließen sich die Anforderungen einEine Publikation von speicherguide.de fach anpassen, indem das Projektteam den vorhandenen Speicherplatz durch zusätzliche Disks als Primärspeicher erweiterte. Hierbei kamen SAS- und NearlineSAS-Disks zum Einsatz. Der Hauptvorteil der Hitachi-Lösung trat dabei besonders deutlich zutage: die Fähigkeit zwischen SAS und Nearline-SAS-Disks zu replizieren und zu spiegeln und somit die Wiederherstellungsfunktionalitäten signifikant zu verbessern. Das Ergebnis: Kosten runter, Leistung rauf Die Hochschule Regensburg schaffte damit innerhalb nur eines Jahres den Umstieg von einer konventionellen ServerLandschaft hin zu einer nahezu komplett virtualisierten Infrastruktur. Über 100 virtuelle Maschinen laufen inzwischen auf acht physikalischen Servern. Die HitachiLösung erfüllt seitdem die komplexen Anforderungen an Geschwindigkeit und Leistung der virtualisierten Umgebung problemlos. »Es war uns von Anfang an klar, dass die Leistung der ausschlaggebende Faktor für unser Projekt sein wird«, bekräftigt Förster. »Hitachi nutzt `Field Programmable Gate Arrays´, kurz FPGAs, um die hohe Power der Systeme zu erreichen – also eine Hardware-basierte Herangehensweise. S Auf Basis eines Hitachi »HNAS 3080«-Filers wird die IT nun als Service für die gesamte Hochschule angeboten. Bei den anderen Anbietern war dies nur durch Einsatz einer Software möglich, die die Leistungsanforderung an den Speicherplatz nach oben schraubte.« Durch den Einsatz des »HNAS 3080«-Filers war es der Hochschule Regensburg möglich, die allerwichtigste Anforderung an das gesamte Virtualisierungs-Projekt zu erfüllen: IT als Service für die gesamte Hochschule anzubieten. Der Virtualisierungs-Prozess entwickelte sich zu einer wahren Erfolgsgeschichte, denn dadurch kann die Hochschule nun ihren Nutzern eine Service-orientierte Infrastruktur zur Verfügung stellen. Mittlerweile sind fast alle alten Server im DAS-System auf die neue Hitachi Lösung migriert. Unter dem Strich stehen eine verbesserte Skalierbarkeit, Verfügbarkeit und Flexibilität. IT mit strategischer Bedeutung Das geschilderte Virtualisierungs-Projekt war erst der Anfang: »Wir haben die Kapazität, mit der vorhandenen Hardware die Anzahl der virtuellen Maschinen bei Be- darf zu erhöhen«, erklärt Förster. Die Hochschule profitiert darüber hinaus neben den erforderlichen Funktionen wie Replikation und Snapshot von weiteren Funktionalitäten der Hitachi-Lösung. »Wir sind optimistisch, dass wir in Kürze weitere Tools wie intelligentes Tiering, den Data-Migrator zum Speichern selten genutzter, großer Daten oder Deduplikation zum Einsatz bringen können.« Auf diese Weise kann die Hochschul-IT das Lehr- und Forschungsangebot der Hochschule Regensburg entscheidend unterstützen – und erhält so eine strategische Bedeutung. K Weitere Informationen Hitachi Data Systems GmbH Im Steingrund 10, 63303 Dreieich-Buchschlag Tel. +49 (0)6103 8040, Fax +49 (0)6103 804-1111 E-Mail: [email protected] www.hds.de Ausgabe 1-2013 14 Advertorial Fallstudie: ITK-Full-Service-Provider setzt auf Highend-Speichersystem Hochverfügbares und skalierbares SAN Foto: Fujitsu Der Full-Service-Provider Info stellt hohe Ansprüche an seine Speicherinfrastruktur. Neben höchster Verfügbarkeit wird eine hohe I/O-Leistung und Skalierbarkeit gefordert. Das neue SAN auf Basis von Fujitsus »ETERNUS DX«-Serie und der VirtualisierungsSoftware Falconstor NSS reduziert zudem die Energiekosten und vereinheitlicht die Verwaltung. Alexander Tlusti, Fujitsu Eine hochverfügbare Storage-Umgebung ist gerade für einen Anbieter von Outsourcing-Services von größter Bedeutung – aber auch Effizienz und Skalierbarkeit spielen eine große Rolle. Dies gilt auch für den Hamburger Full-Service-Provider INFO, der mittelständischen Kunden umfassende ITK-Services aus einer Hand bietet. Das Angebot reicht von Telefonie, Datenübertragung, Housing, über Hosting bis zu IT-Outsourcing und IT-Consulting. Info gehört mehrheitlich zu QSC und beEine Publikation von speicherguide.de treibt Rechenzentren in Hamburg und Oberhausen. Zu den mehr als 130 Kunden gehören unter anderem die Deutscher Ring Lebensversicherung, die Deutsche Angestellten Krankenkasse (DAK) und die Olympus Europa Holding. Mit rund 700 Mitarbeitern erwirtschaftet Info einen Jahresumsatz von über 100 Millionen Euro (2011). Shared-Storage-Umgebungen Insgesamt betreibt der Service-Provider drei Rechenzentren. Zwei stehen in Hamburg, ein weiteres in Oberhausen. »Wir betreiben für etwa 40 Kunden SharedStorage-Umgebungen«, erklärt Felix Rönnebeck, Leiter Backup & Recovery Services bei Info. »Dafür brauchen wir sehr leistungsfähige Speichersysteme, die leicht zu administrieren sind. Das war zuletzt nicht mehr gegeben. Für einen Refresh wollten wir aber nicht nur ein neues Hardware-Produkt, sondern eine Gesamtlösung.« Diese Gesamtlösung aus Speichersystem und Storage-Virtualisierung lieferte das bundesweit tätige Systemhaus Concat. Gerade die Hamburger Niederlassung verfügt über einen Storage-Schwerpunkt, der die Ansprüche von Info exakt abdeckt. Aufgrund positiver Erfahrungen aus früheren Projekten empfahl Concat den Einsatz von »ETERNUS DX8700« EnterpriseSpeichersystemen von Fujitsu. In Sachen Skalierbarkeit, Performance und Energieeffizienz setzt dieses Modell ganz neue Maßstäbe. Hinzu kommt die Storage-Virtualisierungs-Software FalconStor »NSS« (Network Storage Server), die den Administrationsaufwand drastisch reduziert. »Diese Lösung entspricht genau unseren Anforderungen«, sagt Rönnebeck. Einfache Migration mit Falconstor Der Vorteil der neuen Gesamtlösung zeigte sich schon beim Start des Projekts, wie Lennart Off von Concat bestätigt: »Die Migration von den alten zu den neuen Systemen wird durch eine Storage-Virtualisierungs-Lösung wie die von Falconstor stark vereinfacht. Das ist im laufenden Betrieb möglich und verläuft von daher viel sanfter als sonst bei einem HardwareWechsel üblich.« Concat ist übrigens der größte Falconstor-Partner in Deutschland und verfügt somit über viel Erfahrung auch mit großen Storage-Projekten. FalconStor NSS ist natürlich auch im laufenden Betrieb vorteilhaft, denn es leistet einen wertvollen Beitrag zur Hochverfügbarkeit der Storage-Umgebung. »Themen wie Daten-Replikation, Erstellen von Snapshots oder Daten-Spiegelung deckt Falconstor optimal ab«, erklärt Off. Ausgabe 1-2013 15 Advertorial Foto: Info In der neuen Storage-Infrastruktur des Service-Providers Info kommen drei »ETERNUS DX8700«-Speicher sowie Falconstors NSS zum Einsatz. Beim Dienstleister Info realisierte Concat ein Konzept aus fünf NSS-Clustern und einem Eternus-DX8700-Speicher pro Rechenzentrum. Falconstor NSS übernimmt hierbei die Spiegelung der Daten zwischen den Standorten inklusive Failover im Bedarfsfall. Damit ist ein Höchstmaß an Ausfallsicherheit gewährleistet bzw. wird das Risiko eines Datenverlustes extrem minimiert. Zentrales Monitoring statt Einzel-Administration Info-IT-Leiter Rönnebeck ist zusammen mit seinem 13-köpfigen Team unter anderem auch für die Speichersysteme zuständig. Die bisherigen neun Systeme sind jetzt durch drei neue Eternus DX8700 ersetzt worden. Zwei Systeme stehen in getrennten Brandabschnitten in einem Rechenzentrum in Hamburg, das dritte in dem anderen Rechenzentrum in 15 km Entfernung. Diese Konsolidierung auf weniger Hardware reduziert natürlich schon Eine Publikation von speicherguide.de den Administrationsaufwand. »Dank Falconstor wird dies aber noch mal deutlich einfacher, denn alle unsere Speichersysteme lassen sich nun zentral über eine Konsole verwalten«, erklärt Rönnebeck. »Über diese eine Oberfläche können wir zudem aus einem Storage-Pool SpeicherRessourcen an die Server verteilen. Diese Zuweisung wie auch das Verschieben von Storage-Kapazitäten geschieht ganz simpel per Mausklick.« Auch die Erweiterung der Speicher-Ressourcen ist in einer virtualisierten Storage-Umgebung viel unkomplizierter, »da wir ohne Betriebsunterbrechung ein neues System anschließen können«, betont Rönnebeck. Enorme Skalierbarkeit Auch in puncto Erweiterbarkeit bzw. Skalierbarkeit lassen die Fujitsu EternusDX8700-Systeme keine Wünsche offen. Ausgelegt für große Rechenzentren beläuft sich die maximale Speicherkapazität dieser Modelle auf 4.608 TByte. Die Fest- platten-Bestückung bei Info summiert sich auf etwa 300 TByte pro System. »Das Datenwachstum wird sich in den kommenden Jahren weiter fortsetzen«, sagt Rönnebeck. »Deshalb war uns dieses hohe Maß an Skalierbarkeit sehr wichtig.« Der Einsatz der sparsamen 2,5-Zoll-Festplatten führt zudem zu einer Energieeinsparung von 40 Prozent im Vergleich zu größeren Datenträgern. Dabei arbeiten alle Eternus-DX-Systeme ohnehin schon sehr energieeffizient. Überragende Sicherheit und Performance Auch die integrierten Sicherheitsmechanismen machen die Eternus DX8700 zu einem idealen »Datensafe«. Fujitsu hat hier mit »Redundant Copy« einen Sicherheitsstandard eingebaut, der RAID noch mal übertrifft. Hinter Redundant Copy verbirgt sich ein automatisierter vorbeugender Laufwerkaustausch. Grundlage hierfür bildet die ständige Überwachung von Fehler-Schwellwerten. Die Kontrolle innerhalb der Plattenspeicher nennt sich bei Eternus DX »Data Block Guard«. Dieses Feature fügt an jeden Datenblock Prüfcodes an und verifiziert sie an mehreren Prüfpunkten. Das System überwacht sich also selbst, was das Team zusätzlich entlastet. Neben dem Plus an Sicherheit profitieren die Kunden von Info zudem von einem Performance- Schub. »Wir sind sehr begeistert von der Geschwindigkeit der Fujitsu-Speichersysteme«, freut sich Rönnebeck. »Bisher hatten wir drei Storage-Performance-Klassen für unsere Kunden im Angebot. Mit der Implementierung der neuen EternusDX8700-Systeme konnten wir unser Leistungsspektrum um eine weitere, schnellere vierte Klasse erweitern. In puncto Skalierbarkeit, Performance und Preis-Leistungs-Verhältnis sind wir ebenfalls hochzufrieden. Zusammen mit der Virtualisierungs-Lösung Falconstor NSS verfügen wir jetzt über eine leicht zu administrierende und hochverfügbare Storage-Umgebung.« K Weitere Informationen Fujitsu Technology Solutions Hildesheimer Straße 25 30880 Laatzen/Hannover Tel.: +49 (0)511 - 84 89 10 40 http://de.ts.fujitsu.com/storage Ausgabe 1-2013 Advertorial Foto: Takko 16 Fallstudie: Effizientes Backup und Recovery bei Takko Speicherkonsolidierung in virtuellen Rechenzentren Storage-Konsolidierung sowie Server- und Datenspiegelung zwischen zwei Rechenzentren lauten die Anforderungen der Fashion-Kette Takko. Gleichzeitig sollte das Backup effizienter gestaltet und die RecoveryZeiten verkürzt werden. In der Entscheidungsphase fiel die Wahl auf eine skalierbare Lösung von EMC und Vmware. Adrian Schuster, freier Journalist Ob klassisch elegant, modisch ausgefallen oder sportlich und bequem – Takko Fashion bietet trendbewusste Mode für die ganze Familie zu einem herausragend günstigen Preis. Dabei legt der Value-Fashion-Retailer gleichermaßen Wert auf modische Aktualität, eine ansprechende Warenpräsentation in attraktiven Filialen und eine gute Qualität seiner Produkte. Jeder Artikel, der in einen der europaweit über 1.700 Takko Fashion-Stores gelangt, durchläuft zuvor ein vielstufiges Qualitätssicherungsmanagement. Überprüft werden dabei unter anderem Materialeigenschaften wie Verarbeitung, Eine Publikation von speicherguide.de Passform, Farbechtheit und das Dehnungsverhalten von Nähten sowie die Einhaltung von gesetzlich vorgeschriebenen Schadstoffgrenzwerten. Dieser Anspruch geht über die Grenzen des eigenen Unternehmens hinaus. So engagiert sich der Fashion-Filialist für soziale Nachhaltigkeit – zum Beispiel im Rahmen der Initiative »Social-fair« des Verbandes der Fertigwarenimporteure VFI sowie als Mitglied der internationalen Fair Wear Foundation. Wer mit einem umfassenden Nachhaltigkeitsanspruch hochwertige Qualitätsprodukte zu dauerhaft niedrigen Preisen anbieten will, der muss jede Chance wahrnehmen, um zusätzliche Kostenvorteile Die Datensicherungsfenster haben sich halbiert. Takko benötigen nun zwei Drittel weniger Tapes. durch eine optimale Prozessgestaltung zu erschließen. »Voraussetzung dafür ist eine hochflexible IT-Umgebung, mit der wir einerseits veränderte Geschäftsabläufe schnell und aufwandsarm abbilden können und die sich andererseits durch hohe Kosteneffizienz und Zuverlässigkeit im täglichen Betrieb auszeichnet«, sagt André Nordhoff, Bereichsleiter IT-Systeme von Takko Fashion am Stammsitz in Telgte bei Münster. Vmware war alternativlos Eben dieser Wunsch nach maximaler Flexibilität veranlasste Takko Fashion schon vor knapp fünf Jahren dazu, seine Serverlandschaft zu virtualisieren. »Wir können die IT dadurch besser mit Geschäftsprozessen synchronisieren«, erklärt Nordhoff. »Wir lasten Ressourcen um ein Vielfaches intensiver aus, sparen Hardware-Kosten und senken trotz steigender Leistung sowohl den Energieverbrauch als auch den Aufwand für die Administration. Das damalige Votum zugunsten von »VMware ESX« als Virtualisierungs-Plattform nennt Nordhoff schlicht alternativlos. Inzwischen laufen fast 90 Prozent aller Non-SAP-Anwendungen von Takko Fashion auf virtuellen Servern mit Vmware-Technologie – darunter auch geschäftskritische Applikationen wie Exchange, Citrix und das Filesystem. Ausgenommen sind lediglich große Data-Warehouse-AnAusgabe 1-2013 17 Advertorial wendungen. Denn hier ist die Nutzlast so groß, dass ein virtueller Server gegenüber seinem physischen Pendant keinen hinreichenden Nutzen versprach – eine der sehr seltenen Situationen, in denen dies der Fall ist. Das SAP-System lief seinerzeit noch bei einem externen Dienstleister, bevor sich Takko Fashion 2010 dafür entschied, es ins eigene Haus zurückzuholen. Notwendige Anpassungen der Infrastruktur lassen sich vor dem Hintergrund des anhaltenden Geschäftswachstums nur inhouse schnell und kostengünstig realisieren. Auch die SAP-Server wurden per Vmware ESX virtualisiert – und zwar zu hundert Prozent. Insgesamt laufen zurzeit rund 250 virtuelle Maschinen auf 17 ESX-Hosts. Die Takko-Fashion-IT nähert sich damit der Idealarchitektur einer abgesicherten privaten Cloud. Anders als bei hybriden oder öffentlichen Cloud-Modellen geben Unternehmen hierbei keinerlei Kontrolle über Daten und Prozesse nach außen ab. Sie behalten stattdessen alle Fäden selbst in der Hand. Skalierbar und ausfallsicher Mit dem In-Sourcing der geschäftskritischen SAP-Landschaft stellte sich naturgemäß auch die Frage der Verfügbarkeit neu. Da Systemausfälle bei betriebswirtEine Publikation von speicherguide.de schaftlichen Anwendungen unter keinen Umständen tolerierbar sind, baute Takko Fashion knapp einen halben Kilometer entfernt ein zweites Rechenzentrum. Dorthin werden virtuelle SAP-Server samt ihren Daten gespiegelt, sodass auch bei einem Totalausfall eines Standorts die Arbeitsfähigkeit der Anwender jederzeit gewährleistet ist. Als skalierbare StoragePlattform für das SAP-System sind in beiden Rechenzentren je ein NetzwerkSpeichersystem EMC »Unified Storage« installiert. Die EMC-Systeme wurden den Performance- und Skalierbarkeitsansprüchen bei Takko Fashion deutlich besser gerecht als alle seinerzeit evaluierten Konkurrenzsysteme, zum Beispiel von NetApp und IBM. Skalierbarkeit ist für Nordhoff ein enorm wichtiger Punkt denn in Telgte wächst das Datenvolumen rasant. 2008 lag es noch bei rund 15 TByte. Heute belaufen sich allein die SAP-Daten auf mehr als 50 TByte; bei Non-SAP-Anwendungen sind es 94 TByte. Für die Storage-Technologie von EMC sprach ein weiteres Argument – nämlich die Tatsache, dass mit EMC »RecoverPoint« auch gleich ein passendes Werkzeug für die Remote-Replikation der SAP-Daten zwischen den Rechenzentren zur Verfügung stand. Takko-Bereichsleiter Nordhoff betont das perfekte Zusammenspiel zwi- schen EMC Recoverpoint und dem Vmware »Site Recovery Manager«: »Wir können virtuelle Server und die zugehörigen Daten gemeinsam spiegeln, wobei ein spezielles Journal-File auf I/O-Ebene eine schnelle Datenwiederherstellung garantiert.« Recoverpoint sorgt mit ausgefeilten Kompressionsmethoden für einen äußerst sparsamen Bandbreitenverbrauch. Je nach Erfordernis lassen sich zudem per Richtlinie unterschiedliche ReplikationsModi ansteuern, was eine kostengünstige Balance zwischen Performance und Datensicherheit erlaubt. Auch Non-SAP-Daten werden bei Takko Fashion auf zwei EMC Unified-StorageSystemen gespeichert. Und wie im SAPFall verteilen sich die Systeme auf beide Rechenzentren. Allerdings erfolgt die Spiegelung hier nicht mit Recoverpoint, sondern mit EMC »VPLEX Metro«. Nordhoff erläutert: »Mit VPLEX verfügen wir über ein standortübergreifendes Speichernetzwerk, sodass trotz voller Redundanz die Non-SAP-Umgebungen beider Standorte produktiv nutzbar sind.« Eine sparsame Art und Weise um für maximalen Ausfallschutz zu sorgen. Als jüngster Zuwachs der EMC-Plattform bei Takko Fashion löst seit diesem Jahr die Backup-Lösung »Data Domain« eine Bandbibliothek in der täglichen Datensi- cherung ab. Data Domain nutzt eine hocheffektive De-Duplikationsmethode, mit der nur noch tatsächlich veränderte Datenblöcke gesichert werden müssen. »Die Datensicherungsfenster haben sich halbiert«, konstatiert Nordhoff. »Wir benötigen zwei Drittel weniger Tapes. Außerdem hat sich der Backup-Aufwand vermindert, da Magnetbänder nur noch bei Monatssicherungen zum Einsatz kommen.« Unterdessen denkt der Bereichsleiter bereits über das herannahende Ende eines Produktlebenszyklus nach: Die »CLARiiON«-Systeme sind bald abgeschrieben; eine Ersatzbeschaffung steht an. Nordhoff interessiert sich daher sehr für die FAST-Technologie der Unified-Storage-Plattform EMC »VNX«. Damit ließe sich in Telgte die Speicher-Performance je nach Bedarf automatisch dosieren. Mit anderen Worten: Höhere Performance zum kleineren Preis. K Weitere Informationen EMC Deutschland GmbH Am Kronberger Hang 2a, 65824 Schwalbach/Ts. Tel. 0800-10 16 944 http://germany.emc.com/backupand-recovery/data-domain/datadomain.htm Ausgabe 1-2013 18 Storage 2013 speicherguide.de: Ausblick 2013 Storage 2013: schneller, sicherer, mobiler Anspruchsvolle Anwendungen, weiteres Datenwachstum und hohe Mobilität der Nutzer stellt die Administratoren im Jahr 2013 vor große Herausforderungen. Eine der größten ist dabei, die Masse an Informationen sinnvoll zu nutzen. Analyse ist gefragt, am besten in Echtzeit. Ulrike Rieß Das IT-Jahr 2013 wird, wie in den Jahren zuvor, einige Trends stärker nach vorne bringen, andere werden als Hype-Stern verglühen. FCoE ist beispielsweise ein Thema, bei dem sich die Geister scheiden. Gescheitert für die Einen, Nischenplayer für Andere und eigentlich kurz vor dem großen Durchbruch für Dritte begleitet uns das Thema eher in der zweiten Reihe. Andere Bereiche halten sich hartnäckig auch seit Jahren: Cloud, Konvergenz und Big Data beispielweise. Und natürlich wird auch Flash im Jahre 2013 nicht fehlen. Darüber hinaus rückt die Analyse und dadurch die Mehrwertschöpfung aus digitalen Informationen in den Mittelpunkt Eine Publikation von speicherguide.de des IT-Interesses. Denn nur, wer seine Daten sinnvoll nutzen kann, kann sich einen Geschäftsvorteil erwirtschaften. Flash, Flash, Flash Wie schon 2012 wird auch das kommende Jahr ganz im Zeichen der Flash-Medien stehen. Dabei geht es aber nicht nur um den optimalen Einsatz: als Cache, als I/O-Beschleuniger in Form einer PCIe-Karte oder als Medium. Vielmehr geht es auch um die Optimierung der Lebensdauer und der Leistungsfähigkeit. So sollen schon bald MLC-Medien, die eine höhere Speicherdichte als SLCs besitzen, ebenso schnell und beständig wie besagte SLC-Medien sein. Anwender können bei reinen Flash-Speichermedien zudem mit wachsenden Speicherkapazitäten rechnen. K Foto: on ingst Nicht nur im kommerziellen Bereich finden Flash-Medien vermehrt ihren Platz. Darüber hinaus sind die Entwicklungsabteilungen bemüht, die Größe der NAND-Speicher zu schrumpfen, bei gleicher oder besser noch höherer Leistung. Das betrifft vor allem die Chip-Industrie, Ulrike Rieß, Redaktion speicherguide.de die dadurch aber auch einen Einfluss auf die Speicherbranche haben wird. Von den derzeit 20 Nanometern soll die Abmessung innerhalb der nächsten ein bis zwei Jahre auf 14 Nanometern schrumpfen. Das wird die Leistungsfähigkeit steigern und den Energieverbrauch senken. Allerdings sind diesem Trend physikalische Grenzen gesetzt, denn ab einer bestimmten Größe verliert das Medium ganze Atome und ist somit unbrauchbar. Sicherheitsstrategien überdenken Mit den steigenden Speicherkapazitäten herkömmlicher Festplatten steigt auch das Risiko des Datenverlustes an. 2013 soll die 4-TByte-Platte in großen Stückzahlen eingesetzt werden, was die üblichen SiAusgabe 1-2013 Storage 2013 Foto : HG ST/W este rn D igita l 19 satz. Brauchte der Administrator zum Beispiel zwölf 1-TByte-Laufwerke in einem System, kann er nun die gleiche Kapazität mit nur drei Platten erreichen. Da darf dann aber auch keine ausfallen. Somit muss das Prinzip der RAID-Absicherung überdacht werden. Denn selbst mit dual Parity und RAID 6 lässt sich das Sicherheitsrisiko bei einem Plattenversagen nicht mehr zur Gänze abfangen. Big Data: Mehr Info aus mehr Daten mittels Analysen Hochkapazitäre Festplatten zwingen zum Umdenken der RAID-Strategien. cherungsmechanismen wie RAID an die Grenzen der Belastbarkeit treibt. Im Prinzip kann für die Wiederherstellung eines TBytes – Pi mal Daumen – ein Tag eingerechnet werden. Macht bei einer HDD mit vier TByte ganze vier Tage. Das Risiko eines weiteren Plattenausfalls während eine im Rebuild-Modus ist, erhöht sich allein dadurch, dass die anderen Medien die ausgefallene auffangen müssen. Geht ein zweites Medium kaputt, wird es noch spannender. Nicht zuletzt kommen durch die hohen Kapazitäten wieder vermehrt Systeme mit weniger Einschüben (oder weniger genutzten Einschüben) zum EinEine Publikation von speicherguide.de Noch immer sprechen Wirtschaftsinstitute und Berater von Big Data. In der Realität sind dies eher enorme Zuwächse innerhalb der Datenbestände, meist bestehend aus kleineren und unstrukturierten Datensätzen. Und noch immer scheinen die Unternehmen das darin befindliche Wissen und Potential nicht ausnutzen zu können. Dabei ist das Problem nicht die Verarbeitung der Daten, sondern die Auswertung dessen, was sie enthalten, um dies wiederum nutzbringend für das Unternehmen einzusetzen. AnalyseTools bzw. -software rücken hier in den Fokus des Interesses. Nicht zuletzt werden dabei auch erst einmal Grundlagenanalysen notwendig, um herauszukristallisieren, welche Daten eine Firma sammelt und welche Informationen für eine Mehr- wertsteigerung wirklich sinnvoll sind. Das Jahr 2013 gebiert in diesem Umfeld sicher weiterhin viele neue Produkte und Start-ups. Rundum-Lösungen, die das IT-Leben vereinfachen sollen. Transformation heißt Konvergenz Noch sind In-Memory-Lösungen und HPC-Systeme eher Nischenplayer, sie gewinnen aber vor allem durch Big Data an Bedeutung. Analyse-Anwendungen in Echtzeit sowie die ebenso schnelle Datenverarbeitung treibt die IT-Anforderungen einzelner Branchen in die Höhe. In-Memory-Lösungen verhelfen im Datenbankumfeld zu schnellen Transaktionen und Auswertungen. HPC kommt generell in Umgebungen mit hoher Arbeitslast und Speicherkapazität zum Tragen. Dieser Bereich dürfte sich in Zukunft vergrößern, insbesondere bei Internet-getriebenen Unternehmen, denn deren Vernetzung und die dadurch massiv ansteigenden Datenbestände und Transaktionen lassen sich bald nicht mehr mit herkömmlichen Lösungen bewältigen. Cluster und ScaleOut sind sicher auch Lösungsansätze, können aber oft dem Echtzeitwunsch nicht entsprechen. Ein weiterer Trend zeichnet sich bereits seit einigen Jahren ab, scheint aber erst jetzt und somit auch im Jahr 2013 richtig pp ta Foto: Ne Vorkonfigurierte Appliance-Systeme sollen das IT-Leben erleichtern. zu greifen: konvergente Systeme, gern auch »converged« oder »unified« genannt. Diese vorkonfigurierte Blockverbindung aus Server, Storage und Netzwerk soll dem Anwender eine einfache und schnelle Lösung bieten, die sich ohne viel Aufwand ins Rechenzentrum einfügt und quasi sofort einsatzbereit ist. Fast jeder namhafte Hersteller hat ein solches Produkt in seinem Portfolio. Ein vermehrter Einsatz solcher Systeme heißt aber auch eine Veränderung im Rechenzentrum, weg vom Verbund einzelner Komponenten hin zum Einsatz technischer In-Memory und High Performance Computing Band stirbt nicht aus Das Medium Band mag im Backup-Bereich keine große Rolle mehr spielen, aus der IT ist es trotzdem nicht wegzudenken. Ausgabe 1-2013 Foto: IBM 20 Storage 2013 LTO-6 kommt 2013 in großen Stückzahlen auf den Markt, wie in der IBM-Library. Das beweist das kürzlich eingeführte LTO6-Format. Zwar kam es mit Verspätung auf den Markt, wird aber 2013 in großen Stückzahlen verkauft werden. Auf eine LTO-6-Cartridge passen 2,5 TByte unkomprimierte und 6,2 TByte an komprimierten Daten. Der Datendurchsatz liegt bei 160 MByte/s ohne und bei 400 MByte/s mit Komprimierung. Das gibt Archiven wieder mehr Spielraum in punkto Kapazität und Performance. Weitere Generationen sind nach wie vor geplant und in Entwicklung. ter Auftrieb. Für die Verteilung und das Teilen von Informationen über unterschiedliche Standorte hinweg, sind solche Lösungen nach wie vor hoch im Kurs, seien sie nun private, öffentliche oder hybride Clouds. Die steigende Mobilität der Nutzer wirft zudem neue Sicherheitsfragen insbesondere für Unternehmen auf. »Bring your own device« mag ja eine effiziente Strategie sein, sie birgt aber auch das Risiko von Datenmanipulation, -missbrauch oder das Einschleppen von Viren oder Malware. Firmen werden hier künftig verstärkt in policy-basierte Software zur Authentifizierung und ähnlichem investieren müssen. Auch die Computerforensik wird in diesem Zusammenhang sicher stärker gefragt sein. Mobile Geräte sind Segen und Fluch für IT-Verantwortliche zugleich. Mehr IT-Kompetenz als Schlüssel zum Erfolg Auch das kommende Jahr zeigt, dass ITVerantwortliche keine im Keller hausenden Computer-Nerds sind und dass CEO, CTO und andere große »C«s nicht mehr unbeleckt sind, wenn es um RZ-Anschaffungen geht. Das ist strategisch für ein Unternehmen auch nicht förderlich. Inseldenken führt zu Insellösungen und erschwert die EDV. Will eine Firma ganzheitlich umfassende Installationen, so muss das IT-Problem auch ganzheitlich betrachtet werden und das kann der Administrator nicht allein. Hier wird ein Umdenken stattfinden, welches bei der Anschaffung neuer IT alle Abteilungen mit einbezieht. Welche Anwendung erzeugt welche Daten in welcher Geschwindigkeit und was soll mit diesen Informationen geschehen? Es reicht nicht mehr aus, nur irgendwo punktuell Speicher hinzuzufügen, mehr CPU in einen Server zu verbauen Mobil und in der Cloud Der Begriff »Cloud« mag zwar nicht mehr allzu häufig verwendet werden, die Wolke an sich ist aber allgegenwärtig. Und daran wird sich auch nichts ändern. Allein die zahlreichen mobilen Geräten, mit denen Daten abgerufen, vor allem aber erzeugt werden, geben diesem Trend weiEine Publikation von speicherguide.de ple : Ap o Fot oder schnellere Switche einzusetzen. Die IT-Kompetenz sollte und darf nicht nur bei einem oder wenigen liegen. Das ist nicht nur im Falle eines technischen Problems hinderlich, es verlangsamt auch Ent scheidungsprozesse und somit das Geschäftsleben. Alles auf Anwendung In Zukunft wird natürlich auch die Anwendung mehr in den Mittelpunkt rücken. Vorbei sind die Zeiten, in denen der ITVerantwortliche nur auf technische Engpässe schaute und entsprechend mittels Bausteinprinzip aufstockte: ein RAID-NASSystem hier, eine Flash-Karte dort, mehr Rechenleistung hier. Performance, Kapazität und Datendurchsatz spielen nach wie vor eine große Rolle, wichtiger aber ist die zugrunde liegende Anwendung, die diese Anforderungen erzeugt. Bereits jetzt gibt es Produkte, die »application-aware« oder »application-agnostic« und nicht nur auf die bestehende Hardware schauen, sondern sich nach der Anwendung richten. Dieser Trend wird sich fortsetzen, denn letztlich soll die IT keinen Selbstzweck erfüllen, sondern den Problemstellungen gerecht werden; dies muss nicht zuletzt die Anwendung umspannen. Und erneut wartet ein interessantes und buntes Speicherjahr auf uns. K Ausgabe 1-2013 21 Storage 2013 Schlagwörter für 2013 und Rückblick auf unsere Prognosen für 2012 Die Topp-10-Trends für 2013 Die Prognose lautete: »Durch die schwächelnde Börse und die anhaltende Schuldendiskussion in Europa könnte sich 2012 die Weltwirtschaft eintrüben.« Passiert ist – bislang – allerdings noch nichts. Big Data bereitet indes wie erwartet nun den Administratoren Kopfzerbrechen. Hier unsere diesjährige Auswahl an Storage-Trends fürs nächste Jahr. Im neuen Windows 8 und in Windows Server 2012 hat Microsoft die Storage Spaces integriert. Damit lässt sich derselbe Schutz für Daten erzeugen wie mit altbekannten Arrays und ihren RAID-1-, RAID-5- oder RAID-6-Gruppen, eben nur ohne die separate Anschaffung eines solchen Systems. Als Dreingabe hat Microsoft seiner Implementierung sogar Thin-Provisioning mitgegeben, so dass der Anwender den vorhandenen Plattenplatz noch besser ausnutzen kann. »Die Einrichtung und Verwaltung der Storage Spaces ist befriedigend einfach und bei weitem nicht so komplex wie diejenige mancher Arrays«, urteilte bereits speicherguide.deHausanalyst Doc. tec. Storage. Spricht sich das Feature unter Administratoren Eine Publikation von speicherguide.de sierte Netzwerkkomponenten und das OpenFlow-Protokoll. Software Defined Networking (SDN) Derzeit wird die Bandgeneration LTO-6 eingeführt, der Nachfolger des ShootingStars LTO-5. 6,25 TByte (komprimierte) Speicherkapazität auf einer Tape-Cartridge nebst 400 MByte/s Datenübertragungsrate sind für eine Bandtechnologie richtig gute Werte. Das muss eine Back- Hier geht es um »Programmierbare Netzwerke« auf Basis eines Hypervisors. Sie gewinnen anscheinend extrem schnell an Boden. Der Begriff Software Defined Networking (SDN) poppte innerhalb eines Jahres extrem oft auf. Größte Firmen wie EMC, VMware, Brocade, HP, Deutsche Telekom, Google, Microsoft und Facebook nahmen sich der Thematik an. 2013 dürfte SDN also forciert in Unternehmensnetzen Einzug halten. Der Grund ist, dass sich SDN flexibler implementieren und konfigurieren lassen. Zudem versprechen sich die Anwender Kosteneinsparungen. Die Grundlage von SDN bilden virtuali- LTO-6: das muss Kesseln Bild: Spectra Logic Storage Spaces – Microsoft greift an rum, könnten Anbieter ähnlicher Technolo-gien wie Drobo in Zukunft einige Nutzer verlieren. Engelbert Hörmannsdorfer, News-Reporter, speicherguide.de up- bzw. Archiv-Appliance erst mal verarbeiten. Und die Pläne sehen für LTO-7 bzw. LTO8 – die jeweils im Abstand von zweieinhalb bis drei Jahren kommen dürften – deutliche Sprünge bei den Kapazitäten vor. Das sollte eigentlich für richtig fette Big-Data-Anwendungen reichen. LTO-5 setzte sich vor allem wegen dem LTFS-Feature (Linear Tape File System) stark durch (siehe nachfolgenden Punkt). LTO-Roadmap: Die LTO-6Generation startet jetzt Ausgabe 1-2013 22 Storage 2013 LTSF – der Turbo für LTO-6? Das Feature LTFS (Linear Tape File System) wurde erstmals mit der LTO-5-Bandlaufwerkegeneration 2010 eingeführt. Zunächst unbeachtet, gewann es 2012 doch deutlich mehr Fahrt. LTFS stellt das Tape als Filesystem dar. Dieses Filesystem ist inzwischen fester Bestandteil des LTO-ISOStandards geworden. Wird das Tape geladen, verhält es sich wie ein USB-Stick oder eine externe Festplatte mit eigener Directory, ohne dass Backup-Applikationen erforderlich sind, um das Tape zu bearbeiten. Damit könnten ganz neue Wege in der Archivierungsstrategie gegangen werden. Vor allem die Multimedia- & Entertainment-Industrie (Filmstudios, PostProduction-Unternehmen) hat sich LTFS bereits bemächtigt. Aber es müssen noch mehr Branchen darauf setzen und es muss Lösungen für KMUs geben, dann könnte es ein zusätzlicher Turbo für LTO-6 werden. rer Vmware (vSphere) gut machen. Vor allem Microsoft hat 2012 Marktanteile gewonnen und die Leistung von Hyper-V deutlich verbessert. Windows 2012 Server zieht derzeit in die Data-Center ein. Dies dürfte sich 2013 fortsetzen und dazu führen, dass Hyper-V verstärkt auch in großen Rechenzentren und bei Cloud-Service-Providern zum Zuge kommt. Virtuelle Appliances kommen Anwender rebellieren gegen die Austausch-Zyklen von IT-Hardware: CIOs wollen nicht länger hinnehmen, dass Hersteller von IT-Hardware Systeme nach wenigen Jahren abkündigen, meist nach fünf Jahren die Support-Gebühren dras- tisch erhöhen – und damit die Anschaffung neuer Komponenten erzwingen. Unternehmen könnten deshalb in den kommenden Jahren verstärkt auf Produkte setzen, die in virtualisierter Form (Virtual Machine, Virtual Appliance) vorliegen und im Rahmen eines flexiblen Mietmodells geordert werden können. Beispielsweise von Acronis, Arkeia und Quantum gibt es bereits virtuelle Backup-Appliances, Datacore Software hat eine virtuelle SAN-Appliance, Reddoxx führt eine virtuelle Appliance fürs E-Mail-Management im Programm, und Silver Peak Systems bietet seine WAN-Optimierungslösungen in Form von Virtual Machines an, die sich auf allen gängigen Virtualisierungsplattformen implementieren lassen. Logisch, dass auch Vmware eine virtuelle StorageAppliance offeriert. Der Kampf der Hypervisors Eine Publikation von speicherguide.de Das Thema Virtualisierung ist vom Hype zur Wirklichkeit geworden. Immer mehr Unternehmen profitieren von den Vorteilen virtueller Umgebungen. Allerdings nicht in jedem Unternehmen wird Virtualisierung konsequent zu Ende gedacht, vor allem nicht im Bereich der Datensicherung. Doch der Trend setzt nun massiv ein. Veeam war das erste Unternehmen mit einem Backup & Recovery-Paket speziell für Vmware-Umgebungen. Acronis war später dran, brachte aber dann dafür innerhalb von eineinhalb Jahren bereits die dritte Version ihres »vmProtect«. Auch Quest Software mischt munter mit ihrem »vRanger« mit, was wohl mit ein Grund für die Übernahme durch Dell war. Es wird in 2013 spannend zu sehen, wie sich diese Firmen gegeneinander positionieren. Erfreulich ist jedenfalls: Backup in virtuellen Umgebungen wird für Systemverwalter zunehmend einfacher. FCoE – kommt die Trendwende? Bild: Acronis Der Wettstreit verschärft sich: Wer hat den Hypervisor mit der besten Performance? Diese Frage wird 2013 nicht nur die Anwender beschäftigen, sondern – natürlich – auch die Hersteller. Citrix (Xen), KVM und Microsoft (Hyper-V) werden in puncto Performance Boden auf den Marktfüh- Backup in virtuellen Umgebungen Eine neue Disziplin: Backup, hier mit »vmProtect 8«, in Vmware-Umgebungen Wer Storage-Messen a la »SNW Europe« in den Jahren 2008 bis 2010 besuchte, kam zu der festen Überzeugung: FCoE (Fibre Channel over Ethernet) wird ein Trend. Wo man hinblickte, ließen sich FCoE-Ankündigungen und -Produkte finAusgabe 1-2013 23 Storage 2013 den. Doch in diesem Jahr? Pustekuchen. Emulex, QLogic und Brocade – eigentlich die FCoE-Protagonisten – hängten auf der diesjährigen »SNW Europe 2012« das Thema gaaaanz tief. Der einzige, der wenigsten etwas die FCoE-Fahne hochhielt, war – Intel. Dort setzt man ganz locker darauf, dass es sich durchsetzt, vor allem wegen Windows Server 2012. Laut dem Gartner-Hype-Zyklus wäre FCoE jetzt im »Tal der Enttäuschung«. Hier lohnt in jedem Fall der Blick, ob 2013 der »Pfad der Erleuchtung« kommt. Enterprise App Stores Mit einem Enterprise App Store ist für Unternehmen die umständliche Zeit vorbei, in der Apps mit der Verschenkoption eines übergeordneten App-Stores – zum Beispiel den iTunes Store von Apple – an Anwender verteilt werden mussten. Sogar Apple hat eine entsprechende Lösung für Unternehmenskunden gelauncht: »Volume Purchase Program« (VPP) nennt sich diese Variante. Mit dem VPP-Programm wird es Unternehmen nun deutlich erleichtert, kostenpflichtige Apps aus Apples App-Store an die Anwender zu verteilen; vernünftigerweise sollte dies kombiniert mit einem »Mobile Device Management«-System erfolgen (siehe nachfolgenden Punkt). Der Vorteil für Unternehmen ist: Kontrollund Sicherheitsmechanismen verhindern dabei ungewolltes Nutzungsverhalten, missbräuchliche Benutzung durch unternehmensfremde Personen oder unzulässiges Speichern von sensitiven Unternehmensdaten in der Cloud. Unsere Prognose Ende 2011 – Reality Check Thunderbolt »konkurriert mit USB 3.0« »Herstelleranzahl überschaubar« ll Thunderbolt kommt langsam, aber sicher ll Es gibt erste Motherboards mit Thunderbolt Cloud-Storage und »Patriot Act« »US-Behörden dürfen auf Cloud-Daten zugreifen« »gefundenes Fressen für europäische Unternehmen« ll Weiterhin anhaltende heftige Diskussionen ll Etliche Cloud-Server zogen nach Deutschland um 12 Gbit/s SAS »echte Power für die SSD« »wird sehnsüchtig erwartet« ll 12 Gbit/s SAS immer noch in den Startlöchern ll PCIe-Flash-Karten stattdessen im Höhenflug Big Data »Bald erste Datenbanken in EByte-Größe« »jeder Storage-Hersteller hat Lösung« ll Big-Data-Welle rollt weiterhin ll Viele unterschiedliche Lösungen auf dem Markt Thailand-Hochwasser und der Festplattenmarkt »IDC: Pre-Flut-Level wird Mitte 2012 erreicht« »Seagate: es wird bis mindestens Ende 2012 dauern« ll Die Produktion kam schneller wieder ins Laufen als gedacht ll Preise bleiben aber auf erhöhtem Level ll Rekordgewinne bei Western Digital und Seagate Kapriolen dank Big Data »Big Data sorgt auch für neue Compliance-Anforderungen«» »Storage-Administratoren dürften Spaß haben« ll Compliance hat sich dem Big-Data-Thema noch nicht besonders angenommen In-Memory Computing »In-Memory-Datenbanken deutlich schneller« »SAP sprang mit SAP HANA sehr früh darauf« ll In-Memory-Computing setzt sich weiter durch ll Viele Ankündigungen rund um SAP HANA Tablet-PCs »Apple trat Lawine los« »Anbieter von Memory-Speicherkarten freuen sich« ll Tablet-PCs sind weiterhin stark steigendes Marktsegment ll Speicherkartenhersteller profitieren nur unterdurchschnittlich Linus-Filesystem Lustre »Lustre oft in Forschungseinrichtungen eingesetzt« »Netapp engagiert sich stark« ll Sehr wenig Ankündigungen bei Lustre in 2012 ll Vermutlich weiter Nischendasein Green-Storage »Zwangsläufige Folgeerscheinung von Big Data?« »Big Data macht Energieeinsparungen wieder zunichte« ll Energieverbrauch wird öfters nachgefragt ll Aber kein bedeutender Trend erkennbar Mobile Device Management (MDM) Im Prinzip zählte MDM bereits im Jahr 2012 zu den viel diskutierten Themen. Aber es zeigt sich immer mehr: an MDM kommt niemand vorbei – zumal es auch BYOD (Bring Your Oqn Device) ermöglicht. Davon sind vor allem Unternehmen mit einem intensiven Außendienst betroffen; Versicherungen beispielsweise befinden Eine Publikation von speicherguide.de sich sogar in einem Strukturwandel. Hier mobile Endgeräte zu nutzen ist fast nicht mehr wegzudenken. Aber auf den mobilen Winzlingen a la Smartphones und Tablets befinden sich dank ihrer Speichermöglichkeiten auch sensitive Firmen- daten. Die gilt es zu schützen, zu sichern, ins heimische Rechenzentrum zu überspielen, Zugriffsberechtigungen einzurichten etc. Hier dürften sich schnell MDM-Lösungen aus der Cloud etablieren. K Ausgabe 1-2013 24 Impressum Das speicherguide.de -Team wünscht allen Lesern, Kunden und Partnern ein gesundes und erfolgreiches Jahr 2013 Die nächste PDF-Ausgabe von storage-magazin.de erscheint am 28. Februar 2013 storage-magazin.de eine Publikation von speicherguide.de GbR Karl Fröhlich, Ulrike Haak, Engelbert Hörmannsdorfer Auf der Grün 8, D-83714 Miesbach Tel. 080 25-51 79, Fax: 080 25-51 71 E-Mail: [email protected] Chefredaktion, Konzept: Karl Fröhlich (verantwortlich für den redaktionellen Inhalt) Tel. 089-740 03 99, Fax: 089-740 03 98 E-Mail: [email protected] Redaktion: Karl Fröhlich, Engelbert Hörmannsdorfer, Ulrike Rieß Schlussredaktion: Karl Fröhlich, Brigitte Scholz Layout/Grafik: Uwe Klenner, Layout und Gestaltung, Rittsteiger Str. 104, 94036 Passau, Tel. 08 51-9 86 24 15 www.layout-und-gestaltung.de Titelbild: © iStockphoto.com / Felix Möckel Mediaberatung: Claudia Hesse, Tel. +41 (0) 41 - 780 04 86 E-Mail: [email protected] Webkonzeption und Technik: Günther Schmidlehner E-Mail: [email protected] Urheberrecht: Alle in »storage-magazin.de« erschienenen Beiträge sind urheberrechtlich geschützt. Alle Rechte (Übersetzung, Zweitverwertung) vorbehalten. Reproduktion, gleich welcher Art, sowie e lektronische Auswertungen nur mit schriftlicher Genehmigung der Redaktion. Aus der Veröffentlichung kann nicht geschlossen werden, dass die verwendeten Bezeichnungen frei von gewerblichen Schutzrechten sind. Haftung: Für den Fall, dass in »storage-magazin.de« unzutreffende Informationen oder Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlässigkeit der Redaktion oder ihrer Mitarbeiter in Betracht. Unser Team Karl Fröhlich, Chefredakteur speicherguide.de Engelbert Hörmannsdorfer, News-Editor speicherguide.de Rainer Huttenloher, Redaktion virtualisierungs-guide.de Ulrike Rieß, Redaktion speicherguide.de Claudia Hesse, Mediaberatung speicherguide.de Wir empfehlen zur vollständigen Funktionalität des eBooks »Acrobat Reader«, ab Version 9 Eine Publikation von speicherguide.de Ausgabe 1-2013