Bereitstellung von Microsoft Private Cloud auf Hitachi Unified Storage
Transcription
Bereitstellung von Microsoft Private Cloud auf Hitachi Unified Storage
Bereitstellung von Hitachi Unified Compute Platform Select für Microsoft® Private Cloud auf Hitachi Unified Storage Leitfaden zur Referenzarchitektur Von Rick Andersen 07. November 2012 Feedback Hitachi Data Systems freut sich über Ihr Feedback. Anregungen nehmen wir gerne per E-Mail an [email protected] entgegen. Nennen Sie für die bessere Übermittlung dieser Nachricht die Dokumentnummer im Betreff und den Titel dieses Whitepaper im Text. Inhalt Lösungsübersicht ............................................................................................................4 Schlüsselkomponenten der Lösung.............................................................................. 7 Hardware-Komponenten....................................................................................... 7 Software-Komponenten ........................................................................................9 Lösungsdesign ..............................................................................................................12 Übergeordnete Architektur ..................................................................................12 Hitachi Compute Blade 2000-Chassiskonfiguration ...........................................15 Hitachi Compute Blade 2000-Serverarchitektur .................................................15 Speicherarchitektur .............................................................................................16 SAN-Architektur ..................................................................................................22 Netzwerkarchitektur ............................................................................................24 Management-Architektur ....................................................................................28 Technische Validierung ................................................................................................ 35 1 1 Bereitstellung von Hitachi Unified Compute Platform Select für Microsoft® Private Cloud auf Hitachi Unified Storage Leitfaden zur Referenzarchitektur Mit der Hitachi- und Unified Compute Platform Select für Microsoft Hyper-V Private Cloud Fast Track-Lösung wird eine Referenzarchitektur für die Erstellung von Private Clouds gemäß den speziellen Anforderungen Ihres Unternehmens bereitgestellt. Diese Private Cloud Fast Track-Lösung ermöglicht Unternehmen die einfache und sichere Bereitstellung von Private Clouds. Zu den Vorteilen dieser Lösung gehören eine schnellere Bereitstellung, ein höheres Maß an Vorhersehbarkeit sowie ein geringeres Risiko und niedrigere Betriebskosten, wie nachfolgend dargelegt: Schnellere Bereitstellung Beschleunigen Sie die Bereitstellung einer ersten Cloud durch die Installation einer vorvalidierten Referenzarchitektur. Passen Sie die Infrastruktur durch die skalierbare Architektur den Anforderungen der gegenwärtigen Marktsituation an. Vereinfachen Sie die Bereitstellung von Infrastruktur und virtuellen Maschinen durch integriertes Management. Verkürzen Sie die Bereitstellung und Provisionierung von Ressourcen durch die Nutzung eines Self-Service-Portals. Geringeres Risiko Stellen Sie eine Lösung bereit, deren Computing-, Speicher- und Netzwerkkomponenten auf End-to-End-Interoperabilität getestet sind. Stellen Sie eine vordefinierte und sofort einsatzbereite Lösung auf der Grundlage einer gemeinsamen, bereits getesteten und validierten Cloud-Architektur bereit. Stellen Sie auf schnelle Weise virtuelle Maschinen dank dafür geeigneter Infrastrukturressourcen bereit. Ermöglichen Sie die Anpassung an Ausfälle durch eine Automatisierung, die Ereignisse erkennt und entsprechend darauf reagiert. 2 2 Steigern Sie die Dichte an virtuellen Maschinen bei gleichbleibender Performance durch die Erkennung und Behebung von möglichen Engpässen mithilfe der Systemüberwachung. Vorhersehbarkeit Stellen Sie durch die zugrunde liegende Infrastruktur eine konsistente Performance der gehosteten Workloads sicher. Standardisieren Sie die zugrunde liegenden Server, Netzwerkgeräte und Speichersysteme. Senken Sie die Betriebskosten. Nutzen Sie eine kostenoptimierte Plattform und softwareunabhängige Lösung für die Integration von Rack-Systemen. Profitieren Sie von der hohen Performance und Skalierbarkeit der Hitachi Unified Storage-Lösungen in Verbindung mit Microsoft Windows 2008 R2 und Microsoft Hyper-V. Hitachi Compute Blade 2000 bietet in Verbindung mit Hitachi Unified Storage eine hochgradig verfügbare und skalierbare Plattform, auf der eine Private-CloudInfrastruktur erstellt werden kann. Eines der Hauptziele der Private-Cloud-Lösung besteht in der schnellen Provisionierung und Deprovisionierung von virtuellen Maschinen. Geschieht dies in großem Umfang, sind enge Integration in die Speicherarchitektur und stabile Automatisierung unerlässlich. Die Provisionierung einer neuen virtuellen Maschine auf einer bereits vorhandenen LUN ist ein einfacher Vorgang. Allerdings sind die Provisionierung einer neuen LUN zur Unterstützung zusätzlicher virtueller Maschinen und das Hinzufügen zu einem Host-Cluster komplizierte Aufgaben, die erheblich von einer Automatisierung profitieren. Der Speicherarchitektur kommt beim Design von Hyper-V-Cloud-Lösungen besondere Bedeutung zu. Dieses Thema stellt aufgrund der schnellen Entwicklungen in den Bereichen Standards, Protokolle und Implementierungen eine erhebliche Herausforderung dar. Der Speicher und das unterstützende Speichernetzwerk sind ein wichtiger Faktor für die Gesamt-Performance der Umgebung und die dadurch entstehenden Gesamtkosten. Hitachi Unified Storage ist dank der Skalierbarkeit im Falle zusätzlicher in der Cloud gehosteter Workloads und der hohen Verfügbarkeit dieser Workloads bestens geeignet für Private Clouds. 3 3 Eine Private Cloud ist viel mehr als nur eine Infrastruktur mit hoher Verfügbarkeit, die EDV-Ressourcen für übergeordnete Anwendungen bereitstellt. Cloud Computing sorgt dafür, dass sich die IT immer weiter von einem Serverbetreiber hin zu einem Serviceanbieter bewegt. Durch diese Veränderung wird eine Reihe von Services erforderlich, die mit der Infrastruktur einhergehen, wie etwa Reporting, Nutzungsüberwachung und Self-Service-Provisionierung. Sind diese Services nicht verfügbar, ist die Serviceschicht der Cloud nicht verfügbar, und die IT ist kaum mehr als nur ein herkömmliches Rechenzentrum. Deshalb ist eine hohe Verfügbarkeit für die Management-Systeme unerlässlich. Dieser Leitfaden zur Referenzarchitektur richtet sich an IT-Administratoren, die an der Planung und dem Design von Rechenzentren beteiligt sind, insbesondere im Hinblick auf die Planung und das Design einer Private-Cloud-Infrastruktur mit Hyper-V. Vorausgesetzt wird ein gewisser Grad an Vertrautheit mit Hitachi Unified Storage, Hitachi Storage Navigator Modular 2-Software, Microsoft Windows Server 2008 R2 und Failover-Clustering in Hyper-V. 4 4 Lösungsübersicht Die in diesem Dokument beschriebene Referenzarchitektur basiert auf Hardwareund Software-Virtualisierungsplattformen von Hitachi und Microsoft. Hitachi Compute Blade 2000 wurde mit zwei unterschiedlichen Hyper-V-FailoverClustern, einem Mandanten-Cluster mit sechs Knoten, auf dem die virtuellen Maschinen für die Produktion oder die Mandanten gehostet werden, und einem Management-Cluster mit zwei Knoten konfiguriert. Der Management-Cluster verfügt über die zur Bereitstellung von virtuellen Maschinen für den MandantenCluster erforderliche Software von Hitachi und Microsoft sowie über die Produkte und Tools für das Management der Komponenten der Private-Cloud-Infrastruktur in Hyper-V. Mit den für diese Referenzarchitektur verwendeten Serverblades können pro Blade durchschnittlich 32 virtuelle Maschinen gehostet werden. Dies entspricht insgesamt 192 virtuellen Maschinen, die vom Mandanten-Cluster mit sechs Knoten gehostet werden. Die Referenzarchitektur bietet folgende Funktionen: Hohe Verfügbarkeit der virtuellen Maschinen – Durch das Hyper-VFailover-Clustering von Hitachi Compute Blade 2000 sind die im FailoverCluster bereitgestellten virtuellen Maschinen hochgradig verfügbar. Falls ein Blade im Cluster ausfällt, erfolgt ein automatischer Failover der auf dem Blade ausgeführten virtuellen Maschine auf einen anderen Blade im Cluster. Live-Migration der virtuellen Maschinen – Zum Lastausgleich oder vor der Durchführung von Wartungsarbeiten am Server kann eine virtuelle Maschine durch den Administrator im laufenden Betrieb zu einem anderen Blade im Cluster migriert werden. Vorlagenbasierte Provisionierung von virtuellen Maschinen – Vorlagen ermöglichen Administratoren die schnelle Bereitstellung von virtuellen Maschinen. Self-Service-Provisionierung von virtuellen Maschinen – Administratoren können anderen Benutzern oder der Unternehmensleitung Berechtigungen erteilen. Dadurch können diese Personen mithilfe einer Webschnittstelle und vorher erstellter Vorlagen virtuelle Maschinen erstellen. Integration in System Center Operations Manager – Hitachi bietet Überwachungspakete für Hitachi Compute Blade 2000 und Hitachi Unified Storage. Diese Pakete ermöglichen die Benachrichtigung des Administrators im Falle von Warnmeldungen. Der Umfang dieser Referenzarchitektur richtete sich nach folgenden Gesichtspunkten: 5 5 Tolerieren des Ausfalls eines einzelnen Hyper-V-Hosts im MandantenKnoten-Cluster und weiteres Ausführen der virtuellen Maschinen des ausgefallenen Knotens durch einen Neustart auf anderen Knoten im Failover-Cluster. Reservieren der geeigneten Speichermenge für die Hyper-VManagement-Partition. Bereitstellung ausreichender Speicherkapazität und SpeicherPerformance auf Hitachi Unified Storage zur Unterstützung der virtuellen Maschinen. Abbildung 1 zeigt eine Designübersicht der in diesem Whitepaper dokumentierten Referenzarchitektur. Infrastruktur des Kunden 1-Gbit-/10-GbitNetzwerk Active Directory DNS Hardware-Management 1-Gbit-Link 1-Gbit-/10-Gbit-Netzwerk UCP Select für die Managementund Mandanten-Cluster der Microsoft Private Cloud Hitachi Compute Blade 2000 1-GbitNetzwerk Management Station Hitachi Unified Storage 1 Gb Network FC/iSCSI Mandanten-Cluster Management-Cluster Productions-VMs Storage Navigator Modular 2 System Center Management-Tools Abbildung 1 10 Gbit 1 Gbit 6 6 Zur Unterstützung dieser Referenzarchitektur müssen verschiedene Komponenten bereits vorhanden sein oder bereitgestellt werden. Active Directory und Domain Name Services sind für die Unterstützung der Hyper-V-FailoverCluster und Management-Produkte wie System Center, Virtual Machine Manager 2012 und System Center Operations Manager 2012 erforderlich. Darüber hinaus muss ein Netzwerk zur Unterstützung des Out-of-Band-Hardware-Managements von Hitachi Compute Blade 2000 und Hitachi Unified Storage vorhanden sein. 7 7 Schlüsselkomponenten der Lösung Dies sind Beschreibungen der zur Bereitstellung dieser Lösung verwendeten Hardware- und Software-Schlüsselkomponenten. Hardware-Komponenten In Tabelle 1 sind die genauen Daten der zur Validierung im Labor von Hitachi Data Systems verwendeten Hardware-Komponenten aufgeführt. Tabelle 1. Hardware-Komponenten Hardware Beschreibung Version Menge Hitachi Unified Storage 150 Doppel-Controller 0915/B-H 1 8 Fibre-Channel-Ports mit 8 Gbit/s 4 iSCSI-Ports mit 1 Gbit/s 16 GB Cache-Speicher 274 SAS-SFF-2,5"-Laufwerke mit 600 GB und 10.000 U/min 26 SAS-Festplatten mit 2 TB und 7.200 U/min Chassis für 8 Blades A0154-E-5234 1 2 Fibre-Channel-Switches mit 8 Gbit/s 4 Netzwerk-Switches mit 1/10 Gbit/s 8 externe Netzwerk-Ports mit 10 Gbit/s 2 Management-Module 8 Lüftermodule 4 Netzteilmodule 58.22 8 2 × Quad-Core Intel Xeon X5640 mit 2,66 GHz 128 GB Arbeitsspeicher pro Blade Hitachi Compute Blade 2000Chassis Hitachi Compute Blade 2000 E55A2-Blades Vollständiger Blade 8 8 Hitachi Unified Storage Hitachi Unified Storage ist eine Midrange-Speicherplattform für alle Daten. Sie unterstützt Unternehmen bei der Erfüllung von Service-Level-Agreements in den Bereichen Verfügbarkeit, Performance und Datensicherheit. Die von Hitachi Unified Storage bereitgestellte Performance ist zuverlässig, skalierbar und für Block- und File-Daten verfügbar. Unified Storage verfügt über einfaches Management, ist für kritische Unternehmensanwendungen optimiert und arbeitet effizient. Unified Storage ist mit geringeren Anschaffungskosten verbunden. Der Speicher wächst mit den Anforderungen und Service-Level-Agreements und ist für die Bereitstellung von kritischen Unternehmensanwendungen gedacht. Integriertes Setup und Management vereinfachen den Betrieb und beschleunigen die Wertschöpfung. Unified Storage ermöglicht erhebliche Kosteneinsparungen durch die Konsolidierung von File- und Block-Daten. Erstellen Sie je nach Bedarf eine Cloud zur Bereitstellung Ihrer Services. Hitachi Unified Storage 150 bietet flexiblen, skalierbaren und kosteneffektiven modularen Speicher. Die symmetrischen Active/Active-Controller bieten einen integrierten, automatischen und hardwarebasierten E/A-Lastausgleich. Beide Controller in Unified Storage 150 weisen die Zugriffspfade von Controller zu logischer Einheit (LU) automatisch und dynamisch zu. Es besteht Zugriff auf alle LUs, ganz gleich, um welchen physischen Port es sich handelt oder welcher Server Zugriff anfordert. Hitachi Compute Blade 2000 Hitachi Compute Blade 2000 ist eine Bladeserver-Plattform der EnterpriseKlasse. Sie verfügt über folgende Funktionen: Eine ausgewogene Systemarchitektur, die keine Engpässe bei Performance und Durchsatz zulässt Flexibilität bei der Konfiguration Umweltfreundliche Energiesparfunktionen Schnelle Wiederherstellung bei Serverausfällen mithilfe einer N+1 Cold Standby-Ausführung zum Austausch von ausgefallen Servern innerhalb weniger Minuten Hitachi Compute Blade 2000 ist ideal für eine Private-Cloud-Lösung geeignet. Das Chassis enthält interne Fibre-Channel- und Netzwerk-Switches zur Einhaltung der Anforderungen an hohe Verfügbarkeit im Rahmen des Microsoft Private Cloud-Programms. 9 9 Software-Komponenten In Tabelle 2 ist die in dieser Referenzarchitektur verwendete Software aufgeführt. Tabelle 2. Software-Komponenten Software Version Hitachi Storage Navigator Modular 2 Abhängig vom Microcode Hitachi Dynamic Provisioning Abhängig vom Microcode Microsoft Multipath I/O (MPIO) 006.0001.7600.16385 Microsoft Windows Server 2008 (für Hyper-V-Server) Datacenter Edition, R2 Microsoft Windows Server 2008 (für alle virtuellen Maschinen) Enterprise Edition, R2 Microsoft SQL Server 2008 Enterprise Edition, R2 Microsoft System Center Virtual Machine Manager 2012 Microsoft Systems Center Operations Manager 2012 Microsoft Systems Center Configuration Manager 2012 Microsoft System Center Orchestrator 2012 Microsoft Deployment Toolkit 2010 Microsoft Windows Deployment Services 2008 R2 Hitachi Dynamic Provisioning Hitachi Dynamic Provisioning bietet auf Hitachi-Speichersystemen Funktionen für Wide Striping und Thin Provisioning. Die Verwendung von Dynamic Provisioning gleicht einem hostbasierten logischen Volume-Manager (LVM), allerdings ohne den anfallenden VerarbeitungsOverhead. Dynamic Provisioning bietet einen oder mehrere Wide-Striping-Pools über viele RAID-Gruppen hinweg. Für jeden Pool werden ein oder mehrere Dynamic Provisioning Virtual Volumes (DP-VOLs) mit einer von Ihnen festgelegten logischen Größe von bis zu 60 TB erstellt, ohne dass vorher physischer Speicherplatz zugewiesen werden muss. Durch die Bereitstellung von Dynamic Provisioning werden die typischen Probleme im Zusammenhang mit besonders stark beanspruchten Bereichen, sogenannten Hotspots, auf logischen Speichergeräten (LDEVs) vermieden. Diese sind innerhalb einzelner RAID-Gruppen anzutreffen, sobald die Workload des Hosts die IOPS- oder Durchsatzkapazität der RAID-Gruppe überschreitet. Mit Dynamic Provisioning wird die Workload des Hosts über mehrere RAIDGruppen verteilt, wodurch die Prozesse reibungsloser vonstatten gehen und Hotspots vermieden werden können. 10 10 In Verbindung mit Hitachi Unified Storage bietet Hitachi Dynamic Provisioning den Vorteil von Thin Provisioning. Die Zuweisung des physischen Speichers aus dem Pool an das Dynamic Provisioning Volume erfolgt nach Bedarf in 1-GB-Schritten, bis die für jedes Dynamic Provisioning Volume festgelegte logische Größe erreicht ist. Die Kapazität des Pools kann ohne Unterbrechung oder Ausfallzeit dynamisch erweitert oder verkleinert werden. Ein erweiterter Pool kann für ein gleichmäßiges Striping von Daten und Workload über aktuelle und neu hinzugefügte RAID-Gruppen hinweg neu angepasst werden. Microsoft Hyper-V 2008 R2 Microsoft Windows Hyper-V ist eine Hypervisor-basierte Virtualisierungstechnologie, die in den Versionen Windows Server 2008 x64 und Windows Server 2008 R2 in das Betriebssystem integriert ist. Mit ihr lassen sich durch Serverkonsolidierung der Platzbedarf von Hardware und die Kosten für Investitionen reduzieren. Microsoft System Center Virtual Machine Manager 2012 (SCVMM) Virtual Machine Manager 2012 ermöglicht ein zentrales Management der physischen und virtuellen IT-Infrastruktur, eine höhere Serverauslastung und eine dynamische Ressourcenoptimierung über mehrere Virtualisierungsplattformen hinweg. Die Komponente umfasst End-to-End-Funktionen für die Planung, Bereitstellung, Verwaltung und Optimierung der virtuellen Infrastruktur. Bei dieser Lösung wird SCVMM ausschließlich für das Management von Gästen und Hosts der Hyper-V-Private-Cloud in einem einzigen Rechenzentrum eingesetzt. Microsoft System Center Orchestrator System Center Orchestrator vereinfacht die Automatisierung der Aufgaben des Systemadministrators. Orchestrator verwendet zur Erstellung der Automatisierungsprozesse einen GUI-basierten Ansatz. Mit System Center Orchestrator werden Überwachungs- und Aktionsprozesse zur Ausführung bestimmter Vorgänge erstellt, wie der Erstellung virtueller Maschinen oder der Bereitstellung von Software-Updates. Microsoft System Center Operation Manager 2012 Operation Manager-Agenten wurden für die Fabric-Management-Hosts und virtuellen Maschinen bereitgestellt. Diese gastinternen Agenten werden nur zur Überwachung der Performance und des Zustands des Betriebssystems verwendet. Die Operation Manager-Instanz wird nur für die Überwachung der Hyper-V-Cloud-Infrastruktur verwendet. Microsoft System Center Configuration Manager 2012 System Center Configuration Manager 2012 führt umfassende Bewertungen, Bereitstellungen und Updates der Server, Client-Computer und Geräte über physische, virtuelle, verteilte und mobile Umgebungen hinweg durch. 11 11 Microsoft Deployment Toolkit Microsoft Deployment Toolkit (MDT) ist für die Netzwerkbereitstellung von Windows 2008 R2 zuständig. Die gesamte für die Installation erforderliche Software (Betriebssystem, Treiber und Updates) sind zu Bereitstellungspaketen zusammengefasst. Diese Bereitstellungspakete werden mittels eines MDT-Servers über das Netzwerk gesendet. 12 12 Lösungsdesign Dieser Abschnitt enthält genaue Informationen zum Design der in dieser Referenzarchitektur verwendeten Microsoft Hyper-V Private Cloud. Er umfasst die Software- und Hardware-Designinformationen, die zur Erstellung der grundlegenden Infrastruktur für die Private-Cloud-Umgebung erforderlich sind. Übergeordnete Architektur Zur Gewährleistung eines einfachen Managements, guter Skalierbarkeit und vorhersehbarer Performance werden bei dieser Lösung Hitachi Compute Blade 2000 und Hitachi Unified Storage als Ressourcen-Pools zur Unterstützung der Private-Cloud-Architektur verwendet. Hitachi Compute Blade 2000 bietet ausreichend Ressourcen, um eine Großzahl an virtuellen Maschinen zu hosten. Hitachi Unified Storage unterstützt Hitachi Dynamic Provisioning zur Vereinfachung des Managements und zur schnellen Bereitstellung von virtuellen Maschinen. Bei dieser Referenzarchitektur wird ein Hitachi Compute Blade 2000-Chassis mit acht Blades verwendet. Auf allen Blades kommt Microsoft Windows 2008 R2 Hyper-V mit Failover-Clustering zum Einsatz. Es wurde ein Hyper-V-FailoverCluster mit zwei Knoten konfiguriert zur Unterstützung der ManagementInfrastruktur und zur Bereitstellung hoher Verfügbarkeit. Dieser ManagementCluster mit zwei Knoten unterstützt die Bereitstellung und das Management der virtuellen Maschinen mittels Virtual Machine Manager 2008 R2 und Virtual Machine Manager-Self-Service-Portal. Darüber hinaus werden auf diesem Hochverfügbarkeits-Cluster die Tools und Dienstprogramme für die Überwachung und Erfassung der Performance der Private-Cloud-Infrastruktur gehostet. Ein Microsoft Hyper-V-Failover-Cluster mit sechs Knoten wurde zum Hosten der virtuellen Maschinen der Mandanten konfiguriert, die über den ManagementCluster bereitgestellt werden. So besteht die Möglichkeit, virtuelle Maschinen schnell zwischen den Knoten des Clusters zu verschieben und für hohe Verfügbarkeit zu sorgen. Zur Unterstützung der Speicheranforderungen hinsichtlich Kapazität, Performance und schneller Provisionierung einer Private-Cloud-Infrastruktur wurde Hitachi Unified Storage bereitgestellt und für die Verwendung von Hitachi Dynamic Provisioning-Pools konfiguriert. Die Speicherkonfiguration für die Private-Cloud-Architektur besteht aus vier auf Hitachi Unified Storage konfigurierten Dynamic Provisioning-Pools. Ein Pool dient zum Hosten der virtuellen Festplatten (VHDs) für die Betriebssysteme der virtuellen Maschinen, zwei Pools dienen zum Hosten der Anwendungsdaten und ein Pool dient zum Speichern der Backup-Daten. In den Dynamic ProvisioningPools für die Betriebssysteme und Anwendungsdaten wurden LUNs für freigegebene Cluster-Volumes (CSV) zugewiesen. Die vom Backup-Pool zugeordneten LUNs sind Standard-LUNs. 13 13 Mit 32 TB verfügt der Backup-Pool der Referenzarchitektur über genügend Kapazität für die Verwendung von Microsoft Data Protection Manager 2012 oder die Unterstützung einer vorhandenen Backup-Strategie, um einen ausreichenden Schutz der Speicherumgebung zu gewährleisten. Genaue Informationen zum Schutz von Hyper-V-CSVs mit Data Protection Manager 2012 und Hitachi Data Systems VSS Hardware Provider erhalten Sie unter Protecting Hyper-V CSVs with Microsoft Data Protection Manager and the Hitachi VSS Hardware Provider on the Hitachi Adaptable Modular Storage 2000 Family Implementation Guide (US). Die in dem Management-Cluster mit zwei Knoten gehosteten Microsoft System Center-Management-Tools wurden für die bedarfsmäßige Zuweisung der virtuellen Maschinen und der dazugehörigen Anwendungsdaten-LUNs über die Dynamic Provisioning-Pools hinweg verwendet. Es wird empfohlen, die Zuweisung der Anwendungs-LUNs nach einem Round-Robin-Verfahren vorzunehmen, um das Management der Anwendungsdaten einzelner virtueller Maschinen in den zwei für Anwendungsdaten verwendeten Pools zu minimieren. Abbildung 2 zeigt das physische Layout der Referenzarchitektur für Hitachi Hyper-V Cloud Fast Track. 14 14 Dynamic Provisioning-Pool 4 für Backup Dynamic Provisioning-Pool 3 für Anwendungsdaten Dynamic Provisioning-Pool 2 für Anwendungsdaten Dynamic Provisioning Pool 1 für BS/VHDs Hitachi Unified Storage Hyper-V-MandantenCluster mit 6 Knoten Hyper-VManagement-Cluster mit 2 Knoten Windows Server 2008 R2 mit Hyper-V-Failover-Clustering Windows Server 2008 R2 mit Hyper-V-FailoverClustering Systems Center Operations und Configuration Manager 2012 Hitachi Compute Blade 2000 Abbildung 2 Systems Center Virtual Machine Manager 2012 Systems Center Virtual Machine Self-Service-Portal 15 15 Hitachi Compute Blade 2000-Chassiskonfiguration Bei der Referenzarchitektur werden acht X55A2-Blades, vier 1-/10-Gbit/s-LANSwitchmodule und zwei Fibre-Channel-Switchmodule verwendet. Jeder Blade verfügt über zwei Onboard-NICs und vier zusätzliche NICs durch eine MezzanineKarte. Jede dieser NICs ist mit einem LAN-Switchmodul verbunden. Jeder Blade verfügt außerdem über eine Fibre-Channel-Mezzanine-Karte mit 2 Ports, die mit beiden Fibre-Channel-Swichmodulen verbunden ist. Abbildung 3 zeigt eine Vorder- und Rückansicht des in dieser Lösung verwendeten Hitachi Compute Blade 2000. 8 x Standard-Blade X55A21 4 x 1-/10-Gbit-LANSwitchmodul 2 x 8-Gbit-FibreChannel-Switchmodul Hitachi Compute Blade 2000 (Vorderseite) Hitachi Compute Blade 2000 (Rückseite) Abbildung 3 Hitachi Compute Blade 2000-Serverarchitektur Die Architektur des Hostservers ist eine kritische Komponente der virtuellen Infrastruktur. Durch die Fähigkeit des Hostservers, die Workload einer großen Anzahl an Konsolidierungskandidaten zu unterstützen, steigt die Konsolidierungsrate und sinken die Kosten. Wegen der Unterstützung vieler virtueller Maschinen pro Blade und der Erfüllung der im Rahmen des Microsoft-Private-Cloud-Programms gestellten Anforderungen hinsichtlich Prozessor, RAM und Netzwerkfunktionen wurde Hitachi Compute Blade 2000 für diese Referenzarchitektur ausgewählt. 16 16 In Tabelle 3 wird die Blade-Konfiguration aufgeführt. Jeder Blade verwendet Windows 2008 R2 Datacenter mit zwei Quad-Core Xeon X5640-Prozessoren mit 2,66 GHz und 128 GB RAM. Tabelle 3. Blade-Konfiguration Bladeserver Servername Rolle Blade 0 CFT-Knoten0 Mandanten-VMs des Hyper-V-Hosts Blade 1 CFT-Knoten1 Blade 2 CFT-Knoten2 Blade 3 CFT-Knoten3 Blade 4 CFT-Knoten4 Blade 5 CFT-Knoten5 Blade 6 CFT-Knoten6 Hyper-V-Management CFT-Knoten7 Hyper-V-Management Blade 7 Mandanten-VMs des Hyper-V-Hosts Mandanten-VMs des Hyper-V-Hosts Mandanten-VMs des Hyper-V-Hosts Mandanten-VMs des Hyper-V-Hosts Mandanten-VMs des Hyper-V-Hosts Hyper-V-Host Hyper-V-Host Tests haben ergeben, dass mit dieser Hitachi Compute Blade 2000-Konfiguration bis zu 32 virtuelle Maschinen pro Blade gehostet werden können. Damit stehen, wie in der Referenzarchitektur beschrieben, insgesamt 192 virtuelle Maschinen in einem Hyper-V-Failover-Cluster mit sechs Knoten zur Verfügung. Hyper-V-Hostbetriebssystem und -Auslagerungsdateien jedes Blades befanden sich auf zwei lokalen 146-GB-SAS-Laufwerken, die aus Performanceund Verfügbarkeitsgründen als RAID-1 konfiguriert waren. Speicherarchitektur Für die Hyper-V-Private-Cloud-Architektur wurde Hitachi Unified Storage verwendet. Bei dieser Architektur werden die VHDs für das Betriebssystem und die VHDs für die Anwendungen der virtuellen Maschinen in Hitachi Dynamic Provisioning-Pools gehostet. Alle LUNs in der Umgebung erscheinen den Hyper-V-Hosts als CSVs mit Ausnahme der LUNs für die Backup-Daten. Drei Dynamic Provisioning-Pools werden zum Hosten der VHDs der virtuellen Maschinen zugewiesen. Pool 1 wurde zum Hosten der VHDs für das Betriebssystems der Gastmaschine verwendet und Pool 2 und 3 zum Hosten der Daten-LUNs für die virtuellen Gastmaschinen. 17 17 Abbildung 4 zeigt ein übergeordnetes Diagramm der Hitachi Unified Storage-Konfiguration. Einschub 12 Backup Pool 4 Einschub 11 Einschub 10 VMAnwendungsdatenPool 3 Einschub 9 Einschub 8 Einschub 7 Einschub 6 Einschub 5 Einschub 4 Einschub 3 VMAnwendungsdatenPool 2 Einschub 2 Einschub 1 Einschub 0 BS-VHD-Pool 1 Hitachi Unified Storage 150 274 SAS-SFF-Festplatten mit 600 GB und 10.000 U/min 26 NL-SAS-Festplatten mit 2 TB und 7.200 U/min Abbildung 4 Verfügbar und nicht zugewiesen Ersatz 18 18 Freigegebene Cluster-Volumes (CSVs) Bei dieser Referenzarchitektur wurden CSVs zum Hosten des Betriebssystems und der Anwendungsdaten der virtuellen Maschinen implementiert. CSVs werden ausschließlich für das Hyper-V-Failover-Clustering verwendet. Mit ihnen können alle Knoten im Cluster gleichzeitig auf dieselben Cluster-Speichervolumes zugreifen. Dieses Vorgehen umgeht die Beschränkung auf eine virtuelle Maschine pro LUN und ermöglicht mehrere virtuelle Maschinen für ein einziges CSV. Dadurch wird das Management der Speicherinfrastruktur in einer PrivateCloud-Umgebung vereinfacht. Da alle Cluster-Knoten in der Lage sind, gleichzeitig auf alle CSVs zuzugreifen, können Standardmethoden für die LUN-Zuweisung verwendet werden, die sich nach den voraussichtlichen Performance- und Kapazitätsanforderungen der Workloads richten. Microsoft empfiehlt bei den virtuellen Maschinen die Trennung der E/A-Vorgänge des Betriebssystems von den EA-Vorgängen der Anwendungsdaten. Das ist der Grund für die Erstellung mehrerer Dynamic Provisioning-Pools zum Hosten der CSVs – ein Pool für die Betriebssystem-VHDs der virtuellen Maschinen und zwei zusätzliche Pools zur Unterstützung der anwendungsspezifischen VHDs. Die CSV-Architektur unterscheidet sich von anderen herkömmlichen gruppierten File-Systemen. Dadurch werden Einschränkungen bei der Skalierbarkeit umgangen, wie etwa die Einschränkung auf eine virtuelle Maschine pro LUN und Einschränkungen bei der Vergabe von Laufwerksbuchstaben. Deshalb müssen keine Besonderheiten bei der Skalierung der Anzahl an Hyper-V-Knoten oder virtuellen Maschinen auf einem CSV-Volume beachtet werden. Allerdings muss bedacht werden, dass es unter den virtuellen Festplatten aller virtuellen Maschinen, die auf einem bestimmten CSV ausgeführt werden, zu Speicher-E/A-Konflikten kommt. Deshalb ist es wichtig, die E/A-WorkloadMerkmale dieser auf den CSVs in Dynamic Provisioning-Pools gehosteten virtuellen Maschinen zu kennen. Hier müssen die IOPS-Anforderungen sowie das E/A-Profil (z. B. zufällige Lese- und Schreibvorgänge oder sequenzielle Schreibvorgänge) jeder bereitzustellenden virtuellen Maschine berücksichtigt werden. RAID-Konfiguration Um bis zu 196 virtuelle Maschinen zu unterstützen, kommt bei dieser Referenzarchitektur eine RAID-6-Konfiguration (6D+2P) mit 600-GB-SAS-Festplatten (10.000 U/min) zum Hosten der CSVs zum Einsatz. Ein RAID-6-Pool (6D+2P) mit 2-TB-SAS-Festplatten (7.200 U/min) wird zur Unterstützung des Backups der CSVVolumes verwendet. Die vier bei dieser Lösung verwendeten Hitachi Dynamic Provisioning-Pools wurden aus 36 RAID-6-Gruppen (6D+2P) erstellt. 19 19 In Abbildung 4 werden die Konfigurationen für die Dynamic Provisioning-Pools aufgeführt, die im Labor von Hitachi Data Systems verwendet wurden. Tabelle 4. Dynamic Provisioning-Konfiguration für Cloud Fast Track-Architektur Dynamic ProvisioningPool Anzahl der RAIDGruppen Anzahl der Laufwerke Nutzbare Pool-Kapazität (TB) 1 3 24 10,2 2 15 120 51,0 3 15 120 51,0 4 3 24 32,2 Pool-Konfiguration Pool 1 umfasst die Betriebssystem-VHDs der virtuellen Maschinen für das Management und die Mandanten. Pools 2 und 3 umfassen CSVs für die Zuweisung zu den Anwendungsdatenbanken und -Files der virtuellen Gastmaschine. Tabelle 5 zeigt die LUN-Zuweisung für jeden Dynamic Provisioning-Pool, die im Labor von Hitachi Data Systems verwendet wurde. Tabelle 5. LUN-Zuweisung LUN-Zuweisung Dynamic Provisioning-Pool LUNGröße (GB) LUNs Speicher-Ports Hyper-VCluster Freigegebenes Cluster-Volume 1 Pool 1 5000 00 0F, 1F Management Quorumlaufwerk des Management-Clusters 1 01 Freigegebenes Cluster-Volume 1 Pool 2 5000 00 0E, 1E, 0G, 1G Mandant Freigegebenes Cluster-Volume 2 5000 01 0H, 1H Freigegebenes Cluster-Volume 3 5000 02 Freigegebenes Cluster-Volume 4 5000 03 Freigegebenes Cluster-Volume 5 5000 04 Freigegebenes Cluster-Volume 6 5000 05 Freigegebenes Cluster-Volume 7 5000 06 Freigegebenes Cluster-Volume 8 5000 07 20 20 Tabelle 5. LUN-Zuweisung (Fortsetzung) LUN-Zuweisung Dynamic Provisioning-Pool LUNGröße (GB) LUNs Speicher-Ports Hyper-VCluster Freigegebenes Cluster-Volume 9 Pool 3 5000 08 0E, 1E, 0G, 1G Mandant Freigegebenes Cluster-Volume 10 5000 09 0H, 1H Freigegebenes Cluster-Volume 11 5000 0A Freigegebenes Cluster-Volume 12 5000 0B Freigegebenes Cluster-Volume 13 5000 0C Freigegebenes Cluster-Volume 14 5000 0D Freigegebenes Cluster-Volume 15 5000 0E Freigegebenes Cluster-Volume 16 5000 0F Quorumlaufwerk des MandantenClusters 1 10 Laufwerks- und LUN-Konfiguration Jede LU des Speichers wird den Knoten des Hyper-V-Mandanten- oder Hyper-VManagement-Clusters als LUN dargestellt. Abbildung 5 zeigt ausführlich die bei dieser Lösung verwendete Laufwerkskonfiguration. 21 21 Backup-Pool 4 24 2-TBNL-SASFestplatten Einschub 12 RG-34 Einschub 11 RG-33 Einschub 10 RG-30 Einschub 9 RG-35 RG-36 RG-32 RG-31 RG-27 RG-28 Einschub 8 RG-24 Einschub 7 RG-21 RG-22 Einschub 6 RG-18 RG-19 Einschub 5 RG-15 RG-29 RG-25 RG-27 RG-23 Einschub 4 RG-12 RG-13 RG-14 Einschub 3 RG-9 RG-10 RG-11 Einschub 2 RG-7 RG-8 Einschub 1 RG-4 RG-5 Einschub 0 RG-1 RG-2 VMAnwendungsdatenPool 3 120 600-GBSASFestplatten RG-30 RG-26 RG-16 RG-24 RG-20 RG-21 RG-17 RG-18 RG-15 VMAnwendungsdatenPool 2 120 600-GBSASFestplatten RG-12 RG-9 Hitachi Unified Storage 150 274 SAS-SFF-Festplatten mit 600 GB und 10.000 U/min 26 NL-SAS-Festplatten mit 2 TB und 7.200 U/min Abbildung 5 RG-33 RG-6 BS-VHD-Pool 1 24 600-GBSASFestplatten RG-3 Verfügbar und nicht zugewiesen Ersatz 22 22 SAN-Architektur Die Architektur des Storage Area Network besteht aus zwei Fibre-ChannelSwitchmodulen im Hitachi Compute Blade 2000-Chassis. Der ManagementCluster des Hyper-V-Hosts verfügt mit Port 0F und 1F über zwei Pfade zu Hitachi Unified Storage. Der Mandanten-Cluster des Hyper-V-Hosts verfügt mit den Ports 0E, 0G, 0H und 1E, 1G und 1H über sechs Pfade zu Hitachi Unified Storage. Die in Abbildung 6 gezeigte Konfiguration unterstützt hohe Verfügbarkeit durch die Bereitstellung mehrerer Pfade von den Hosts innerhalb des Hitachi Compute Blade 2000 zu mehreren Hitachi Unified Storage-Ports. Blade 0 Blade 1 Blade 2 Blade 3 Blade 4 Blade 5 FC-SW 5 0E Blade 6 FC-SW 4 0F Hitachi Unified Storage 150 Abbildung 6 0G 0H 1E 1F 1G 1H Blade 7 23 23 Für das Multipathing wird die Microsoft MPIO-Software mit Round-RobinRichtlinie verwendet. Der Round-Robin-Lastausgleichalgorithmus von Microsoft MPIO wählt automatisch einen Pfad, indem abwechselnd alle verfügbaren Pfade verwendet werden. Dadurch findet ein Lastausgleich über alle verfügbaren Pfade hinweg statt. Dies führt zu einer Optimierung der IOPS und Antwortzeiten. In Tabelle 6 ist die Konfiguration der Pfade dargestellt. Tabelle 6. Pfadkonfiguration Blade-HBAund PortNummer Switch Zonenname SpeichersystemPort SpeichersystemHostgruppe Blade 0 HBA 1 Port 1 FCSW-0 Blade_0_HBA1_1_SW0_HUS_0E_1E 0E Blade0_HBA1_1 Blade 0 HBA 1 Port 2 FCSW-1 Blade 1 HBA 1 Port 1 FCSW-0 Blade 1 HBA 1 Port 2 FCSW-1 Blade 2 HBA 1 Port 1 FCSW-0 Blade 2 HBA 1 port 2 FCSW-1 Blade 3 HBA 1 port 1 FCSW-0 Blade 3 HBA 1 port 2 FCSW-1 Blade 4 HBA 1 port 1 FCSW-0 Blade 4 HBA 1 port 2 FCSW-1 Blade 5 HBA 1 port 1 FCSW-0 Blade 5 HBA 1 port 2 FCSW-1 1E Blade_0_HBA1_2_SW1_HUS_0E_1E 0E Blade0_HBA1_2 1E Blade_1_HBA1_1_SW0_HUS_0E_1E 0E Blade1_HBA1_1 1E Blade_1_HBA1_2_SW1_HUS_0E_1E 0E Blade1_HBA1_2 1E Blade_2_HBA1_1_SW0_HUS_0G_1G 0G Blade2_HBA1_1 1G Blade_2_HBA1_2_SW1_HUS_0G_1G 0G Blade2_HBA1_2 1G Blade_3_HBA1_1_SW0_HUS_0G_1G 0G Blade3_HBA1_1 1G Blade_3_HBA1_2_SW1_HUS_0G_1G 0G Blade3_HBA1_2 1G Blade_4_HBA1_1_SW0_HUS_0H_1H 0H Blade4_HBA1_1 1H Blade_4_HBA1_2_SW1_HUS_0H_1H 0H Blade4_HBA1_2 1H Blade_5_HBA1_1_SW0_HUS_0H_1H 0H Blade5_HBA1_1 1H Blade_5_HBA1_2_SW1_HUS_0H_1H 0H 1H Blade5_HBA1_2 24 24 Tabelle 6. Pfadkonfiguration (Fortsetzung) Blade-HBAund PortNummer Switch Zonenname SpeichersystemPort SpeichersystemHostgruppe Blade 6 HBA 1 Port 1 FCSW-0 Blade_6_HBA1_1_SW0_HUS_0F_1F 0F Blade6_HBA1_1 Blade 6 HBA 1 Port 2 FCSW-1 Blade 7 HBA 1 Port 1 FCSW-0 Blade 7 HBA 1 Port 2 FCSW-1 1F Blade_6_HBA1_2_SW1_HUS_0F_1F 0F Blade6_HBA1_2 1F Blade_7_HBA1_1_SW0_HUS_0F_1F 0F Blade7_HBA1_1 1F Blade_7_HBA1_2_SW1_HUS_0F_1F 0F Blade7_HBA1_2 1F iSCSI-Architektur Zur Unterstützung der Verbindung von virtuellen Maschinen, die iSCSIVerbindungen erfordern, sind auf Hitachi Unified Storage iSCSI-Zielports vorhanden. iSCSI ist bei dieser Referenzarchitektur für die Unterstützung von Gast-Clustering vorgesehen, falls dies in der Kundenumgebung erforderlich ist. Gast-Clustering wird nicht unterstützt, wenn Fibre-Channel-Verbindungen in einem Hyper-V-Failover-Cluster verwendet werden. Die verfügbaren iSCSI-Verbindungen befinden sich auf den Ports 0A, 0B, 1A und 1B. Für den iSCSI-Speicherverkehr wurde bei dieser Referenzarchitektur ein physikalisch getrenntes Netzwerk verwendet, um Performance und Durchsatz zu steigern. Netzwerkarchitektur Damit Private-Cloud-Lösungen sowohl hohe Netzwerk-Performance als auch hohe Verfügbarkeit bieten, ist ein geeignetes Netzwerkdesign wichtig. Das Netzwerk muss außerdem in der Lage sein, die verschiedenen Arten von Verkehr einer virtuellen Umgebung voneinander zu trennen. Dazu wurden die Empfehlungen im Rahmen der Best Practices von Microsoft für Private-Cloud-Implementierungen befolgt und der Netzwerkverkehr folglich in separate Netzwerke aufgeteilt. Jeder Netzwerktyp ist einem anderen Subnetz zugewiesen. Subnetze werden dazu verwendet, die Konfiguration in kleinere und effizientere Netzwerke aufzuteilen. Eine weitere Trennung der Netzwerktypen erfolgt durch die Verwendung von VLAN-Trennung und dedizierten Netzwerk-Switches. 25 25 Bei der VLAN-basierten Netzwerksegmentierung oder -trennung müssen mehrere Komponenten korrekt konfiguriert sein, um sowohl schnelle Provisionierung als auch Netzwerksegmentierung, einschließlich Host-Server, Host-Cluster, VMM und Netzwerkswitches, zu ermöglichen. Bei Hyper-V und den Host-Clustern müssen identische virtuelle Netzwerke auf allen Knoten festgelegt werden, damit ein Failover von einer virtuellen Maschine auf einen Knoten erfolgen kann und ihre Verbindung zum Netzwerk aufrechterhalten wird. Daher werden bei dieser Referenzarchitektur die folgenden Netzwerke festgelegt: Ein dediziertes Management-Netzwerk für das Management der Hyper-VHosts zur Vermeidung von Konflikten mit dem Gastverkehr der virtuellen Maschinen Ein dediziertes Netzwerk bietet ein gewisses Maß an Trennung für Sicherheitszwecke und ein einfacheres Management. Für das Management-Netzwerk ist ein Netzwerkadapter pro Host und ein Port pro Netzwerkgerät vorgesehen. Dieses Netzwerk ist für Aufgaben wie die Remote-Administration des Hosts und die Kommunikation mit den Management-Systemen, etwa den System Center-Agenten, gedacht. Ein dediziertes CSV- und Cluster-Kommunikationsnetzwerk zur Umleitung der E/A-Vorgänge über das Cluster-Netzwerk im Falle eines Verlusts der Speicherkonnektivität zu den CSVs wegen eines Ausfalls des Fibre-Channel-Netzwerks Ein Netzwerk für die Live-Migration zur Sicherstellung des schnellen Transfers von virtuellen Maschinen zwischen den Knoten des Hyper-VFailover-Clusters Ein oder mehrere Netzwerke für den LAN-Verkehr der virtuellen Maschinen Ein dediziertes Netzwerk bei der Verwendung von iSCSI zur Vermeidung von Konflikten zwischen Speicherverkehr und sonstigem Netzwerkverkehr 26 26 In Tabelle 7 sind verschiedene Netzwerke aufgeführt, die für eine Hyper-V Cloud Fast Track-Umgebung erforderlich sind. Tabelle 7. Erforderliche Netzwerke Typ Details Öffentlicher Cluster/ Management Dieses Netzwerk ist die Management-Schnittstelle für den Cluster. Externe Management-Anwendungen wie SCVMM und SCOM kommunizieren über dieses Netzwerk mit dem Cluster. Privater Cluster Dies ist die primäre Netzwerkschnittstelle für die Kommunikation zwischen den Knoten des Clusters. Freigegebene Cluster-Volumes (CSVs) Der CSV-Verkehr nutzt dasselbe Netzwerk, das für den privaten Cluster festgelegt wurde. Virtuelle Maschine Dieses Netzwerk dient der Kommunikation zwischen virtuellen Maschinen und Clients. Zur Unterstützung des Netzwerkverkehrs der virtuellen Maschinen ist ein virtueller Hyper-V-Switch erforderlich. Live-Migration Standardmäßig bevorzugt die Live-Migration private Netzwerke gegenüber öffentlichen Netzwerken. Bei einer Konfiguration mit mehr als einem privaten Netzwerk erfolgt die Live-Migration in dem privaten Netzwerk, das nicht vom privaten Cluster oder dem CSV-Netzwerk verwendet wird. In der Oberfläche für das ClusterManagement lässt sich die Priorität des zu verwendenden Netzwerks festlegen. iSCSI Dies ist ein dediziertes Netzwerk für den Speicherverkehr. Zur Erfüllung der Anforderungen an den Netzwerkverkehr wurden die internen Netzwerk-Switches des Hitachi Compute Blade 2000 wie in Tabelle 8 konfiguriert. Durch diese Konfiguration entstehen separate VLANS bei den physischen Netzwerkschnittstellen. Tabelle 8. Konfiguration der LAN-Switchmodule Switchmodul-Nr. VLAN-Nr. Netzwerkverkehrstyp IP-Adressenbereich 0 2500 Management 10.64.1.x 1, 2 2501 Live-Migration 10.64.2.x 1, 2 2502 CSV/Cluster 10.64.3.x 3 2503 Virtuelle Maschine 10.64.4.x 0 2504 iSCSI 10.64.5.x Bei dieser Referenzarchitektur werden zwei Onboard-NICs pro Blade verwendet, die mit den LAN-Switchmodulen 0 und 1 verbunden sind. Jeder Blade verfügt außerdem durch eine Onboard-Mezzanine-Erweiterungskarte über vier zusätzliche NIC-Ports, die mit den LAN-Switchmodulen 2 und 3 verbunden sind. Abbildung 7 zeigt die bei dieser Referenzarchitektur verwendete Netzwerkkonfiguration. 27 27 Hyper-VHost 1 Blade 0 ManagementNetzwerk 10.64.1.x CSV-/ClusterNetzwerk 10.64.2.x Hyper-VHost 2 Blade 1 Hyper-VHost 3 Blade 2 Hyper-VHost 4 Blade 3 Hyper-VHost 5 Blade 4 Hyper-VHost 6 Blade 5 Hyer-VHost 7 Blade 6 Hyper-VHost 8 Blade 7 Abbildung 7 Netzwerk für Live-Migration 10.64.3.x Netzwerk für virtuelle Maschinen 10.64.4.x iSCSINetzwerk 10.64.5.x (optional) 28 28 Uplink-Konnektivität des Netzwerks Für Konnektivität außerhalb des Racks sorgen die Uplink-Funktionen der Netzwerk-Switchmodule mit entweder 1 Gbit/s oder 10 Gbit/s. Diese Switches bieten eine umfassende Konnektivität zur Umgebung, sobald diese mit der Switch-Infrastruktur des Kernnetzwerks des Kunden verbunden werden. Management-Architektur Dies sind die für die Bereitstellung und den Betrieb dieser Private-CloudReferenzarchitektur eingesetzten Management-Systeme und -Tools. Hitachi Command Suite ermöglicht in Verbindung mit der Management-Suite von Microsoft System Center ein End-to-End-Management der Private Cloud. Für eine hohe Verfügbarkeit des Management-Systems muss ein Hyper-VFailover-Cluster mit zwei Knoten zum Hosten der Management-Software implementiert werden. In Tabelle 9 werden die im Management-Cluster bereitgestellten virtuellen Maschinen zusammengefasst. Diese virtuellen Maschinen sind hochgradig verfügbar. Tabelle 9. Virtuelle Maschinen des Management-Clusters Virtuelle Maschine Rolle HUS-MSFT-SNM2 Speicher-Management BS-Knoten6 HUS-MSFT- SQL1 HUS-MSFT- SQL2 SQL Server 2008 R2 SQL Server 2008 R2 Hyper-VHost BS-Knoten6 BS-Knoten6 Betriebssystem Prozessor Arbeitsspeicher Microsoft Windows Server 2008 R2 Enterprise Edition 1 vCPU 4 GB RAM 4 vCPUs 32 GB RAM 4 vCPUs 32 GB RAM Microsoft Windows Server 2008 R2 Enterprise Edition Microsoft Windows Server 2008 R2 Enterprise Edition 29 29 Tabelle 9. Virtuelle Maschinen des Management-Clusters (Fortsetzung) Virtuelle Maschine Rolle Hyper-VHost Betriebssystem Prozessor Arbeitsspeicher HUS-MSFT-SCVMM SCOM/VMM BS-Knoten7 Microsoft Windows 2008 R2 Enterprise Edition 2 vCPUs 32 GB RAM 2 vCPUs 8 GB RAM HUS-MSFT-OpsMgr SCOM/OpsMgr BS-Knoten7 Microsoft Windows 2008 R2 Enterprise Edition Microsoft SQL Server 2008 R2 Die Microsoft System Center-Produktreihe bietet ein umfassendes Toolset für das Management der Private Cloud. Die Komponenten von Microsoft System Center sind datenbankorientierte Anwendungen. SQL Server 2008 R2 ist perfekt für die Bereitstellung einer hochgradig verfügbaren Datenbankplattform mit hoher Performance geeignet. Diese ist für das gesamte Management der Umgebung äußerst wichtig. Bei dieser Referenzarchitektur wurden zwei hochgradig verfügbare virtuelle Maschinen mit SQL Server zur Unterstützung der Management-Infrastruktur bereitgestellt. Jeder virtuelle SQL-Server wurde mit 32 GB Arbeitsspeicher, vier virtuellen CPUs und Windows 2008 R2 Enterprise Edition konfiguriert. In Tabelle 10 wird die Konfiguration der beiden virtuellen Maschinen für SQL Server aufgeführt. Tabelle 10. Technische Daten der virtuellen Maschinen für SQL Server LU Zweck Größe LUN1, CSV-Volume Betriebssystem 30 GB LUN2, CSV-Volume Datenbank-LU 100 GB LUN3, CSV-Volume Log-LU 25 GB In Tabelle 10 wird die Konfiguration der Datenbanken der beiden virtuellen Maschinen für SQL Server aufgeführt: 30 30 Tabelle 11. Datenbankkonfiguration DatenbankClient Name der Instanz Name der Datenbank Virtuelle Maschine Orchestrator SQL1Instance SCVMM_ORCH SQL1 VMM SQL1Instance VMM_DB SQL1 Ops Mgr SQL1Instance Ops_Mgr_DB SQL1 Ops Mgr SQL2Instance Ops_Mgr_DW_DB SQL2 Microsoft Systems Center Virtual Machine Manager 2012 Bei dieser Referenzarchitektur wird Microsoft Systems Center Virtual Machine Manager 2012 (SCVMM) für das Management der Hyper-V-Hosts und -Gäste in einem einzigen Rechenzentrum bereitgestellt. Die SCVMM-Instanz für das Management dieser Lösung darf nicht für das Management virtueller Infrastruktur außerhalb dieser Lösung verwendet werden. Das Design von SCVMM ist nur für den Umfang dieser Referenzarchitektur geeignet. SCVMM wird auf einer virtuellen Maschine mit Microsoft Windows Server 2008 R2 SP1 Enterprise Edition und zwei virtuellen CPUs sowie 32 GB Arbeitsspeicher bereitgestellt. In einem CSV wird eine virtuelle Festplatte für das Betriebssystem mit 30 GB zugewiesen, und von einem CSV wird eine virtuelle Festplatte mit 500 GB für die SCVMM-Gastmaschine provisioniert. Diese 500 GB-LUN ist die Bibliotheksfreigabe für VMM, die zur Bereitstellung mit VMM und System Center Orchestrator Vorlagen für virtuelle Maschinen, Hardware-Profile und für das System vorbereitete virtuelle Festplatten enthält. Für diese Umgebung werden in SCVMM die folgenden Rollen aktiviert: SCVMM-Administrator Administratorkonsole Befehlsshell SCVMM-Bibliothek SQL Server-Datenbank (Remote) 31 31 In Tabelle 12 wird eine Reihe standardmäßiger VMM-Vorlagen zur Bereitstellung von virtuellen Maschinen in dieser Konfiguration aufgeführt. Diese Vorlagen basieren auf dem Leitfaden zur Microsoft Hyper-V Cloud Fast TrackReferenzarchitektur. Diese sollten an die Anforderungen der eigenen Private Cloud angepasst werden. Tabelle 12. Vorlagen für virtuelle Maschinen Vorlage Technische Daten Netzwerk BS Vorlage 1–Klein 1 vCPU VLAN 2503 WS 2008 R2 2 GB Arbeitsspeicher 50 GB Festplattenspeicher 2 vCPUs VLAN 2503 WS 2008 R2 4 GB Arbeitsspeicher 100 GB Festplattenspeicher 4 vCPUs VLAN 2503 WS 2008 R2 8 GB Arbeitsspeicher 200 GB Festplattenspeicher Vorlage 2–Mittel Vorlage 3–Groß Integration von System Center Operations Manager in Microsoft Virtual Machine Manager SCVMM ist zur Integration in System Center Operations Manager (SCOM) konfiguriert. SCVMM nutzt SCOM zur Überwachung des Zustands und der Verfügbarkeit der Hyper-V-Hosts und virtuellen Maschinen, die von SCVMM verwaltet werden. SCVMM nutzt SCOM außerdem für Folgendes: Überwachung des Zustands und der Verfügbarkeit von: SCVM-Servern Datenbanken Bibliotheksservern Self-Service-Webservern Bereitstellung von Ansichten der virtuellen Umgebung in der SCVMMAdministratorkonsole 32 32 SCVMM ist in SCOM integriert und ermöglicht Pakete für die Ressourcenund Leistungsoptimierung (PRO). PRO-Pakete ermöglichen das dynamische Management der virtuellen Infrastruktur. Durch PRO-Aktionen auf Hostebene wird die Migration der virtuellen Maschine mit der höchsten Ressourcenausnutzung auf dem Host vorgeschlagen, sobald die Auslastung von CPU oder Arbeitsspeicher den durch einen PRO-Monitor festgelegten Schwellenwert überschreitet. Die virtuelle Maschine wird zu einem anderen Host der Hostgruppe oder des Host-Clusters migriert, auf dem dieselbe Virtualisierungssoftware ausgeführt wird. Falls in einer IT-Organisation eine Workload anfällt, die sich bei der Ausführung in einer virtuellen Maschine nicht für die Migration eignet, kann diese virtuelle Maschine im PRO-Paket von PRO-Aktionen auf Hostebene ausgeschlossen werden. In diesem Fall wird die virtuelle Maschine nicht migriert, auch wenn sie die höchste Ressourcenauslastung auf dem Host aufweist. Microsoft System Center Orchestrator 2012 Microsoft System Center Orchestrator 2012 ist eine Software, die von Partnern erweitert werden kann. Mit Microsoft Windows Hyper-V und der System CenterManagement-Software ermöglicht sie Private Clouds und IT als Service. Orchestrator bietet bei dieser Private-Cloud-Architektur folgende wichtige Vorteile: Ressourcenzuweisung für das Rechenzentrum – Hiermit werden die Infrastrukturressourcen des Rechenzentrums, wie Speicher, Netzwerke und Vorlagen für virtuelle Maschinen, in einem Pool zusammengefasst. Diese Ressourcen werden daraufhin Unternehmenseinheiten zur Erfüllung der jeweiligen Infrastrukturanforderungen bereitgestellt. Online-Stellen neuer Anwendungen – Hiermit wird unter Umständen der Prozess beim Online-Stellen einer neuen Anwendung durch eine Unternehmenseinheit vereinfacht. Besitzer einer Unternehmenseinheit sind damit in der Lage, zum Hosten der eigenen IT-Services Ressourcen aus dem Infrastruktur-Pool anzufordern. Self-Service-Provisionierung – Endbenutzer haben die Möglichkeit, mit Self-Service-Funktionen virtuelle Maschinen zu provisionieren. Dies führt für Endbenutzer zu einer Optimierung des Managements virtueller Maschinen. Bei dieser Referenzarchitektur werden von System Center Orchestrator 2012 virtuelle Maschinen erstellt und auf Grundlage vorher festgelegter Vorlagen die geeignete Hardware, der geeignete Speicher und die geeigneten Betriebssystemeinstellungen provisioniert. 33 33 Microsoft System Center Operations Manager-Agenten Microsoft SCOM-Agenten werden auf den Hyper-V-Hosts und virtuellen Maschinen bereitgestellt. Die gastinternen Agenten erfassen Informationen über die Performance und den Zustand des Betriebssystems der virtuellen Maschine. Die Aufgabe dieser SCOM-Instanz beschränkt sich nur auf die Überwachung der Hyper-V-Cloud-Infrastruktur. Mit dieser SCOM-Instanz findet keine Überwachung auf Anwendungsebene statt. Für diese SCOM-Instanz sind die folgenden Rollen aktiviert: Stammverwaltungsserver Berichtsserver (Datenbank befindet sich auf SQL Server) Data Warehouse (Datenbank befindet sich auf SQL Server) Operatorkonsole Befehlsshell Für die Überwachung der Cloud-Infrastruktur werden die folgenden ManagementPakete installiert: Management-Paket für Speicher-Arrays von Hitachi Data Systems Management-Paket für Hitachi Compute Blade 2000 Microsoft Virtual Machine Manager 2008 R2 Microsoft Windows Server-Basisbetriebssystem Microsoft Windows Server-Failover-Clustering Microsoft Windows Server 2008 Hyper-V Management-Paket für Microsoft SQL Server Microsoft Windows Server Internet Information Services 2000, 2003, 2008 Management-Pakete für Microsoft System Center Hitachi Data Systems Storage Array Management Pack für Microsoft® SCOM Das Hitachi Data Systems Storage Array Management Pack für Microsoft® SCOM wird in den SCOM-Server integriert für das Reporting und die Überwachung von Hitachi-Speicher-Arrays. Dieses Management-Paket bietet die folgenden Objektansichten, die im Überwachungsfenster (unter „Hitachi Root“) der Operations Manager-Konsole angezeigt werden: Subsystem (Anzeige aller verwalteten Arrays) Ansichten und Status von Controllern und Ports Ansichten und Status von Array-Laufwerken 34 34 Ansichten und Status von Hitachi Dynamic Provisioning-Pools Ansichten und Status von LUs Ansichten und Status von RAID-Gruppen Die Überwachung des Zustands eines Subsystems erfolgt auf Grundlage des Status der physischen Subsystemkomponenten. Management-Paket für Hitachi Data Systems Compute Blade 2000 Das Management-Paket für Hitachi Compute Blade 2000 wird in den SCOMServer integriert für das Reporting und die Überwachung von Hitachi Compute Blade 2000-Chassis und -Blades. Dieses Management-Paket bietet Ansichten zu Warnmeldungen, Diagrammen und Statuszuständen, die in der Operations Manager-Konsole im Überwachungsfenster unter Hitachi Compute Blade angezeigt werden. Die Ansicht Alerts (Warnmeldungen) liefert folgende Informationen: Chassis-Warnmeldungen Windows-Serverwarnmeldungen Die Ansicht Diagram (Diagramm) liefert die folgenden Informationen: Umfassendes Diagramm des Hitachi Compute Blade Diagramm der Windows Server-Blades Die Ansicht Status liefert die folgenden Informationen: Statusansicht der Blades Statusansicht der Chassis Statusansicht der Lüfter Statusansicht des Managementmoduls Statusansicht der Partitionen PCI-Statusansicht Statusansicht des Netzteils Statusansicht der internen Switches Weitere Informationen zur Bereitstellung der Management-Pakete für Speicher und Compute Blades erhalten Sie unter Deploying Hitachi Compute Blade 2000, Hitachi Deploying Hitachi Compute Blade 2000, Hitachi Management Packs on Microsoft Systems Center Operations Manager 2007 (US). 35 35 Technische Validierung Diese Microsoft Private Cloud-Referenzarchitektur wurde als stabile Infrastruktur für die schnelle Bereitstellung einer Private Cloud durch einen Kunden entwickelt. Da jede Kundenumgebung einzigartig ist, wurden nur spezifische Tests durchgeführt, um sicherzustellen, dass die zugrunde liegende Infrastruktur die Anforderungen des Private Cloud-Programms von Microsoft erfüllt. Es wurden folgende spezifische Tests durchgeführt: Überprüfung der Konfiguration des Netzwerkdesigns hinsichtlich der Eignung für Performance und Verfügbarkeit Überprüfung der Konfiguration der Management-Struktur hinsichtlich Überwachung und Reporting des Zustands der Infrastruktur Überprüfung der korrekten Bereitstellung von virtuellen Maschinen durch VMM im Mandanten-Knoten-Cluster gemäß den vordefinierten VMM-Vorlagen Die in diesem Whitepaper beschriebene Lösung bestand alle Validierungstests von Microsoft im Rahmen des Microsoft Private Cloud-Programms. Weitere Informationen Hitachi Data Systems Global Services verfügt über erfahrene Speicherexperten, bewährte Methoden und ein umfangreiches Service-Portfolio, um Sie bei der Implementierung von Hitachi-Produkten und -Lösungen in Ihrer Umgebung zu unterstützen. Weitere Informationen erhalten Sie auf der Website von Hitachi Data Systems Global Services. Für viele Hitachi-Produkte sind aufgezeichnete und Live-Demonstrationen verfügbar. Wenden Sie sich an einen Vertriebsmitarbeiter zur Vereinbarung eines Termins für eine eine Live-Demonstration. Aufgezeichnete Demonstrationen finden Sie auf der Website von Hitachi Data Systems unter Corporate Resources. Klicken Sie auf die Registerkarte Product Demos, um eine Liste der verfügbaren aufgezeichneten Demonstrationen aufzurufen. Hitachi Data Systems Academy bietet erstklassige Schulungen zu den Produkten, Technologien, Lösungen und Zertifizierungen von Hitachi. Hierzu zählen auf Abruf verfügbare webbasierte Schulungen (WBT), von Dozenten geleitete Präsenzschulungen (ILT) sowie von Dozenten geleitete virtuelle Schulungen (vILT). Weitere Informationen erhalten Sie auf der Website von Hitachi Data Systems unter Services: Education. Wenn Sie mehr über Hitachi-Produkte und -Services erfahren möchten, wenden Sie sich an Ihren Vertriebsmitarbeiter oder Channel-Partner, oder besuchen Sie die Website von Hitachi Data Systems. Hauptniederlassung 750 Central Expressway, Santa Clara, California 95050-2627 USA www.HDS.com Regionale Kontaktinformationen Nord- und Südamerika: +1 408 970 1000 oder [email protected] Europa, Naher Osten, Afrika: +44 (0) 1753 618000 oder [email protected] Region Asien-Pazifik: +852 3189 7900 oder [email protected] Hitachi ist in den USA und anderen Ländern eine eingetragene Marke von Hitachi, Ltd. Hitachi Data Systems ist in den USA und anderen Ländern eine eingetragene Marke und Dienstleistungsmarke von Hitachi, Ltd. Alle anderen in diesem Dokument bzw. auf dieser Website erwähnten Marken, Dienstleistungsmarken und Unternehmensnamen sind Eigentum der jeweiligen Inhaber. Hinweis: Dieses Dokument dient ausschließlich zu Informationszwecken und beinhaltet keine ausdrückliche oder stillschweigende Garantie für Geräte oder Dienstleistungen, die von Hitachi Data Systems Corporation aktuell oder künftig angeboten werden. © Hitachi Data Systems Corporation 2012. Alle Rechte vorbehalten. AS-152-02 Oktober 2012