Bereitstellung von Microsoft Private Cloud auf Hitachi Unified Storage

Transcription

Bereitstellung von Microsoft Private Cloud auf Hitachi Unified Storage
Bereitstellung von Hitachi Unified Compute
Platform Select für Microsoft® Private Cloud auf
Hitachi Unified Storage
Leitfaden zur Referenzarchitektur
Von Rick Andersen
07. November 2012
Feedback
Hitachi Data Systems freut sich über Ihr Feedback. Anregungen nehmen wir
gerne per E-Mail an [email protected] entgegen. Nennen Sie für die bessere
Übermittlung dieser Nachricht die Dokumentnummer im Betreff und den Titel
dieses Whitepaper im Text.
Inhalt
Lösungsübersicht ............................................................................................................4
Schlüsselkomponenten der Lösung.............................................................................. 7
Hardware-Komponenten....................................................................................... 7
Software-Komponenten ........................................................................................9
Lösungsdesign ..............................................................................................................12
Übergeordnete Architektur ..................................................................................12
Hitachi Compute Blade 2000-Chassiskonfiguration ...........................................15
Hitachi Compute Blade 2000-Serverarchitektur .................................................15
Speicherarchitektur .............................................................................................16
SAN-Architektur ..................................................................................................22
Netzwerkarchitektur ............................................................................................24
Management-Architektur ....................................................................................28
Technische Validierung ................................................................................................ 35
1
1
Bereitstellung von Hitachi Unified
Compute Platform Select für
Microsoft® Private Cloud auf
Hitachi Unified Storage
Leitfaden zur Referenzarchitektur
Mit der Hitachi- und Unified Compute Platform Select für Microsoft Hyper-V
Private Cloud Fast Track-Lösung wird eine Referenzarchitektur für die Erstellung
von Private Clouds gemäß den speziellen Anforderungen Ihres Unternehmens
bereitgestellt. Diese Private Cloud Fast Track-Lösung ermöglicht Unternehmen
die einfache und sichere Bereitstellung von Private Clouds. Zu den Vorteilen
dieser Lösung gehören eine schnellere Bereitstellung, ein höheres Maß an
Vorhersehbarkeit sowie ein geringeres Risiko und niedrigere Betriebskosten,
wie nachfolgend dargelegt:


Schnellere Bereitstellung

Beschleunigen Sie die Bereitstellung einer ersten Cloud durch
die Installation einer vorvalidierten Referenzarchitektur.

Passen Sie die Infrastruktur durch die skalierbare Architektur den
Anforderungen der gegenwärtigen Marktsituation an.

Vereinfachen Sie die Bereitstellung von Infrastruktur und virtuellen
Maschinen durch integriertes Management.

Verkürzen Sie die Bereitstellung und Provisionierung von Ressourcen
durch die Nutzung eines Self-Service-Portals.
Geringeres Risiko

Stellen Sie eine Lösung bereit, deren Computing-, Speicher- und
Netzwerkkomponenten auf End-to-End-Interoperabilität getestet sind.

Stellen Sie eine vordefinierte und sofort einsatzbereite Lösung auf
der Grundlage einer gemeinsamen, bereits getesteten und validierten
Cloud-Architektur bereit.

Stellen Sie auf schnelle Weise virtuelle Maschinen dank dafür geeigneter
Infrastrukturressourcen bereit.

Ermöglichen Sie die Anpassung an Ausfälle durch eine Automatisierung,
die Ereignisse erkennt und entsprechend darauf reagiert.
2
2


Steigern Sie die Dichte an virtuellen Maschinen bei gleichbleibender
Performance durch die Erkennung und Behebung von möglichen
Engpässen mithilfe der Systemüberwachung.
Vorhersehbarkeit

Stellen Sie durch die zugrunde liegende Infrastruktur eine konsistente
Performance der gehosteten Workloads sicher.

Standardisieren Sie die zugrunde liegenden Server, Netzwerkgeräte
und Speichersysteme.

Senken Sie die Betriebskosten.

Nutzen Sie eine kostenoptimierte Plattform und softwareunabhängige
Lösung für die Integration von Rack-Systemen.

Profitieren Sie von der hohen Performance und Skalierbarkeit der Hitachi
Unified Storage-Lösungen in Verbindung mit Microsoft Windows 2008 R2
und Microsoft Hyper-V.
Hitachi Compute Blade 2000 bietet in Verbindung mit Hitachi Unified Storage eine
hochgradig verfügbare und skalierbare Plattform, auf der eine Private-CloudInfrastruktur erstellt werden kann.
Eines der Hauptziele der Private-Cloud-Lösung besteht in der schnellen
Provisionierung und Deprovisionierung von virtuellen Maschinen. Geschieht dies
in großem Umfang, sind enge Integration in die Speicherarchitektur und stabile
Automatisierung unerlässlich. Die Provisionierung einer neuen virtuellen
Maschine auf einer bereits vorhandenen LUN ist ein einfacher Vorgang.
Allerdings sind die Provisionierung einer neuen LUN zur Unterstützung
zusätzlicher virtueller Maschinen und das Hinzufügen zu einem Host-Cluster
komplizierte Aufgaben, die erheblich von einer Automatisierung profitieren.
Der Speicherarchitektur kommt beim Design von Hyper-V-Cloud-Lösungen
besondere Bedeutung zu. Dieses Thema stellt aufgrund der schnellen
Entwicklungen in den Bereichen Standards, Protokolle und Implementierungen
eine erhebliche Herausforderung dar. Der Speicher und das unterstützende
Speichernetzwerk sind ein wichtiger Faktor für die Gesamt-Performance der
Umgebung und die dadurch entstehenden Gesamtkosten. Hitachi Unified Storage
ist dank der Skalierbarkeit im Falle zusätzlicher in der Cloud gehosteter
Workloads und der hohen Verfügbarkeit dieser Workloads bestens geeignet für
Private Clouds.
3
3
Eine Private Cloud ist viel mehr als nur eine Infrastruktur mit hoher Verfügbarkeit,
die EDV-Ressourcen für übergeordnete Anwendungen bereitstellt. Cloud
Computing sorgt dafür, dass sich die IT immer weiter von einem Serverbetreiber
hin zu einem Serviceanbieter bewegt. Durch diese Veränderung wird eine Reihe
von Services erforderlich, die mit der Infrastruktur einhergehen, wie etwa
Reporting, Nutzungsüberwachung und Self-Service-Provisionierung. Sind diese
Services nicht verfügbar, ist die Serviceschicht der Cloud nicht verfügbar, und die
IT ist kaum mehr als nur ein herkömmliches Rechenzentrum. Deshalb ist eine
hohe Verfügbarkeit für die Management-Systeme unerlässlich.
Dieser Leitfaden zur Referenzarchitektur richtet sich an IT-Administratoren, die an
der Planung und dem Design von Rechenzentren beteiligt sind, insbesondere im
Hinblick auf die Planung und das Design einer Private-Cloud-Infrastruktur mit
Hyper-V. Vorausgesetzt wird ein gewisser Grad an Vertrautheit mit Hitachi Unified
Storage, Hitachi Storage Navigator Modular 2-Software, Microsoft Windows
Server 2008 R2 und Failover-Clustering in Hyper-V.
4
4
Lösungsübersicht
Die in diesem Dokument beschriebene Referenzarchitektur basiert auf Hardwareund Software-Virtualisierungsplattformen von Hitachi und Microsoft. Hitachi
Compute Blade 2000 wurde mit zwei unterschiedlichen Hyper-V-FailoverClustern, einem Mandanten-Cluster mit sechs Knoten, auf dem die virtuellen
Maschinen für die Produktion oder die Mandanten gehostet werden, und einem
Management-Cluster mit zwei Knoten konfiguriert. Der Management-Cluster
verfügt über die zur Bereitstellung von virtuellen Maschinen für den MandantenCluster erforderliche Software von Hitachi und Microsoft sowie über die Produkte
und Tools für das Management der Komponenten der Private-Cloud-Infrastruktur
in Hyper-V.
Mit den für diese Referenzarchitektur verwendeten Serverblades können pro
Blade durchschnittlich 32 virtuelle Maschinen gehostet werden. Dies entspricht
insgesamt 192 virtuellen Maschinen, die vom Mandanten-Cluster mit sechs
Knoten gehostet werden.
Die Referenzarchitektur bietet folgende Funktionen:

Hohe Verfügbarkeit der virtuellen Maschinen – Durch das Hyper-VFailover-Clustering von Hitachi Compute Blade 2000 sind die im FailoverCluster bereitgestellten virtuellen Maschinen hochgradig verfügbar. Falls
ein Blade im Cluster ausfällt, erfolgt ein automatischer Failover der auf
dem Blade ausgeführten virtuellen Maschine auf einen anderen Blade
im Cluster.

Live-Migration der virtuellen Maschinen – Zum Lastausgleich oder
vor der Durchführung von Wartungsarbeiten am Server kann eine virtuelle
Maschine durch den Administrator im laufenden Betrieb zu einem anderen
Blade im Cluster migriert werden.

Vorlagenbasierte Provisionierung von virtuellen Maschinen –
Vorlagen ermöglichen Administratoren die schnelle Bereitstellung von
virtuellen Maschinen.

Self-Service-Provisionierung von virtuellen Maschinen –
Administratoren können anderen Benutzern oder der
Unternehmensleitung Berechtigungen erteilen. Dadurch können diese
Personen mithilfe einer Webschnittstelle und vorher erstellter Vorlagen
virtuelle Maschinen erstellen.

Integration in System Center Operations Manager – Hitachi bietet
Überwachungspakete für Hitachi Compute Blade 2000 und Hitachi Unified
Storage. Diese Pakete ermöglichen die Benachrichtigung des
Administrators im Falle von Warnmeldungen.
Der Umfang dieser Referenzarchitektur richtete sich nach folgenden
Gesichtspunkten:
5
5

Tolerieren des Ausfalls eines einzelnen Hyper-V-Hosts im MandantenKnoten-Cluster und weiteres Ausführen der virtuellen Maschinen des
ausgefallenen Knotens durch einen Neustart auf anderen Knoten im
Failover-Cluster.

Reservieren der geeigneten Speichermenge für die Hyper-VManagement-Partition.

Bereitstellung ausreichender Speicherkapazität und SpeicherPerformance auf Hitachi Unified Storage zur Unterstützung der
virtuellen Maschinen.
Abbildung 1 zeigt eine Designübersicht der in diesem Whitepaper dokumentierten
Referenzarchitektur.
Infrastruktur des Kunden
1-Gbit-/10-GbitNetzwerk
Active Directory
DNS
Hardware-Management
1-Gbit-Link
1-Gbit-/10-Gbit-Netzwerk
UCP Select für die Managementund Mandanten-Cluster der Microsoft Private Cloud
Hitachi Compute Blade 2000
1-GbitNetzwerk
Management
Station
Hitachi Unified Storage
1 Gb
Network
FC/iSCSI
Mandanten-Cluster
Management-Cluster
Productions-VMs
Storage Navigator
Modular 2
System Center
Management-Tools
Abbildung 1
10 Gbit
1 Gbit
6
6
Zur Unterstützung dieser Referenzarchitektur müssen verschiedene
Komponenten bereits vorhanden sein oder bereitgestellt werden. Active Directory
und Domain Name Services sind für die Unterstützung der Hyper-V-FailoverCluster und Management-Produkte wie System Center, Virtual Machine Manager
2012 und System Center Operations Manager 2012 erforderlich. Darüber hinaus
muss ein Netzwerk zur Unterstützung des Out-of-Band-Hardware-Managements
von Hitachi Compute Blade 2000 und Hitachi Unified Storage vorhanden sein.
7
7
Schlüsselkomponenten der Lösung
Dies sind Beschreibungen der zur Bereitstellung dieser Lösung verwendeten
Hardware- und Software-Schlüsselkomponenten.
Hardware-Komponenten
In Tabelle 1 sind die genauen Daten der zur Validierung im Labor von Hitachi Data
Systems verwendeten Hardware-Komponenten aufgeführt.
Tabelle 1. Hardware-Komponenten
Hardware
Beschreibung
Version
Menge
Hitachi Unified Storage 150

Doppel-Controller
0915/B-H
1

8 Fibre-Channel-Ports mit 8 Gbit/s

4 iSCSI-Ports mit 1 Gbit/s

16 GB Cache-Speicher

274 SAS-SFF-2,5"-Laufwerke mit
600 GB und 10.000 U/min

26 SAS-Festplatten mit 2 TB und
7.200 U/min

Chassis für 8 Blades
A0154-E-5234
1

2 Fibre-Channel-Switches mit
8 Gbit/s

4 Netzwerk-Switches mit
1/10 Gbit/s

8 externe Netzwerk-Ports mit
10 Gbit/s

2 Management-Module

8 Lüftermodule


4 Netzteilmodule
58.22
8

2 × Quad-Core Intel Xeon X5640
mit 2,66 GHz

128 GB Arbeitsspeicher pro Blade
Hitachi Compute Blade 2000Chassis
Hitachi Compute Blade 2000
E55A2-Blades
Vollständiger Blade
8
8
Hitachi Unified Storage
Hitachi Unified Storage ist eine Midrange-Speicherplattform für alle Daten.
Sie unterstützt Unternehmen bei der Erfüllung von Service-Level-Agreements
in den Bereichen Verfügbarkeit, Performance und Datensicherheit.
Die von Hitachi Unified Storage bereitgestellte Performance ist zuverlässig,
skalierbar und für Block- und File-Daten verfügbar. Unified Storage verfügt über
einfaches Management, ist für kritische Unternehmensanwendungen optimiert
und arbeitet effizient.
Unified Storage ist mit geringeren Anschaffungskosten verbunden. Der Speicher
wächst mit den Anforderungen und Service-Level-Agreements und ist für die
Bereitstellung von kritischen Unternehmensanwendungen gedacht. Integriertes
Setup und Management vereinfachen den Betrieb und beschleunigen
die Wertschöpfung.
Unified Storage ermöglicht erhebliche Kosteneinsparungen durch die
Konsolidierung von File- und Block-Daten. Erstellen Sie je nach Bedarf eine
Cloud zur Bereitstellung Ihrer Services.
Hitachi Unified Storage 150 bietet flexiblen, skalierbaren und kosteneffektiven
modularen Speicher. Die symmetrischen Active/Active-Controller bieten einen
integrierten, automatischen und hardwarebasierten E/A-Lastausgleich.
Beide Controller in Unified Storage 150 weisen die Zugriffspfade von Controller zu
logischer Einheit (LU) automatisch und dynamisch zu. Es besteht Zugriff auf alle
LUs, ganz gleich, um welchen physischen Port es sich handelt oder welcher
Server Zugriff anfordert.
Hitachi Compute Blade 2000
Hitachi Compute Blade 2000 ist eine Bladeserver-Plattform der EnterpriseKlasse. Sie verfügt über folgende Funktionen:

Eine ausgewogene Systemarchitektur, die keine Engpässe bei
Performance und Durchsatz zulässt

Flexibilität bei der Konfiguration

Umweltfreundliche Energiesparfunktionen

Schnelle Wiederherstellung bei Serverausfällen mithilfe einer N+1 Cold
Standby-Ausführung zum Austausch von ausgefallen Servern innerhalb
weniger Minuten
Hitachi Compute Blade 2000 ist ideal für eine Private-Cloud-Lösung geeignet.
Das Chassis enthält interne Fibre-Channel- und Netzwerk-Switches zur
Einhaltung der Anforderungen an hohe Verfügbarkeit im Rahmen des Microsoft
Private Cloud-Programms.
9
9
Software-Komponenten
In Tabelle 2 ist die in dieser Referenzarchitektur verwendete Software aufgeführt.
Tabelle 2. Software-Komponenten
Software
Version
Hitachi Storage Navigator Modular 2
Abhängig vom Microcode
Hitachi Dynamic Provisioning
Abhängig vom Microcode
Microsoft Multipath I/O (MPIO)
006.0001.7600.16385
Microsoft Windows Server 2008 (für Hyper-V-Server)
Datacenter Edition, R2
Microsoft Windows Server 2008 (für alle virtuellen Maschinen)
Enterprise Edition, R2
Microsoft SQL Server 2008
Enterprise Edition, R2
Microsoft System Center Virtual Machine Manager
2012
Microsoft Systems Center Operations Manager
2012
Microsoft Systems Center Configuration Manager
2012
Microsoft System Center Orchestrator
2012
Microsoft Deployment Toolkit
2010
Microsoft Windows Deployment Services 2008
R2
Hitachi Dynamic Provisioning
Hitachi Dynamic Provisioning bietet auf Hitachi-Speichersystemen Funktionen für
Wide Striping und Thin Provisioning.
Die Verwendung von Dynamic Provisioning gleicht einem hostbasierten logischen
Volume-Manager (LVM), allerdings ohne den anfallenden VerarbeitungsOverhead. Dynamic Provisioning bietet einen oder mehrere Wide-Striping-Pools
über viele RAID-Gruppen hinweg. Für jeden Pool werden ein oder mehrere
Dynamic Provisioning Virtual Volumes (DP-VOLs) mit einer von Ihnen
festgelegten logischen Größe von bis zu 60 TB erstellt, ohne dass vorher
physischer Speicherplatz zugewiesen werden muss.
Durch die Bereitstellung von Dynamic Provisioning werden die typischen
Probleme im Zusammenhang mit besonders stark beanspruchten Bereichen,
sogenannten Hotspots, auf logischen Speichergeräten (LDEVs) vermieden.
Diese sind innerhalb einzelner RAID-Gruppen anzutreffen, sobald die Workload
des Hosts die IOPS- oder Durchsatzkapazität der RAID-Gruppe überschreitet.
Mit Dynamic Provisioning wird die Workload des Hosts über mehrere RAIDGruppen verteilt, wodurch die Prozesse reibungsloser vonstatten gehen und
Hotspots vermieden werden können.
10
10
In Verbindung mit Hitachi Unified Storage bietet Hitachi Dynamic Provisioning den
Vorteil von Thin Provisioning. Die Zuweisung des physischen Speichers aus dem
Pool an das Dynamic Provisioning Volume erfolgt nach Bedarf in 1-GB-Schritten,
bis die für jedes Dynamic Provisioning Volume festgelegte logische Größe
erreicht ist. Die Kapazität des Pools kann ohne Unterbrechung oder Ausfallzeit
dynamisch erweitert oder verkleinert werden. Ein erweiterter Pool kann für ein
gleichmäßiges Striping von Daten und Workload über aktuelle und neu
hinzugefügte RAID-Gruppen hinweg neu angepasst werden.
Microsoft Hyper-V 2008 R2
Microsoft Windows Hyper-V ist eine Hypervisor-basierte Virtualisierungstechnologie, die in den Versionen Windows Server 2008 x64 und Windows
Server 2008 R2 in das Betriebssystem integriert ist. Mit ihr lassen sich durch
Serverkonsolidierung der Platzbedarf von Hardware und die Kosten für
Investitionen reduzieren.
Microsoft System Center Virtual Machine Manager 2012
(SCVMM)
Virtual Machine Manager 2012 ermöglicht ein zentrales Management der
physischen und virtuellen IT-Infrastruktur, eine höhere Serverauslastung und eine
dynamische Ressourcenoptimierung über mehrere Virtualisierungsplattformen
hinweg. Die Komponente umfasst End-to-End-Funktionen für die Planung,
Bereitstellung, Verwaltung und Optimierung der virtuellen Infrastruktur. Bei dieser
Lösung wird SCVMM ausschließlich für das Management von Gästen und Hosts
der Hyper-V-Private-Cloud in einem einzigen Rechenzentrum eingesetzt.
Microsoft System Center Orchestrator
System Center Orchestrator vereinfacht die Automatisierung der Aufgaben
des Systemadministrators. Orchestrator verwendet zur Erstellung der
Automatisierungsprozesse einen GUI-basierten Ansatz. Mit System Center
Orchestrator werden Überwachungs- und Aktionsprozesse zur Ausführung
bestimmter Vorgänge erstellt, wie der Erstellung virtueller Maschinen oder
der Bereitstellung von Software-Updates.
Microsoft System Center Operation Manager 2012
Operation Manager-Agenten wurden für die Fabric-Management-Hosts und
virtuellen Maschinen bereitgestellt. Diese gastinternen Agenten werden nur
zur Überwachung der Performance und des Zustands des Betriebssystems
verwendet. Die Operation Manager-Instanz wird nur für die Überwachung der
Hyper-V-Cloud-Infrastruktur verwendet.
Microsoft System Center Configuration Manager 2012
System Center Configuration Manager 2012 führt umfassende Bewertungen,
Bereitstellungen und Updates der Server, Client-Computer und Geräte über
physische, virtuelle, verteilte und mobile Umgebungen hinweg durch.
11
11
Microsoft Deployment Toolkit
Microsoft Deployment Toolkit (MDT) ist für die Netzwerkbereitstellung von
Windows 2008 R2 zuständig. Die gesamte für die Installation erforderliche
Software (Betriebssystem, Treiber und Updates) sind zu Bereitstellungspaketen
zusammengefasst. Diese Bereitstellungspakete werden mittels eines
MDT-Servers über das Netzwerk gesendet.
12
12
Lösungsdesign
Dieser Abschnitt enthält genaue Informationen zum Design der in dieser
Referenzarchitektur verwendeten Microsoft Hyper-V Private Cloud. Er umfasst
die Software- und Hardware-Designinformationen, die zur Erstellung der
grundlegenden Infrastruktur für die Private-Cloud-Umgebung erforderlich sind.
Übergeordnete Architektur
Zur Gewährleistung eines einfachen Managements, guter Skalierbarkeit und
vorhersehbarer Performance werden bei dieser Lösung Hitachi Compute Blade
2000 und Hitachi Unified Storage als Ressourcen-Pools zur Unterstützung der
Private-Cloud-Architektur verwendet. Hitachi Compute Blade 2000 bietet
ausreichend Ressourcen, um eine Großzahl an virtuellen Maschinen zu hosten.
Hitachi Unified Storage unterstützt Hitachi Dynamic Provisioning zur
Vereinfachung des Managements und zur schnellen Bereitstellung von
virtuellen Maschinen.
Bei dieser Referenzarchitektur wird ein Hitachi Compute Blade 2000-Chassis mit
acht Blades verwendet. Auf allen Blades kommt Microsoft Windows 2008 R2
Hyper-V mit Failover-Clustering zum Einsatz. Es wurde ein Hyper-V-FailoverCluster mit zwei Knoten konfiguriert zur Unterstützung der ManagementInfrastruktur und zur Bereitstellung hoher Verfügbarkeit. Dieser ManagementCluster mit zwei Knoten unterstützt die Bereitstellung und das Management
der virtuellen Maschinen mittels Virtual Machine Manager 2008 R2 und Virtual
Machine Manager-Self-Service-Portal. Darüber hinaus werden auf diesem
Hochverfügbarkeits-Cluster die Tools und Dienstprogramme für die Überwachung
und Erfassung der Performance der Private-Cloud-Infrastruktur gehostet.
Ein Microsoft Hyper-V-Failover-Cluster mit sechs Knoten wurde zum Hosten
der virtuellen Maschinen der Mandanten konfiguriert, die über den ManagementCluster bereitgestellt werden. So besteht die Möglichkeit, virtuelle Maschinen
schnell zwischen den Knoten des Clusters zu verschieben und für hohe
Verfügbarkeit zu sorgen.
Zur Unterstützung der Speicheranforderungen hinsichtlich Kapazität,
Performance und schneller Provisionierung einer Private-Cloud-Infrastruktur
wurde Hitachi Unified Storage bereitgestellt und für die Verwendung von Hitachi
Dynamic Provisioning-Pools konfiguriert.
Die Speicherkonfiguration für die Private-Cloud-Architektur besteht aus vier auf
Hitachi Unified Storage konfigurierten Dynamic Provisioning-Pools. Ein Pool dient
zum Hosten der virtuellen Festplatten (VHDs) für die Betriebssysteme der
virtuellen Maschinen, zwei Pools dienen zum Hosten der Anwendungsdaten und
ein Pool dient zum Speichern der Backup-Daten. In den Dynamic ProvisioningPools für die Betriebssysteme und Anwendungsdaten wurden LUNs für
freigegebene Cluster-Volumes (CSV) zugewiesen. Die vom Backup-Pool
zugeordneten LUNs sind Standard-LUNs.
13
13
Mit 32 TB verfügt der Backup-Pool der Referenzarchitektur über genügend
Kapazität für die Verwendung von Microsoft Data Protection Manager 2012 oder
die Unterstützung einer vorhandenen Backup-Strategie, um einen ausreichenden
Schutz der Speicherumgebung zu gewährleisten. Genaue Informationen zum
Schutz von Hyper-V-CSVs mit Data Protection Manager 2012 und Hitachi Data
Systems VSS Hardware Provider erhalten Sie unter Protecting Hyper-V CSVs
with Microsoft Data Protection Manager and the Hitachi VSS Hardware Provider
on the Hitachi Adaptable Modular Storage 2000 Family Implementation
Guide (US).
Die in dem Management-Cluster mit zwei Knoten gehosteten Microsoft System
Center-Management-Tools wurden für die bedarfsmäßige Zuweisung der
virtuellen Maschinen und der dazugehörigen Anwendungsdaten-LUNs über
die Dynamic Provisioning-Pools hinweg verwendet. Es wird empfohlen,
die Zuweisung der Anwendungs-LUNs nach einem Round-Robin-Verfahren
vorzunehmen, um das Management der Anwendungsdaten einzelner virtueller
Maschinen in den zwei für Anwendungsdaten verwendeten Pools zu minimieren.
Abbildung 2 zeigt das physische Layout der Referenzarchitektur für Hitachi
Hyper-V Cloud Fast Track.
14
14
Dynamic Provisioning-Pool 4
für Backup
Dynamic Provisioning-Pool 3
für Anwendungsdaten
Dynamic Provisioning-Pool 2
für Anwendungsdaten
Dynamic Provisioning Pool 1
für BS/VHDs
Hitachi Unified Storage
Hyper-V-MandantenCluster mit 6 Knoten
Hyper-VManagement-Cluster
mit 2 Knoten
Windows Server 2008 R2 mit
Hyper-V-Failover-Clustering
Windows Server
2008 R2 mit
Hyper-V-FailoverClustering
Systems Center Operations und
Configuration Manager 2012
Hitachi Compute Blade
2000
Abbildung 2
Systems Center Virtual Machine
Manager 2012
Systems Center Virtual
Machine Self-Service-Portal
15
15
Hitachi Compute Blade 2000-Chassiskonfiguration
Bei der Referenzarchitektur werden acht X55A2-Blades, vier 1-/10-Gbit/s-LANSwitchmodule und zwei Fibre-Channel-Switchmodule verwendet. Jeder Blade
verfügt über zwei Onboard-NICs und vier zusätzliche NICs durch eine MezzanineKarte. Jede dieser NICs ist mit einem LAN-Switchmodul verbunden. Jeder Blade
verfügt außerdem über eine Fibre-Channel-Mezzanine-Karte mit 2 Ports, die mit
beiden Fibre-Channel-Swichmodulen verbunden ist.
Abbildung 3 zeigt eine Vorder- und Rückansicht des in dieser Lösung
verwendeten Hitachi Compute Blade 2000.
8 x Standard-Blade
X55A21
4 x 1-/10-Gbit-LANSwitchmodul
2 x 8-Gbit-FibreChannel-Switchmodul
Hitachi Compute Blade 2000 (Vorderseite)
Hitachi Compute Blade 2000 (Rückseite)
Abbildung 3
Hitachi Compute Blade 2000-Serverarchitektur
Die Architektur des Hostservers ist eine kritische Komponente der virtuellen
Infrastruktur. Durch die Fähigkeit des Hostservers, die Workload einer großen
Anzahl an Konsolidierungskandidaten zu unterstützen, steigt die
Konsolidierungsrate und sinken die Kosten.
Wegen der Unterstützung vieler virtueller Maschinen pro Blade und der Erfüllung
der im Rahmen des Microsoft-Private-Cloud-Programms gestellten
Anforderungen hinsichtlich Prozessor, RAM und Netzwerkfunktionen wurde
Hitachi Compute Blade 2000 für diese Referenzarchitektur ausgewählt.
16
16
In Tabelle 3 wird die Blade-Konfiguration aufgeführt. Jeder Blade verwendet
Windows 2008 R2 Datacenter mit zwei Quad-Core Xeon X5640-Prozessoren mit
2,66 GHz und 128 GB RAM.
Tabelle 3. Blade-Konfiguration
Bladeserver
Servername
Rolle
Blade 0
CFT-Knoten0
Mandanten-VMs des Hyper-V-Hosts
Blade 1
CFT-Knoten1
Blade 2
CFT-Knoten2
Blade 3
CFT-Knoten3
Blade 4
CFT-Knoten4
Blade 5
CFT-Knoten5
Blade 6
CFT-Knoten6







Hyper-V-Management
CFT-Knoten7



Hyper-V-Management
Blade 7
Mandanten-VMs des Hyper-V-Hosts
Mandanten-VMs des Hyper-V-Hosts
Mandanten-VMs des Hyper-V-Hosts
Mandanten-VMs des Hyper-V-Hosts
Mandanten-VMs des Hyper-V-Hosts
Hyper-V-Host
Hyper-V-Host
Tests haben ergeben, dass mit dieser Hitachi Compute Blade 2000-Konfiguration
bis zu 32 virtuelle Maschinen pro Blade gehostet werden können. Damit stehen,
wie in der Referenzarchitektur beschrieben, insgesamt 192 virtuelle Maschinen
in einem Hyper-V-Failover-Cluster mit sechs Knoten zur Verfügung.
Hyper-V-Hostbetriebssystem und -Auslagerungsdateien jedes Blades befanden
sich auf zwei lokalen 146-GB-SAS-Laufwerken, die aus Performanceund Verfügbarkeitsgründen als RAID-1 konfiguriert waren.
Speicherarchitektur
Für die Hyper-V-Private-Cloud-Architektur wurde Hitachi Unified Storage
verwendet. Bei dieser Architektur werden die VHDs für das Betriebssystem
und die VHDs für die Anwendungen der virtuellen Maschinen in Hitachi Dynamic
Provisioning-Pools gehostet.
Alle LUNs in der Umgebung erscheinen den Hyper-V-Hosts als CSVs mit
Ausnahme der LUNs für die Backup-Daten. Drei Dynamic Provisioning-Pools
werden zum Hosten der VHDs der virtuellen Maschinen zugewiesen. Pool 1
wurde zum Hosten der VHDs für das Betriebssystems der Gastmaschine
verwendet und Pool 2 und 3 zum Hosten der Daten-LUNs für die virtuellen
Gastmaschinen.
17
17
Abbildung 4 zeigt ein übergeordnetes Diagramm der Hitachi Unified
Storage-Konfiguration.
Einschub 12
Backup Pool 4
Einschub 11
Einschub 10
VMAnwendungsdatenPool 3
Einschub 9
Einschub 8
Einschub 7
Einschub 6
Einschub 5
Einschub 4
Einschub 3
VMAnwendungsdatenPool 2
Einschub 2
Einschub 1
Einschub 0
BS-VHD-Pool 1
Hitachi Unified Storage 150
274 SAS-SFF-Festplatten mit 600 GB
und 10.000 U/min
26 NL-SAS-Festplatten mit 2 TB
und 7.200 U/min
Abbildung 4
Verfügbar
und nicht
zugewiesen
Ersatz
18
18
Freigegebene Cluster-Volumes (CSVs)
Bei dieser Referenzarchitektur wurden CSVs zum Hosten des Betriebssystems
und der Anwendungsdaten der virtuellen Maschinen implementiert. CSVs werden
ausschließlich für das Hyper-V-Failover-Clustering verwendet. Mit ihnen können
alle Knoten im Cluster gleichzeitig auf dieselben Cluster-Speichervolumes
zugreifen. Dieses Vorgehen umgeht die Beschränkung auf eine virtuelle
Maschine pro LUN und ermöglicht mehrere virtuelle Maschinen für ein einziges
CSV. Dadurch wird das Management der Speicherinfrastruktur in einer PrivateCloud-Umgebung vereinfacht.
Da alle Cluster-Knoten in der Lage sind, gleichzeitig auf alle CSVs zuzugreifen,
können Standardmethoden für die LUN-Zuweisung verwendet werden, die sich
nach den voraussichtlichen Performance- und Kapazitätsanforderungen der
Workloads richten. Microsoft empfiehlt bei den virtuellen Maschinen die Trennung
der E/A-Vorgänge des Betriebssystems von den EA-Vorgängen der
Anwendungsdaten. Das ist der Grund für die Erstellung mehrerer Dynamic
Provisioning-Pools zum Hosten der CSVs – ein Pool für die Betriebssystem-VHDs
der virtuellen Maschinen und zwei zusätzliche Pools zur Unterstützung der
anwendungsspezifischen VHDs.
Die CSV-Architektur unterscheidet sich von anderen herkömmlichen gruppierten
File-Systemen. Dadurch werden Einschränkungen bei der Skalierbarkeit
umgangen, wie etwa die Einschränkung auf eine virtuelle Maschine pro LUN und
Einschränkungen bei der Vergabe von Laufwerksbuchstaben. Deshalb müssen
keine Besonderheiten bei der Skalierung der Anzahl an Hyper-V-Knoten oder
virtuellen Maschinen auf einem CSV-Volume beachtet werden.
Allerdings muss bedacht werden, dass es unter den virtuellen Festplatten aller
virtuellen Maschinen, die auf einem bestimmten CSV ausgeführt werden,
zu Speicher-E/A-Konflikten kommt. Deshalb ist es wichtig, die E/A-WorkloadMerkmale dieser auf den CSVs in Dynamic Provisioning-Pools gehosteten virtuellen
Maschinen zu kennen. Hier müssen die IOPS-Anforderungen sowie das E/A-Profil
(z. B. zufällige Lese- und Schreibvorgänge oder sequenzielle Schreibvorgänge)
jeder bereitzustellenden virtuellen Maschine berücksichtigt werden.
RAID-Konfiguration
Um bis zu 196 virtuelle Maschinen zu unterstützen, kommt bei dieser
Referenzarchitektur eine RAID-6-Konfiguration (6D+2P) mit 600-GB-SAS-Festplatten
(10.000 U/min) zum Hosten der CSVs zum Einsatz. Ein RAID-6-Pool (6D+2P) mit
2-TB-SAS-Festplatten (7.200 U/min) wird zur Unterstützung des Backups der CSVVolumes verwendet. Die vier bei dieser Lösung verwendeten Hitachi Dynamic
Provisioning-Pools wurden aus 36 RAID-6-Gruppen (6D+2P) erstellt.
19
19
In Abbildung 4 werden die Konfigurationen für die Dynamic Provisioning-Pools
aufgeführt, die im Labor von Hitachi Data Systems verwendet wurden.
Tabelle 4. Dynamic Provisioning-Konfiguration für Cloud Fast Track-Architektur
Dynamic ProvisioningPool
Anzahl der RAIDGruppen
Anzahl
der
Laufwerke
Nutzbare
Pool-Kapazität
(TB)
1
3
24
10,2
2
15
120
51,0
3
15
120
51,0
4
3
24
32,2
Pool-Konfiguration
Pool 1 umfasst die Betriebssystem-VHDs der virtuellen Maschinen für das
Management und die Mandanten. Pools 2 und 3 umfassen CSVs für die Zuweisung
zu den Anwendungsdatenbanken und -Files der virtuellen Gastmaschine.
Tabelle 5 zeigt die LUN-Zuweisung für jeden Dynamic Provisioning-Pool,
die im Labor von Hitachi Data Systems verwendet wurde.
Tabelle 5. LUN-Zuweisung
LUN-Zuweisung
Dynamic
Provisioning-Pool
LUNGröße
(GB)
LUNs
Speicher-Ports
Hyper-VCluster
Freigegebenes Cluster-Volume 1 Pool 1
5000
00
0F, 1F
Management
Quorumlaufwerk des
Management-Clusters
1
01
Freigegebenes Cluster-Volume 1 Pool 2
5000
00
0E, 1E, 0G, 1G
Mandant
Freigegebenes Cluster-Volume 2
5000
01
0H, 1H
Freigegebenes Cluster-Volume 3
5000
02
Freigegebenes Cluster-Volume 4
5000
03
Freigegebenes Cluster-Volume 5
5000
04
Freigegebenes Cluster-Volume 6
5000
05
Freigegebenes Cluster-Volume 7
5000
06
Freigegebenes Cluster-Volume 8
5000
07
20
20
Tabelle 5. LUN-Zuweisung (Fortsetzung)
LUN-Zuweisung
Dynamic
Provisioning-Pool
LUNGröße
(GB)
LUNs
Speicher-Ports
Hyper-VCluster
Freigegebenes Cluster-Volume 9
Pool 3
5000
08
0E, 1E, 0G, 1G
Mandant
Freigegebenes Cluster-Volume 10
5000
09
0H, 1H
Freigegebenes Cluster-Volume 11
5000
0A
Freigegebenes Cluster-Volume 12
5000
0B
Freigegebenes Cluster-Volume 13
5000
0C
Freigegebenes Cluster-Volume 14
5000
0D
Freigegebenes Cluster-Volume 15
5000
0E
Freigegebenes Cluster-Volume 16
5000
0F
Quorumlaufwerk des MandantenClusters
1
10
Laufwerks- und LUN-Konfiguration
Jede LU des Speichers wird den Knoten des Hyper-V-Mandanten- oder Hyper-VManagement-Clusters als LUN dargestellt.
Abbildung 5 zeigt ausführlich die bei dieser Lösung verwendete Laufwerkskonfiguration.
21
21
Backup-Pool 4
24 2-TBNL-SASFestplatten
Einschub 12
RG-34
Einschub 11
RG-33
Einschub 10
RG-30
Einschub 9
RG-35
RG-36
RG-32
RG-31
RG-27
RG-28
Einschub 8
RG-24
Einschub 7
RG-21
RG-22
Einschub 6
RG-18
RG-19
Einschub 5
RG-15
RG-29
RG-25
RG-27
RG-23
Einschub 4
RG-12
RG-13
RG-14
Einschub 3
RG-9
RG-10
RG-11
Einschub 2
RG-7
RG-8
Einschub 1
RG-4
RG-5
Einschub 0
RG-1
RG-2
VMAnwendungsdatenPool 3
120 600-GBSASFestplatten
RG-30
RG-26
RG-16
RG-24
RG-20
RG-21
RG-17
RG-18
RG-15
VMAnwendungsdatenPool 2
120 600-GBSASFestplatten
RG-12
RG-9
Hitachi Unified Storage 150
274 SAS-SFF-Festplatten mit 600 GB
und 10.000 U/min
26 NL-SAS-Festplatten mit 2 TB
und 7.200 U/min
Abbildung 5
RG-33
RG-6
BS-VHD-Pool 1
24 600-GBSASFestplatten
RG-3
Verfügbar
und nicht
zugewiesen
Ersatz
22
22
SAN-Architektur
Die Architektur des Storage Area Network besteht aus zwei Fibre-ChannelSwitchmodulen im Hitachi Compute Blade 2000-Chassis. Der ManagementCluster des Hyper-V-Hosts verfügt mit Port 0F und 1F über zwei Pfade zu Hitachi
Unified Storage. Der Mandanten-Cluster des Hyper-V-Hosts verfügt mit den Ports
0E, 0G, 0H und 1E, 1G und 1H über sechs Pfade zu Hitachi Unified Storage.
Die in Abbildung 6 gezeigte Konfiguration unterstützt hohe Verfügbarkeit durch
die Bereitstellung mehrerer Pfade von den Hosts innerhalb des Hitachi Compute
Blade 2000 zu mehreren Hitachi Unified Storage-Ports.
Blade 0
Blade 1
Blade 2
Blade 3
Blade 4
Blade 5
FC-SW 5
0E
Blade 6
FC-SW 4
0F
Hitachi Unified Storage
150
Abbildung 6
0G
0H
1E
1F
1G
1H
Blade 7
23
23
Für das Multipathing wird die Microsoft MPIO-Software mit Round-RobinRichtlinie verwendet. Der Round-Robin-Lastausgleichalgorithmus von Microsoft
MPIO wählt automatisch einen Pfad, indem abwechselnd alle verfügbaren Pfade
verwendet werden. Dadurch findet ein Lastausgleich über alle verfügbaren Pfade
hinweg statt. Dies führt zu einer Optimierung der IOPS und Antwortzeiten.
In Tabelle 6 ist die Konfiguration der Pfade dargestellt.
Tabelle 6. Pfadkonfiguration
Blade-HBAund PortNummer
Switch
Zonenname
SpeichersystemPort
SpeichersystemHostgruppe
Blade 0
HBA 1 Port 1
FCSW-0
Blade_0_HBA1_1_SW0_HUS_0E_1E
0E
Blade0_HBA1_1
Blade 0
HBA 1 Port 2
FCSW-1
Blade 1
HBA 1 Port 1
FCSW-0
Blade 1
HBA 1 Port 2
FCSW-1
Blade 2
HBA 1 Port 1
FCSW-0
Blade 2
HBA 1 port 2
FCSW-1
Blade 3
HBA 1 port 1
FCSW-0
Blade 3
HBA 1 port 2
FCSW-1
Blade 4
HBA 1 port 1
FCSW-0
Blade 4
HBA 1 port 2
FCSW-1
Blade 5
HBA 1 port 1
FCSW-0
Blade 5
HBA 1 port 2
FCSW-1
1E
Blade_0_HBA1_2_SW1_HUS_0E_1E
0E
Blade0_HBA1_2
1E
Blade_1_HBA1_1_SW0_HUS_0E_1E
0E
Blade1_HBA1_1
1E
Blade_1_HBA1_2_SW1_HUS_0E_1E
0E
Blade1_HBA1_2
1E
Blade_2_HBA1_1_SW0_HUS_0G_1G
0G
Blade2_HBA1_1
1G
Blade_2_HBA1_2_SW1_HUS_0G_1G
0G
Blade2_HBA1_2
1G
Blade_3_HBA1_1_SW0_HUS_0G_1G
0G
Blade3_HBA1_1
1G
Blade_3_HBA1_2_SW1_HUS_0G_1G
0G
Blade3_HBA1_2
1G
Blade_4_HBA1_1_SW0_HUS_0H_1H
0H
Blade4_HBA1_1
1H
Blade_4_HBA1_2_SW1_HUS_0H_1H
0H
Blade4_HBA1_2
1H
Blade_5_HBA1_1_SW0_HUS_0H_1H
0H
Blade5_HBA1_1
1H
Blade_5_HBA1_2_SW1_HUS_0H_1H
0H
1H
Blade5_HBA1_2
24
24
Tabelle 6. Pfadkonfiguration (Fortsetzung)
Blade-HBAund PortNummer
Switch
Zonenname
SpeichersystemPort
SpeichersystemHostgruppe
Blade 6
HBA 1 Port 1
FCSW-0
Blade_6_HBA1_1_SW0_HUS_0F_1F
0F
Blade6_HBA1_1
Blade 6
HBA 1 Port 2
FCSW-1
Blade 7
HBA 1 Port 1
FCSW-0
Blade 7
HBA 1 Port 2
FCSW-1
1F
Blade_6_HBA1_2_SW1_HUS_0F_1F
0F
Blade6_HBA1_2
1F
Blade_7_HBA1_1_SW0_HUS_0F_1F
0F
Blade7_HBA1_1
1F
Blade_7_HBA1_2_SW1_HUS_0F_1F
0F
Blade7_HBA1_2
1F
iSCSI-Architektur
Zur Unterstützung der Verbindung von virtuellen Maschinen, die iSCSIVerbindungen erfordern, sind auf Hitachi Unified Storage iSCSI-Zielports
vorhanden. iSCSI ist bei dieser Referenzarchitektur für die Unterstützung von
Gast-Clustering vorgesehen, falls dies in der Kundenumgebung erforderlich ist.
Gast-Clustering wird nicht unterstützt, wenn Fibre-Channel-Verbindungen in
einem Hyper-V-Failover-Cluster verwendet werden.
Die verfügbaren iSCSI-Verbindungen befinden sich auf den Ports 0A, 0B, 1A
und 1B. Für den iSCSI-Speicherverkehr wurde bei dieser Referenzarchitektur
ein physikalisch getrenntes Netzwerk verwendet, um Performance und Durchsatz
zu steigern.
Netzwerkarchitektur
Damit Private-Cloud-Lösungen sowohl hohe Netzwerk-Performance als
auch hohe Verfügbarkeit bieten, ist ein geeignetes Netzwerkdesign wichtig.
Das Netzwerk muss außerdem in der Lage sein, die verschiedenen Arten von
Verkehr einer virtuellen Umgebung voneinander zu trennen.
Dazu wurden die Empfehlungen im Rahmen der Best Practices von Microsoft für
Private-Cloud-Implementierungen befolgt und der Netzwerkverkehr folglich in
separate Netzwerke aufgeteilt. Jeder Netzwerktyp ist einem anderen Subnetz
zugewiesen. Subnetze werden dazu verwendet, die Konfiguration in kleinere
und effizientere Netzwerke aufzuteilen. Eine weitere Trennung der Netzwerktypen
erfolgt durch die Verwendung von VLAN-Trennung und dedizierten
Netzwerk-Switches.
25
25
Bei der VLAN-basierten Netzwerksegmentierung oder -trennung müssen mehrere
Komponenten korrekt konfiguriert sein, um sowohl schnelle Provisionierung als
auch Netzwerksegmentierung, einschließlich Host-Server, Host-Cluster, VMM
und Netzwerkswitches, zu ermöglichen. Bei Hyper-V und den Host-Clustern
müssen identische virtuelle Netzwerke auf allen Knoten festgelegt werden,
damit ein Failover von einer virtuellen Maschine auf einen Knoten erfolgen kann
und ihre Verbindung zum Netzwerk aufrechterhalten wird.
Daher werden bei dieser Referenzarchitektur die folgenden Netzwerke festgelegt:

Ein dediziertes Management-Netzwerk für das Management der Hyper-VHosts zur Vermeidung von Konflikten mit dem Gastverkehr der
virtuellen Maschinen

Ein dediziertes Netzwerk bietet ein gewisses Maß an Trennung für
Sicherheitszwecke und ein einfacheres Management.

Für das Management-Netzwerk ist ein Netzwerkadapter pro Host und ein
Port pro Netzwerkgerät vorgesehen.

Dieses Netzwerk ist für Aufgaben wie die Remote-Administration des
Hosts und die Kommunikation mit den Management-Systemen, etwa den
System Center-Agenten, gedacht.

Ein dediziertes CSV- und Cluster-Kommunikationsnetzwerk zur Umleitung
der E/A-Vorgänge über das Cluster-Netzwerk im Falle eines Verlusts
der Speicherkonnektivität zu den CSVs wegen eines Ausfalls des
Fibre-Channel-Netzwerks

Ein Netzwerk für die Live-Migration zur Sicherstellung des schnellen
Transfers von virtuellen Maschinen zwischen den Knoten des Hyper-VFailover-Clusters

Ein oder mehrere Netzwerke für den LAN-Verkehr der virtuellen Maschinen

Ein dediziertes Netzwerk bei der Verwendung von iSCSI zur Vermeidung
von Konflikten zwischen Speicherverkehr und sonstigem Netzwerkverkehr
26
26
In Tabelle 7 sind verschiedene Netzwerke aufgeführt, die für eine Hyper-V Cloud
Fast Track-Umgebung erforderlich sind.
Tabelle 7. Erforderliche Netzwerke
Typ
Details
Öffentlicher Cluster/
Management
Dieses Netzwerk ist die Management-Schnittstelle für den Cluster. Externe
Management-Anwendungen wie SCVMM und SCOM kommunizieren über dieses
Netzwerk mit dem Cluster.
Privater Cluster
Dies ist die primäre Netzwerkschnittstelle für die Kommunikation zwischen den
Knoten des Clusters.
Freigegebene
Cluster-Volumes
(CSVs)
Der CSV-Verkehr nutzt dasselbe Netzwerk, das für den privaten Cluster
festgelegt wurde.
Virtuelle Maschine
Dieses Netzwerk dient der Kommunikation zwischen virtuellen Maschinen und
Clients. Zur Unterstützung des Netzwerkverkehrs der virtuellen Maschinen ist ein
virtueller Hyper-V-Switch erforderlich.
Live-Migration
Standardmäßig bevorzugt die Live-Migration private Netzwerke gegenüber
öffentlichen Netzwerken. Bei einer Konfiguration mit mehr als einem privaten
Netzwerk erfolgt die Live-Migration in dem privaten Netzwerk, das nicht vom privaten
Cluster oder dem CSV-Netzwerk verwendet wird. In der Oberfläche für das ClusterManagement lässt sich die Priorität des zu verwendenden Netzwerks festlegen.
iSCSI
Dies ist ein dediziertes Netzwerk für den Speicherverkehr.
Zur Erfüllung der Anforderungen an den Netzwerkverkehr wurden die internen
Netzwerk-Switches des Hitachi Compute Blade 2000 wie in Tabelle 8 konfiguriert.
Durch diese Konfiguration entstehen separate VLANS bei den physischen
Netzwerkschnittstellen.
Tabelle 8. Konfiguration der LAN-Switchmodule
Switchmodul-Nr.
VLAN-Nr.
Netzwerkverkehrstyp
IP-Adressenbereich
0
2500
Management
10.64.1.x
1, 2
2501
Live-Migration
10.64.2.x
1, 2
2502
CSV/Cluster
10.64.3.x
3
2503
Virtuelle Maschine
10.64.4.x
0
2504
iSCSI
10.64.5.x
Bei dieser Referenzarchitektur werden zwei Onboard-NICs pro Blade verwendet,
die mit den LAN-Switchmodulen 0 und 1 verbunden sind. Jeder Blade verfügt
außerdem durch eine Onboard-Mezzanine-Erweiterungskarte über vier
zusätzliche NIC-Ports, die mit den LAN-Switchmodulen 2 und 3 verbunden sind.
Abbildung 7 zeigt die bei dieser Referenzarchitektur verwendete
Netzwerkkonfiguration.
27
27
Hyper-VHost 1
Blade 0
ManagementNetzwerk
10.64.1.x
CSV-/ClusterNetzwerk
10.64.2.x
Hyper-VHost 2
Blade 1
Hyper-VHost 3
Blade 2
Hyper-VHost 4
Blade 3
Hyper-VHost 5
Blade 4
Hyper-VHost 6
Blade 5
Hyer-VHost 7
Blade 6
Hyper-VHost 8
Blade 7
Abbildung 7
Netzwerk für
Live-Migration
10.64.3.x
Netzwerk für
virtuelle
Maschinen
10.64.4.x
iSCSINetzwerk
10.64.5.x
(optional)
28
28
Uplink-Konnektivität des Netzwerks
Für Konnektivität außerhalb des Racks sorgen die Uplink-Funktionen der
Netzwerk-Switchmodule mit entweder 1 Gbit/s oder 10 Gbit/s. Diese Switches
bieten eine umfassende Konnektivität zur Umgebung, sobald diese mit der
Switch-Infrastruktur des Kernnetzwerks des Kunden verbunden werden.
Management-Architektur
Dies sind die für die Bereitstellung und den Betrieb dieser Private-CloudReferenzarchitektur eingesetzten Management-Systeme und -Tools.
Hitachi Command Suite ermöglicht in Verbindung mit der Management-Suite
von Microsoft System Center ein End-to-End-Management der Private Cloud.
Für eine hohe Verfügbarkeit des Management-Systems muss ein Hyper-VFailover-Cluster mit zwei Knoten zum Hosten der Management-Software
implementiert werden.
In Tabelle 9 werden die im Management-Cluster bereitgestellten virtuellen Maschinen
zusammengefasst. Diese virtuellen Maschinen sind hochgradig verfügbar.
Tabelle 9. Virtuelle Maschinen des Management-Clusters
Virtuelle Maschine
Rolle
HUS-MSFT-SNM2
Speicher-Management BS-Knoten6
HUS-MSFT- SQL1
HUS-MSFT- SQL2
SQL Server 2008 R2
SQL Server 2008 R2
Hyper-VHost
BS-Knoten6
BS-Knoten6
Betriebssystem
Prozessor
Arbeitsspeicher

Microsoft Windows Server 2008 R2
Enterprise Edition

1 vCPU


4 GB RAM

4 vCPUs


32 GB RAM

4 vCPUs

32 GB RAM
Microsoft Windows Server 2008 R2
Enterprise Edition
Microsoft Windows Server 2008 R2
Enterprise Edition
29
29
Tabelle 9. Virtuelle Maschinen des Management-Clusters (Fortsetzung)
Virtuelle Maschine
Rolle
Hyper-VHost
Betriebssystem
Prozessor
Arbeitsspeicher
HUS-MSFT-SCVMM
SCOM/VMM
BS-Knoten7

Microsoft Windows 2008 R2 Enterprise
Edition

2 vCPUs


32 GB RAM

2 vCPUs

8 GB RAM
HUS-MSFT-OpsMgr
SCOM/OpsMgr
BS-Knoten7
Microsoft Windows 2008 R2 Enterprise
Edition
Microsoft SQL Server 2008 R2
Die Microsoft System Center-Produktreihe bietet ein umfassendes Toolset für das
Management der Private Cloud. Die Komponenten von Microsoft System Center
sind datenbankorientierte Anwendungen. SQL Server 2008 R2 ist perfekt für die
Bereitstellung einer hochgradig verfügbaren Datenbankplattform mit hoher
Performance geeignet. Diese ist für das gesamte Management der Umgebung
äußerst wichtig.
Bei dieser Referenzarchitektur wurden zwei hochgradig verfügbare virtuelle
Maschinen mit SQL Server zur Unterstützung der Management-Infrastruktur
bereitgestellt. Jeder virtuelle SQL-Server wurde mit 32 GB Arbeitsspeicher,
vier virtuellen CPUs und Windows 2008 R2 Enterprise Edition konfiguriert.
In Tabelle 10 wird die Konfiguration der beiden virtuellen Maschinen für SQL
Server aufgeführt.
Tabelle 10. Technische Daten der virtuellen Maschinen für SQL Server
LU
Zweck
Größe
LUN1, CSV-Volume
Betriebssystem
30 GB
LUN2, CSV-Volume
Datenbank-LU
100 GB
LUN3, CSV-Volume
Log-LU
25 GB
In Tabelle 10 wird die Konfiguration der Datenbanken der beiden virtuellen
Maschinen für SQL Server aufgeführt:
30
30
Tabelle 11. Datenbankkonfiguration
DatenbankClient
Name der Instanz
Name der
Datenbank
Virtuelle
Maschine
Orchestrator
SQL1Instance
SCVMM_ORCH
SQL1
VMM
SQL1Instance
VMM_DB
SQL1
Ops Mgr
SQL1Instance
Ops_Mgr_DB
SQL1
Ops Mgr
SQL2Instance
Ops_Mgr_DW_DB
SQL2
Microsoft Systems Center Virtual Machine Manager 2012
Bei dieser Referenzarchitektur wird Microsoft Systems Center Virtual Machine
Manager 2012 (SCVMM) für das Management der Hyper-V-Hosts und -Gäste
in einem einzigen Rechenzentrum bereitgestellt. Die SCVMM-Instanz für das
Management dieser Lösung darf nicht für das Management virtueller Infrastruktur
außerhalb dieser Lösung verwendet werden. Das Design von SCVMM ist nur für
den Umfang dieser Referenzarchitektur geeignet.
SCVMM wird auf einer virtuellen Maschine mit Microsoft Windows Server 2008
R2 SP1 Enterprise Edition und zwei virtuellen CPUs sowie 32 GB Arbeitsspeicher
bereitgestellt. In einem CSV wird eine virtuelle Festplatte für das Betriebssystem
mit 30 GB zugewiesen, und von einem CSV wird eine virtuelle Festplatte mit
500 GB für die SCVMM-Gastmaschine provisioniert. Diese 500 GB-LUN ist die
Bibliotheksfreigabe für VMM, die zur Bereitstellung mit VMM und System Center
Orchestrator Vorlagen für virtuelle Maschinen, Hardware-Profile und für das
System vorbereitete virtuelle Festplatten enthält.
Für diese Umgebung werden in SCVMM die folgenden Rollen aktiviert:

SCVMM-Administrator

Administratorkonsole

Befehlsshell

SCVMM-Bibliothek

SQL Server-Datenbank (Remote)
31
31
In Tabelle 12 wird eine Reihe standardmäßiger VMM-Vorlagen zur Bereitstellung
von virtuellen Maschinen in dieser Konfiguration aufgeführt. Diese Vorlagen
basieren auf dem Leitfaden zur Microsoft Hyper-V Cloud Fast TrackReferenzarchitektur. Diese sollten an die Anforderungen der eigenen Private
Cloud angepasst werden.
Tabelle 12. Vorlagen für virtuelle Maschinen
Vorlage
Technische Daten
Netzwerk
BS
Vorlage 1–Klein

1 vCPU
VLAN 2503
WS 2008 R2

2 GB Arbeitsspeicher

50 GB
Festplattenspeicher

2 vCPUs
VLAN 2503
WS 2008 R2

4 GB Arbeitsspeicher

100 GB
Festplattenspeicher

4 vCPUs
VLAN 2503
WS 2008 R2

8 GB Arbeitsspeicher

200 GB
Festplattenspeicher
Vorlage 2–Mittel
Vorlage 3–Groß
Integration von System Center Operations Manager in
Microsoft Virtual Machine Manager
SCVMM ist zur Integration in System Center Operations Manager (SCOM)
konfiguriert. SCVMM nutzt SCOM zur Überwachung des Zustands und der
Verfügbarkeit der Hyper-V-Hosts und virtuellen Maschinen, die von SCVMM
verwaltet werden.
SCVMM nutzt SCOM außerdem für Folgendes:


Überwachung des Zustands und der Verfügbarkeit von:

SCVM-Servern

Datenbanken

Bibliotheksservern

Self-Service-Webservern
Bereitstellung von Ansichten der virtuellen Umgebung in der SCVMMAdministratorkonsole
32
32
SCVMM ist in SCOM integriert und ermöglicht Pakete für die Ressourcenund Leistungsoptimierung (PRO). PRO-Pakete ermöglichen das dynamische
Management der virtuellen Infrastruktur.
Durch PRO-Aktionen auf Hostebene wird die Migration der virtuellen Maschine
mit der höchsten Ressourcenausnutzung auf dem Host vorgeschlagen, sobald
die Auslastung von CPU oder Arbeitsspeicher den durch einen PRO-Monitor
festgelegten Schwellenwert überschreitet. Die virtuelle Maschine wird zu einem
anderen Host der Hostgruppe oder des Host-Clusters migriert, auf dem dieselbe
Virtualisierungssoftware ausgeführt wird.
Falls in einer IT-Organisation eine Workload anfällt, die sich bei der Ausführung
in einer virtuellen Maschine nicht für die Migration eignet, kann diese virtuelle
Maschine im PRO-Paket von PRO-Aktionen auf Hostebene ausgeschlossen
werden. In diesem Fall wird die virtuelle Maschine nicht migriert, auch wenn sie
die höchste Ressourcenauslastung auf dem Host aufweist.
Microsoft System Center Orchestrator 2012
Microsoft System Center Orchestrator 2012 ist eine Software, die von Partnern
erweitert werden kann. Mit Microsoft Windows Hyper-V und der System CenterManagement-Software ermöglicht sie Private Clouds und IT als Service.
Orchestrator bietet bei dieser Private-Cloud-Architektur folgende wichtige Vorteile:

Ressourcenzuweisung für das Rechenzentrum – Hiermit werden die
Infrastrukturressourcen des Rechenzentrums, wie Speicher, Netzwerke
und Vorlagen für virtuelle Maschinen, in einem Pool zusammengefasst.
Diese Ressourcen werden daraufhin Unternehmenseinheiten zur Erfüllung
der jeweiligen Infrastrukturanforderungen bereitgestellt.

Online-Stellen neuer Anwendungen – Hiermit wird unter Umständen
der Prozess beim Online-Stellen einer neuen Anwendung durch eine
Unternehmenseinheit vereinfacht. Besitzer einer Unternehmenseinheit
sind damit in der Lage, zum Hosten der eigenen IT-Services Ressourcen
aus dem Infrastruktur-Pool anzufordern.

Self-Service-Provisionierung – Endbenutzer haben die Möglichkeit,
mit Self-Service-Funktionen virtuelle Maschinen zu provisionieren.
Dies führt für Endbenutzer zu einer Optimierung des Managements
virtueller Maschinen.
Bei dieser Referenzarchitektur werden von System Center Orchestrator 2012
virtuelle Maschinen erstellt und auf Grundlage vorher festgelegter Vorlagen
die geeignete Hardware, der geeignete Speicher und die geeigneten
Betriebssystemeinstellungen provisioniert.
33
33
Microsoft System Center Operations Manager-Agenten
Microsoft SCOM-Agenten werden auf den Hyper-V-Hosts und virtuellen
Maschinen bereitgestellt. Die gastinternen Agenten erfassen Informationen über
die Performance und den Zustand des Betriebssystems der virtuellen Maschine.
Die Aufgabe dieser SCOM-Instanz beschränkt sich nur auf die Überwachung der
Hyper-V-Cloud-Infrastruktur. Mit dieser SCOM-Instanz findet keine Überwachung
auf Anwendungsebene statt.
Für diese SCOM-Instanz sind die folgenden Rollen aktiviert:

Stammverwaltungsserver

Berichtsserver (Datenbank befindet sich auf SQL Server)

Data Warehouse (Datenbank befindet sich auf SQL Server)

Operatorkonsole

Befehlsshell
Für die Überwachung der Cloud-Infrastruktur werden die folgenden ManagementPakete installiert:

Management-Paket für Speicher-Arrays von Hitachi Data Systems

Management-Paket für Hitachi Compute Blade 2000

Microsoft Virtual Machine Manager 2008 R2

Microsoft Windows Server-Basisbetriebssystem

Microsoft Windows Server-Failover-Clustering

Microsoft Windows Server 2008 Hyper-V

Management-Paket für Microsoft SQL Server

Microsoft Windows Server Internet Information Services 2000, 2003, 2008

Management-Pakete für Microsoft System Center
Hitachi Data Systems Storage Array Management Pack für
Microsoft® SCOM
Das Hitachi Data Systems Storage Array Management Pack für Microsoft®
SCOM wird in den SCOM-Server integriert für das Reporting und die
Überwachung von Hitachi-Speicher-Arrays. Dieses Management-Paket bietet die
folgenden Objektansichten, die im Überwachungsfenster (unter „Hitachi Root“)
der Operations Manager-Konsole angezeigt werden:

Subsystem (Anzeige aller verwalteten Arrays)

Ansichten und Status von Controllern und Ports

Ansichten und Status von Array-Laufwerken
34
34

Ansichten und Status von Hitachi Dynamic Provisioning-Pools

Ansichten und Status von LUs

Ansichten und Status von RAID-Gruppen
Die Überwachung des Zustands eines Subsystems erfolgt auf Grundlage des
Status der physischen Subsystemkomponenten.
Management-Paket für Hitachi Data Systems Compute
Blade 2000
Das Management-Paket für Hitachi Compute Blade 2000 wird in den SCOMServer integriert für das Reporting und die Überwachung von Hitachi Compute
Blade 2000-Chassis und -Blades. Dieses Management-Paket bietet Ansichten zu
Warnmeldungen, Diagrammen und Statuszuständen, die in der Operations
Manager-Konsole im Überwachungsfenster unter Hitachi Compute Blade
angezeigt werden.
Die Ansicht Alerts (Warnmeldungen) liefert folgende Informationen:

Chassis-Warnmeldungen

Windows-Serverwarnmeldungen
Die Ansicht Diagram (Diagramm) liefert die folgenden Informationen:

Umfassendes Diagramm des Hitachi Compute Blade

Diagramm der Windows Server-Blades
Die Ansicht Status liefert die folgenden Informationen:

Statusansicht der Blades

Statusansicht der Chassis

Statusansicht der Lüfter

Statusansicht des Managementmoduls

Statusansicht der Partitionen

PCI-Statusansicht

Statusansicht des Netzteils

Statusansicht der internen Switches
Weitere Informationen zur Bereitstellung der Management-Pakete für Speicher
und Compute Blades erhalten Sie unter Deploying Hitachi Compute Blade 2000,
Hitachi Deploying Hitachi Compute Blade 2000, Hitachi Management Packs on
Microsoft Systems Center Operations Manager 2007 (US).
35
35
Technische Validierung
Diese Microsoft Private Cloud-Referenzarchitektur wurde als stabile Infrastruktur
für die schnelle Bereitstellung einer Private Cloud durch einen Kunden entwickelt.
Da jede Kundenumgebung einzigartig ist, wurden nur spezifische Tests durchgeführt, um sicherzustellen, dass die zugrunde liegende Infrastruktur die
Anforderungen des Private Cloud-Programms von Microsoft erfüllt. Es wurden
folgende spezifische Tests durchgeführt:

Überprüfung der Konfiguration des Netzwerkdesigns hinsichtlich der
Eignung für Performance und Verfügbarkeit

Überprüfung der Konfiguration der Management-Struktur hinsichtlich
Überwachung und Reporting des Zustands der Infrastruktur

Überprüfung der korrekten Bereitstellung von virtuellen Maschinen durch
VMM im Mandanten-Knoten-Cluster gemäß den vordefinierten
VMM-Vorlagen
Die in diesem Whitepaper beschriebene Lösung bestand alle Validierungstests
von Microsoft im Rahmen des Microsoft Private Cloud-Programms.
Weitere Informationen
Hitachi Data Systems Global Services verfügt über erfahrene Speicherexperten,
bewährte Methoden und ein umfangreiches Service-Portfolio, um Sie bei der
Implementierung von Hitachi-Produkten und -Lösungen in Ihrer Umgebung zu
unterstützen. Weitere Informationen erhalten Sie auf der Website von Hitachi
Data Systems Global Services.
Für viele Hitachi-Produkte sind aufgezeichnete und Live-Demonstrationen
verfügbar. Wenden Sie sich an einen Vertriebsmitarbeiter zur Vereinbarung eines
Termins für eine eine Live-Demonstration. Aufgezeichnete Demonstrationen
finden Sie auf der Website von Hitachi Data Systems unter Corporate Resources.
Klicken Sie auf die Registerkarte Product Demos, um eine Liste der verfügbaren
aufgezeichneten Demonstrationen aufzurufen.
Hitachi Data Systems Academy bietet erstklassige Schulungen zu den Produkten,
Technologien, Lösungen und Zertifizierungen von Hitachi. Hierzu zählen auf Abruf
verfügbare webbasierte Schulungen (WBT), von Dozenten geleitete
Präsenzschulungen (ILT) sowie von Dozenten geleitete virtuelle Schulungen
(vILT). Weitere Informationen erhalten Sie auf der Website von Hitachi Data
Systems unter Services: Education.
Wenn Sie mehr über Hitachi-Produkte und -Services erfahren möchten, wenden
Sie sich an Ihren Vertriebsmitarbeiter oder Channel-Partner, oder besuchen Sie
die Website von Hitachi Data Systems.
Hauptniederlassung
750 Central Expressway, Santa Clara, California 95050-2627 USA
www.HDS.com
Regionale Kontaktinformationen
Nord- und Südamerika: +1 408 970 1000 oder [email protected]
Europa, Naher Osten, Afrika: +44 (0) 1753 618000 oder [email protected]
Region Asien-Pazifik: +852 3189 7900 oder [email protected]
Hitachi ist in den USA und anderen Ländern eine eingetragene Marke von Hitachi, Ltd. Hitachi Data Systems ist in den USA und anderen Ländern eine eingetragene Marke und
Dienstleistungsmarke von Hitachi, Ltd. Alle anderen in diesem Dokument bzw. auf dieser Website erwähnten Marken, Dienstleistungsmarken und Unternehmensnamen sind Eigentum
der jeweiligen Inhaber.
Hinweis: Dieses Dokument dient ausschließlich zu Informationszwecken und beinhaltet keine ausdrückliche oder stillschweigende Garantie für Geräte oder Dienstleistungen, die von Hitachi
Data Systems Corporation aktuell oder künftig angeboten werden.
© Hitachi Data Systems Corporation 2012. Alle Rechte vorbehalten. AS-152-02 Oktober 2012