SAN Configuration Guide
Transcription
SAN Configuration Guide
Handbuch der SAN-Konfiguration ESX Server 3.0.1 und VirtualCenter 2.0.1 Handbuch der SAN-Konfiguration Handbuch der SAN-Konfiguration Überarbeitung: 20061127 Artikel: VI-DEU-Q406-320 Die aktuelle technische Dokumentation finden Sie auf unserer Website unter folgender Adresse: http://www.vmware.com/support/ Hier finden Sie auch die neuesten Produkt-Updates. Anmerkungen zu dieser Dokumentation senden Sie bitte an folgende E-Mail-Adresse: [email protected] © 2006 VMware, Inc. Alle Rechte vorbehalten. Geschützt durch mindestens eines der US-Patente mit folgenden Nummern: 6.397.242, 6.496.847, 6.704.925, 6.711.672, 6.725.289, 6.735.601, 6.785.886, 6.789.156, 6.795.966, 6.880.022, 6.961.941, 6.961.806 und 6.944.699; weitere Patente sind angemeldet. VMware, das VMware „boxes“-Logo und -Design, Virtual SMP und VMotion sind eingetragene Marken oder Marken der VMware, Inc. in den USA und/oder anderen Ländern. Alle anderen in diesem Dokument erwähnten Bezeichnungen und Namen sind unter Umständen markenrechtlich geschützt. VMware, Inc. 3145 Porter Drive Palo Alto, CA 94304 www.vmware.com 2 VMware Global Inc. Zweigniederlassung Deutschland Freisinger Str. 3 85716 Unterschleißheim/Lohhof Tel: +49 89 371 564 000 Fax: +49 89 371 564 098 VMware, Inc. Inhalt Einleitung 9 1 Überblick über VMware ESX Server 15 Einführung in ESX Server 16 Software- und Hardware-Kompatibilität 18 Erläuterungen zur Virtualisierung 19 CPU-, Speicher- und Netzwerkvirtualisierung 19 Virtual SCSI 20 Festplattenkonfigurationsoptionen 21 Virtual Machine File System (VMFS) 22 Raw Device Mapping 23 Virtuelle SCSI-HBA 23 Interaktion mit ESX Server-Systemen 23 VMware Virtual Center 24 Service-Konsole 25 Prozesse und Services der Service-Konsole 25 Virtualisierung im Überblick 26 2 Verwenden von ESX Server mit SAN 29 SAN-Konzepte 30 Überblick über die Verwendung von ESX Server mit SAN 32 Vorteile der Verwendung von ESX Server mit SAN 32 Anwendungsbeispiele 33 Informationssuche 34 Besonderheiten der Verwendung von SAN-Arrays mit ESX Server 35 Gemeinsame Nutzung eines VMFS auf mehreren ESX Server-Systemen 35 Metadaten-Aktualisierungen 36 LUN-Anzeige und erneutes Scannen 37 Host-Typ 37 Komplexitätsebenen 37 Datenzugriff: VMFS oder RDM 38 Management-Anwendungen von Drittanbietern 39 Zoning und ESX Server 39 Zugriffskontrolle (LUN-Maskierung) und ESX Server 40 VMware, Inc. 3 Handbuch der SAN-Konfiguration Grundlegendes zu VMFS- und SAN-Speicheroptionen 40 Auswahl großer oder kleiner LUNs 40 LUN-Entscheidungen 41 Prädiktives Schema 42 Adaptives Schema 42 Tipps 42 Grundlegendes zum Datenzugriff 43 Aufrufen von Daten in einem SAN Array 43 Funktionsweise des Datenzugriffs virtueller Maschinen 44 Funktionsweise des Datenzugriffs virtueller Maschinen in einem SAN 45 Pfad-Management und Failover 46 Auswahl der Speicherorte virtueller Maschinen 48 Präventionsmaßnahmen gegen Server-Ausfälle 49 Verwenden von VMware HA 49 Verwenden von Cluster-Diensten 50 Server-Failover und Speicheraspekte 51 Optimieren der Ressourcen-Nutzung 51 Verwenden von VMotion zum Migrieren virtueller Maschinen 52 Verwenden von VMware DRS zum Migrieren virtueller Maschinen 52 3 Voraussetzungen und Installation 53 Allgemeine Voraussetzungen für ESX Server mit SAN 54 Einschränkungen 55 Festlegen von LUN-Zuweisungen 55 Einrichten des FC-HBA 56 Empfehlungen 57 Voraussetzungen für einen ESX Server-Systemstart über SAN 57 Schritte für Installation und Setup 59 4 Einrichten von SAN-Speicher-Devices mit ESX Server 61 Einrichtungsübersicht 62 Tests 62 Unterstützte Devices 63 Allgemeine Überlegungen 64 EMC CLARiiON-Speichersysteme 64 EMC CLARiiON AX100 65 EMC CLARiiON AX100 und RDM 65 AX100-Anzeigeprobleme mit inaktiven Verbindungen 65 Automatische Volume-Resignatur 66 4 VMware, Inc. Inhalt EMC Symmetrix-Speichersysteme 66 IBM TotalStorage DS4000-Speichersysteme 67 Konfigurieren der Hardware für SAN-Failover bei DS4000-Speicherservern 67 Überprüfen der Port-Konfiguration des Speicherprozessors 69 Deaktivieren der automatischen Volume-Übertragung (AVT) 70 Konfigurieren von Sense-Daten des Speicherprozessors 70 IBM TotalStorage DS4000 und Pfad-Thrashing 71 IBM TotalStorage 8000 71 Automatische Resignatur 71 HP StorageWorks-Speichersysteme 72 HP StorageWorks MSA 72 Festlegen des Profilnamens „Linux“ 72 Probleme mit dem Hub-Controller 74 HP StorageWorks EVA 74 HP StorageWorks XP 74 Hitachi Data Systems-Speicher 75 Network Appliance-Speicher 75 Festlegen des LUN- und Initiatorgruppentyps 75 Speicherbereitstellung 76 5 Verwenden des Systemstarts über SAN mit ESX Server-Systemen 77 Einführung in den Systemstart über SAN 78 Funktionsweise des Systemstarts über SAN 78 Vorteile des Systemstarts über SAN 79 Vorbereitungen für den Systemstart über SAN 79 Grundsätzliche Überlegungen 80 LUN-Maskierung beim Systemstart über SAN 81 Vorbereiten des SAN 81 Minimieren der Anzahl an Initiatoren 82 Einrichten des FC-HBA für den Systemstart über SAN 83 Einrichten des QLogic-FC-HBA für den Systemstart über SAN 83 Aktivieren des QLogic-HBA-BIOS 83 Aktivieren der Boot-Auswahl 84 Auswählen der Boot-LUN 84 Einrichten des Systemstarts über CD-ROM 85 Einrichten des Emulex-FC-HBA für den Systemstart über SAN 85 VMware, Inc. 5 Handbuch der SAN-Konfiguration 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden 87 Probleme und Lösungen 88 Mögliche Probleme 89 Abrufen von Informationen 89 Anzeigen von HBA-Informationen 90 Anzeigen von Datastore-Informationen 90 Lösen von Anzeigeproblemen 92 Erläuterungen zur LUN-Benennung in der Anzeige 92 Beheben von Problemen mit nicht sichtbaren LUNs 93 Verwenden von „Neu scannen“ 94 Entfernen von Datastores 95 Erweiterte Konfiguration der LUN-Anzeige 95 Ändern der Anzahl gescannter LUNs mithilfe von Disk.MaxLUN 95 Masking von LUNs mithilfe von Disk.MaskLUNs 96 Ändern der Sparse-LUN-Unterstützung mithilfe von DiskSupportSparseLUN 97 Multipathing 97 Anzeigen des aktuellen Multipathing-Status 98 Aktive Pfade 101 Festlegen der Multipathing-Policy einer LUN 101 Deaktivieren und Aktivieren von Pfaden 102 Einrichten des bevorzugten Pfads (Nur feste Pfad-Policy) 103 Pfad-Management und manueller Lastausgleich 104 Beispiel für die Verwendung des manuellen Lastausgleichs 104 Failover 105 Festlegen des HBA-Timeout für Failover 107 Festlegen von Device-Treiberoptionen für SCSI-Controller 107 Festlegen des Betriebssystem-Timeouts 108 Konfiguration des VMkernels 108 Gemeinsame Nutzung von Diagnosepartitionen 109 Vermeiden und Beheben von Problemen 109 Optimieren der SAN-Speicherleistung 110 Speicher-Array-Leistung 110 Server-Leistung 111 Lösen von Leistungsproblemen 112 Überwachen der Leistung 112 Auflösen von Pfad-Thrashing 113 Erläuterungen zum Pfad-Thrashing 114 Ausgleichen des Festplattenzugriffs zwischen virtuellen Maschinen 115 6 VMware, Inc. Inhalt Entfernen von VMFS-2-Treibern 115 Verringern von SCSI-Reservierungen 116 Festlegen der maximalen Warteschlangentiefe für HBAs 116 Anpassen der Warteschlangentiefe für einen QLogic-HBA 116 Anpassen der Warteschlangentiefe für einen Emulex-HBA 117 Überlegungen zum SAN-Speicher-Backup 118 Backups in einer SAN-Umgebung 118 Snapshot-Software 119 Verwenden eines Drittanbieter-Backup-Pakets 120 Auswählen Ihrer Backup-Lösung 120 Anwendungen mit mehreren Ebenen 121 Array-basierte (Drittanbieter-)Lösung 121 Dateibasierte (Drittanbieter-)Lösung 121 VMFS-Volume-Resignatur 122 Mounten von Original- und Snapshot-VMFS-Volumes 122 Probleme mit der Anzeige derselben LUN-ID auf mehreren Hosts 123 Erläuterungen zu Resignatur-Optionen 124 Status 1 - EnableResignature=no, DisallowSnapshotLUN=yes (Standard) 124 Status 2 - EnableResignature=yes, (DisallowSnapshotLUN ist nicht relevant) 125 Status 3 - EnableResignature=no, DisallowSnapshotLUN=no 125 A Checkliste für Multipathing 127 B Dienstprogramme 129 Dienstprogramm esxtop 130 Dienstprogramm storageMonitor 130 Optionen 131 Beispiele 131 Index 133 VMware, Inc. 7 Handbuch der SAN-Konfiguration 8 VMware, Inc. Einleitung In dieser Einleitung wird der Inhalt vom Handbuch der SAN-Konfiguration beschrieben und auf technisches Hilfsmaterial sowie VMware®-Schulungen verwiesen. Diese Einleitung umfasst die folgenden Themen: „Über dieses Handbuch“ auf Seite 10. „Technischer Support und Schulungen“ auf Seite 12. VMware, Inc. 9 Handbuch der SAN-Konfiguration Über dieses Handbuch Das vorliegende Handbuch der SAN-Konfiguration enthält Informationen zur Verwendung eines ESX Server-Systems mit einem Storage Area Network (SAN). Es behandelt konzeptionelle Hintergründe, Installationsanforderungen und Management-Aspekte zu folgenden Themenschwerpunkten: Grundlegendes zu ESX Server – Verschafft SAN-Administratoren einen ersten Überblick über ESX Server-Systeme. Verwendung von ESX Server mit einem SAN – Beschreibt Anforderungen, wesentliche Unterschiede in der SAN-Einrichtung bei Verwendung von ESX Server sowie die gleichzeitige Verwaltung und Fehlerbehebung beider Systeme. Einrichten eines ESX Server-Systems für den Systemstart über eine LUN in einem SAN – Beschreibt Anforderungen, Einschränkungen und Management eines Systemstarts über SAN. HINWEIS Schwerpunkt dieses Handbuchs sind Fibre-Channel (FC)-SANs. iSCSI- oder NFS-Speicher-Devices werden nicht behandelt. Informationen über iSCSI und NFS finden Sie im Handbuch zur Server-Konfiguration. Verlauf der Überarbeitung Dieses Handbuch wird bei jeder Produktveröffentlichung oder nach Bedarf revidiert. Eine überarbeitete Version kann geringfügige oder signifikante Änderungen enthalten. Tabelle P-1 zeigt den Verlauf der Überarbeitung dieses Handbuchs. Tabelle P-1. Verlauf der Überarbeitung Überarbeitung Beschreibung 20060615 ESX Server 3.0- und VirtualCenter 2.0-Version vom Handbuch der SAN-Konfiguration für VMware Infrastructure 3. Dies ist die erste Ausgabe dieses Handbuchs. 20060925 ESX Server 3.0.1- und VirtualCenter 2.0.1-Version vom Handbuch der SAN-Konfiguration für VMware Infrastructure 3. Diese Ausgabe enthält geringfügige Änderungen. 10 VMware, Inc. Einleitung Zielleserschaft Die Informationen aus diesem Handbuch sind für erfahrene Windows- oder Linux-Systemadministratoren bestimmt, die mit dem Betrieb virtueller Maschinen im Rechenzentrum vertraut sind. Feedback zu diesem Dokument Anmerkungen zu dieser Dokumentation senden Sie bitte an folgende E-Mail-Adresse: [email protected] Dokumentation zur VMware Infrastruktur Die Dokumentation zur VMware Infrastruktur besteht aus der kombinierten Dokumentation zu VirtualCenter und ESX Server. Die neueste Version dieses Handbuchs und weitere Handbücher sind unter folgender Adresse verfügbar: http://www.vmware.com/support/pubs Konventionen Tabelle P-2 zeigt die in diesem Handbuch verwendeten typografischen Konventionen. Tabelle P-2. Typografische Konventionen Schriftart Elemente Blau (nur online) Querverweise und E-Mail-Adressen Blauer Fettdruck (nur online) Links Schwarzer Fettdruck Elemente der Anwenderoberfläche, z. B. Schaltflächenbezeichnungen und Menüelemente Nicht-Proportionalschrift Befehle, Dateinamen, Verzeichnisse und Pfade Nicht-Proportionalschrift, fett Anwendereingaben Kursiv Dokumenttitel, Glossarbegriffe und gelegentliche Hervorhebungen < Name > Variablen- und Parameternamen VMware, Inc. 11 Handbuch der SAN-Konfiguration In Grafiken verwendete Abkürzungen In den Grafiken in diesem Handbuch werden die in Tabelle P-3 aufgeführten Abkürzungen verwendet. Tabelle P-3. Abkürzungen Abkürzung Beschreibung VC VirtualCenter VI-Client Client der virtuellen Infrastruktur Server VirtualCenter-Server Datenbank VirtualCenter-Datenbank Hostn Von VirtualCenter verwaltete Hosts VM# Virtuelle Maschinen auf einem verwalteten Host Anwender# Anwender mit Zugriffsgenehmigungen spf# Speicherfestplatte für den verwalteten Host Datastore Speicher für den verwalteten Host SAN SAN-Datastore, der von mehreren verwalteten Hosts gemeinsam genutzt wird vrlg Template Technischer Support und Schulungen In den folgenden Abschnitten werden die verfügbaren Ressourcen für den technischen Support beschrieben. Selbsthilfe-Support Im VMware-Technologienetzwerk (VMTN) finden Sie Tools zur Selbsthilfe sowie technische Informationen: Produktinformationen – http://www.vmware.com/products/ Technologieinformationen – http://www.vmware.com/vcommunity/technology Dokumentation – http://www.vmware.com/support/pubs VMTN-Wissensbasis – http://www.vmware.com/support/kb Diskussionsforen – http://www.vmware.com/community Anwendergruppen – http://www.vmware.com/vcommunity/usergroups.html Weitere Informationen zum VMware-Technologienetzwerk finden Sie unter http://www.vmtn.net. 12 VMware, Inc. Einleitung Online- und Telefonsupport Im Onlinesupport können Sie technische Unterstützung anfordern, Ihre Produkt- und Vertragsdaten abrufen und Ihre Produkte registrieren. Weitere Informationen finden Sie unter http://www.vmware.com/support. Im Telefon-Support erhalten Kunden mit entsprechenden Support-Verträgen schnelle Hilfe bei Problemen der Prioritätsstufe 1. Weitere Informationen finden Sie unter http://www.vmware.com/support/phone_support.html. Supportangebote Wenn Sie wissen möchten, wie die Supportangebote von VMware Sie dabei unterstützen können, Ihre geschäftlichen Anforderungen zu erfüllen, besuchen Sie die Website http://www.vmware.com/support/services. VMware-Schulungen Die Kurse von VMware umfassen umfangreiche Praxisübungen, Fallbeispiele und Kursmaterialien, die zur Verwendung als Referenz-Tools bei der praktischen Arbeit vorgesehen sind. Weitere Informationen über VMware-Schulungen finden Sie unter http://mylearn1.vmware.com/mgrreg/index.cfm. VMware, Inc. 13 Handbuch der SAN-Konfiguration 14 VMware, Inc. 1 Überblick über VMware ESX Server 1 Sie können ESX Server in Verbindung mit einem SAN (Storage Area Network) einsetzen. Dabei handelt es sich um ein spezielles Hochgeschwindigkeitsnetzwerk, das Computersysteme mit leistungsfähigen Speichersubsystemen verbindet. Durch den Einsatz von ESX Server mit einem SAN verfügen Sie über zusätzlichen Speicher für die Konsolidierung. Darüber hinaus wird die Zuverlässigkeit optimiert und die Disaster Recovery vereinfacht. Damit Sie ESX Server effektiv mit einem SAN einsetzen können, müssen Sie über praktische Kenntnisse zu ESX Server-Systemen und SAN-Konzepten verfügen. In diesem Kapitel erhalten Sie einen Überblick über ESX Server-Konzepte. Es richtet sich an SAN-Administratoren, die noch nicht mit ESX Server-Systemen vertraut sind und enthält die folgenden Abschnitte: „Einführung in ESX Server“ auf Seite 16. „Erläuterungen zur Virtualisierung“ auf Seite 19. „Interaktion mit ESX Server-Systemen“ auf Seite 23. „Virtualisierung im Überblick“ auf Seite 26. Ausführliche Informationen über VMware ESX Server finden Sie unter http://www.vmware.com/products/esx/ im Bereich Technical Resources. Dieser Bereich enthält Dokumentation, Listen zur Hardware-Kompatibilität, White Paper und mehr. VMware, Inc. 15 Handbuch der SAN-Konfiguration Einführung in ESX Server Mit der ESX Server-Architektur können Administratoren Hardware-Ressourcen mehreren Arbeitslasten in vollständig isolierten Umgebungen zuweisen, die als virtuelle Maschinen bezeichnet werden. Ein ESX Server-System besteht aus den folgenden Hauptkomponenten: Virtualisierungsebene - Diese Ebene stellt die idealisierte Hardware-Umgebung und Virtualisierung zugrunde liegender physischer Ressourcen für die virtuellen Maschinen bereit. Sie umfasst den Virtual Machine Monitor (VMM), der für die Virtualisierung verantwortlich ist, und VMkernel. Die Virtualisierungsebene plant die Service-Konsole, die auf dem ESX Server-Host ausgeführt wird, und die Betriebssysteme der virtuellen Maschine. Die Virtualisierungsebene verwaltet den Zugriff der Betriebssysteme auf physische Ressourcen. Der VMkernel benötigt eigene Treiber, um Zugriff auf die physischen Devices bereitzustellen. Bei VMkernel-Treibern handelt es sich um modifizierte Linux-Treiber, auch wenn der VMkernel keine Linux-Variante ist. 16 Hardware-Schnittstellenkomponenten - Die virtuelle Maschine kommuniziert über Hardware-Schnittstellenkomponenten mit Hardware, wie z. B. der CPU oder Festplatte. Diese Komponenten enthalten Gerätetreiber, die eine Hardware-spezifische Bereitstellung von Diensten ermöglichen und Hardware-Unterschiede gegenüber anderen Teilen des Systems ausblenden. Benutzeroberfläche - Administratoren haben mehrere Möglichkeiten zum Anzeigen und Verwalten von ESX Server-Hosts und virtuellen Maschinen (siehe Abbildung 1-2). Ein Client der virtuellen Infrastruktur (VI-Client) kann eine direkte Verbindung zum ESX Server-Host herstellen. Dies bietet sich an, wenn Ihre Umgebung nur über einen Host verfügt. Ein VI-Client kann auch eine Verbindung zu einem VirtualCenter-Management-Server herstellen und mit allen ESX Server-Hosts interagieren, die von diesem VirtualCenter-Server verwaltet werden. Mit dem Web Access-Client der virtuellen Infrastruktur können Sie zahlreiche Managementaufgaben mit einer Browser-basierten Oberfläche ausführen. Die Befehlszeilen-Oberfläche der Service-Konsole wird nur selten verwendet. Der VI-Client ersetzt, ausgehend von ESX Server 3.0, die Service-Konsole für die meisten Interaktionen. (Die Befehle haben sich gegenüber früheren Versionen von ESX Server geändert.) VMware, Inc. Kapitel 1 Überblick über VMware ESX Server In Abbildung 1-1 ist der VI-Client mit der ausgewählten Registerkarte Übersicht dargestellt. Abbildung 1-1. Benutzeroberfläche des VI-Clients HINWEIS Mit ESX Server 3.0 und VirtualCenter 2.0 können Sie nahezu alle Vorgänge mit dem VI-Client ausführen. In Abbildung 1-2 ist die Interaktion der Komponenten dargestellt. Für den ESX Server-Host sind vier verschiedene virtuelle Maschinen konfiguriert. Auf jeder virtuellen Maschine werden ein eigenes Gastbetriebssystem und eigene Anwendungen ausgeführt. Administratoren haben zwei Möglichkeiten zum Überwachen des Host und der virtuellen Maschinen: Verwenden eines VI-Clients zum direkten Verbinden mit einem ESX Server-Host. Verwenden eines VI-Clients zum Verbinden mit einem VirtualCenter-Server. Der VirtualCenter-Server kann eine Reihe von ESX Server-Hosts verwalten. VMware, Inc. 17 Handbuch der SAN-Konfiguration VI Web Access Infrastruktur Infrastruktur Infrastruktur ESX Server-Host Anwendungen Anwendungen Anwendungen Anwendungen Gastbetriebssystem Gastbetriebssystem Gastbetriebssystem Gastbetriebssystem VirtualCenterServer virtuelle Maschine virtual machine virtual machine virtuelle Maschine VMware-Virtualisierungsebene Host-Betriebssystem Arbeitsspeicher CPUs Speicher-Array Festplatte network Abbildung 1-2. Virtuelle Infrastrukturumgebung Weitere Informationen finden Sie unter „Software- und Hardware-Kompatibilität“ auf Seite 18. Software- und Hardware-Kompatibilität In der VMware ESX Server-Architektur interagiert das Betriebssystem der virtuellen Maschine (das Gastbetriebssystem) nur mit der x86-kompatiblen Standardhardware, die durch die Virtualisierungsebene dargestellt wird. Dadurch können VMware-Produkte alle x86-kompatiblen Betriebssysteme unterstützen. In der Praxis unterstützen VMware-Produkte zahlreiche x86-kompatible Betriebssysteme, die während des gesamte Produktentwicklungszyklus getestet werden. VMware dokumentiert die Installation und den Betrieb dieser Gastbetriebssysteme und schult die technischen Mitarbeiter im Support. Die meisten Anwendungen interagieren nur mit dem Gastbetriebssystem, nicht mit der zugrunde liegenden Hardware. Daher können Sie Anwendungen auf Hardware Ihrer Wahl ausführen, wenn Sie eine virtuelle Maschine mit dem Betriebssystem installieren, das die Anwendung erfordert. 18 VMware, Inc. Kapitel 1 Überblick über VMware ESX Server Erläuterungen zur Virtualisierung Die VMware-Virtualisierungsebene ist in allen VMware-Desktop-Produkten (wie z. B. VMware Workstation) und Server-Produkten (wie z. B. VMware ESX Server) vorhanden. Diese Ebene bietet eine einheitliche Plattform für die Entwicklung, Prüfung, Bereitstellung und den Support von Anwendungsarbeitslasten und ist wie folgt aufgebaut: Auf jeder virtuellen Maschine werden ein eigenes Betriebssystem (das Gastbetriebssystem) und eigene Anwendungen ausgeführt. Die Virtualisierungsebene stellt die virtuellen Geräte bereit, die Anteilen bestimmter physischer Geräte zugeordnet werden. Dazu gehören virtualisierte CPU, Speicher, I/O-Busse, Netzwerkschnittstellen, Speicheradapter und –geräte, Human Interface Devices und BIOS. Weitere Informationen finden Sie in den folgenden Abschnitten: „CPU-, Speicher- und Netzwerkvirtualisierung“ auf Seite 19. „Virtual SCSI“ auf Seite 20. CPU-, Speicher- und Netzwerkvirtualisierung Eine virtuelle VMware-Maschine bietet die vollständige Hardware-Virtualisierung. Das Gastbetriebssystem und Anwendungen, die auf einer virtuellen Maschine ausgeführt werden, können in keinem Fall direkt ermitteln, auf welche physischen Ressourcen sie zugreifen (beispielsweise, auf welcher physischen CPU sie in einem Multiprozessorsystem ausgeführt werden oder welcher physischer Speicher ihren Seiten zugeordnet ist). CPU-Virtualisierung - Jede virtuelle Maschine scheint vollständig isoliert von anderen virtuellen Maschinen auf einer eigenen CPU (oder einer Reihe von CPUs) ausgeführt zu werden. Register, der Translation Look-aside Buffer und andere Kontrollstrukturen werden für jede virtuelle Maschine separat verwaltet. Die meisten Anweisungen werden direkt auf der physischen CPU ausgeführt. Dadurch können ressourcenintensive Arbeitslasten bei nahezu nativer Geschwindigkeit ausgeführt werden. Privilegierte Anweisungen werden von der Virtualisierungsebene sicher ausgeführt. Weitere Informationen finden Sie im Handbuch zum Ressourcen-Management. VMware, Inc. 19 Handbuch der SAN-Konfiguration Speichervirtualisierung - Ein angrenzender Speicherbereich ist für jede virtuelle Maschine sichtbar. Der zugewiesene physische Speicher ist jedoch unter Umständen nicht angrenzend. Stattdessen werden nicht angrenzende physische Seiten erneut zugeordnet und jeder virtuellen Maschine präsentiert. Bei ungewöhnlich speicherintensiven Lasten wird der Serverspeicher überlastet. In diesem Fall kann ein gewisser Anteil des physischen Speichers einer virtuellen Maschine gemeinsam genutzten Seiten, nicht zugeordneten Seiten oder ausgelagerten Seiten zugeordnet werden. ESX Server führt diese virtuelle Speicherverwaltung ohne Wissen des Gastbetriebssystems aus und ohne das eigene Speicherverwaltungssubsystem des Gastbetriebssystems zu stören. Weitere Informationen finden Sie im Handbuch zum Ressourcen-Management. Netzwerkvirtualisierung - Die Virtualisierungsebene stellt sicher, dass jede virtuelle Maschine von anderen virtuellen Maschinen isoliert ist. Virtuelle Maschinen können nur über Networking-Mechanismen miteinander kommunizieren, die den Mechanismen ähneln, die zum Verbinden separater physischer Rechner verwendet werden. Durch die Isolierung können Administratoren interne Firewalls oder andere Netzwerkisolierungsumgebungen einrichten. So können einige virtuelle Maschinen eine externe Verbindung herstellen, während andere nur über virtuelle Netzwerke oder andere virtuelle Maschinen verbunden werden. Weitere Informationen finden Sie im Handbuch zur Server-Konfiguration. Virtual SCSI In einer ESX Server-Umgebung enthält jede virtuelle Maschine einen bis vier virtuelle SCSI-HBAs (Host-Bus-Adapter). Diese virtuellen Adapter können als Buslogic- oder LSI Logic-SCSI-Controller angezeigt werden. Dies sind die einzigen Arten von SCSI-Controllern, auf die eine virtuelle Maschine zugreifen kann. Jede virtuelle Festplatte, auf die eine virtuelle Maschine über einen der virtuellen SCSI-Adapter zugreifen kann, residiert im VMFS oder auf einer Raw-Festplatte. Weitere Informationen finden Sie in den folgenden Abschnitten: 20 „Festplattenkonfigurationsoptionen“ auf Seite 21. „Virtual Machine File System (VMFS)“ auf Seite 22. „Raw Device Mapping“ auf Seite 23. „Virtuelle SCSI-HBA“ auf Seite 23. VMware, Inc. Kapitel 1 Überblick über VMware ESX Server Abbildung 1-3 bietet einen Überblick über die Speichervirtualisierung. Es wird Speicher unter Verwendung von VMFS sowie Speicher unter Verwendung des Raw Device Mapping dargestellt. ESX Server Virtuelle Maschine 1 SCSI-Controller (Buslogic oder LSI Logic) Virtuelle Festplatte 1 Virtuelle Festplatte 2 VMware-Virtualisierungsebene HBA VMFS LUN1 LUN2 .dsk RDM LUN5 Abbildung 1-3. SAN-Speichervirtualisierung Festplattenkonfigurationsoptionen Sie können virtuelle Maschinen mit mehreren virtuellen SCSI-Geräten konfigurieren. Eine Liste der unterstützten Treiber finden Sie im Storage/SAN Compatibility Guide unter www.vmware.com/support/pubs/vi_pubs.html. Das Gastbetriebssystem kann die Gesamtanzahl der SCSI-Laufwerke beschränken. Obwohl alle SCSI-Geräte als SCSI-Ziele dargestellt werden, gibt es drei physische Implementierungsalternativen: .vmdk-Datei der virtuellen Maschine wird auf einem VMFS-Volume gespeichert. Siehe „Virtual Machine File System (VMFS)“ auf Seite 22. Device wird einer SAN-LUN (logische Gerätenummer) zugeordnet. Siehe „Raw Device Mapping“ auf Seite 23. Das lokale SCSI-Gerät wird direkt an die virtuelle Maschine übergeben (z. B. ein lokales Bandlaufwerk). VMware, Inc. 21 Handbuch der SAN-Konfiguration Aus Sicht der virtuellen Maschine wird jede virtuelle Festplatte so angezeigt, als wäre sie ein an einen SCSI-Adapter angeschlossenes SCSI-Laufwerk. Das Gastbetriebssystem und Anwendungen, die auf der virtuellen Maschine ausgeführt werden, können nachvollziehen, ob der Zugriff auf das eigentliche physische über SCSI-, iSCSI-, RAID-, NFS- oder Fibre Channel(FC)-Controller erfolgt. Virtual Machine File System (VMFS) In einer einfachen Konfiguration sind die Festplatten der virtuellen Maschine als Dateien in einem VMFS gespeichert. Wenn Gastbetriebssysteme SCSI-Befehle an ihre virtuellen Festplatten ausgeben, übersetzt die Virtualisierungsebene diese Befehle in VMFS-Dateivorgänge. ESX Server-Systeme verwenden VMFS zum Speichern von Dateien virtueller Maschinen. Um den I/O-Overhead der Festplatte zu minimieren, wurde VMFS so optimiert, dass mehrere virtuelle Maschinen als eine Arbeitslast ausgeführt werden. Außerdem bietet VMFS verteilte Sperren für die Dateien Ihrer virtuellen Maschine, sodass diese in einer SAN-Umgebung, in der mehrere ESX Server-Hosts eine Reihe von LUNs gemeinsam nutzen, sicher betrieben werden kann. VMFS wird zunächst als Bestandteil der ESX Server-Installation konfiguriert. Wenn Sie ein neues VMFS-3-Volume erstellen, muss dieses mindestens 600 MB groß sein. Siehe Handbuch für Installation und Upgrade. Anschließend kann das VMFS angepasst werden, wie im Handbuch zur Server-Konfiguration erläutert. Ein VMFS-Volume kann über 32 physische Speichererweiterungen erweitert werden, darunter SAN-LUNs und lokaler Speicher. Dies ermöglicht das Pooling von Speicher und Flexibilität beim Erstellen des für Ihre virtuelle Maschine erforderlichen Speicher-Volumes. Mit dem neuen ESX3 Logical Volume Manager (LVM) können Sie ein Volume erweitern, während virtuelle Maschinen auf dem Volume ausgeführt werden. Dadurch können Sie neuen Speicher zu Ihren VMFS-Volumes hinzufügen, wenn die virtuelle Maschine den Speicher benötigt. Weitere Informationen finden Sie in den folgenden Kapiteln: 22 Kapitel 3, „Voraussetzungen und Installation,“ auf Seite 53. In diesem Kapitel werden HBAs und Speichergeräte aufgelistet, die von ESX Server-Systemen unterstützt werden. Kapitel 4, „Einrichten von SAN-Speicher-Devices mit ESX Server,“ auf Seite 61. Dieses Kapitel enthält Informationen zum Konfigurieren von SAN-Komponenten. VMware, Inc. Kapitel 1 Überblick über VMware ESX Server Raw Device Mapping Ein Raw Device Mapping (RDM) ist eine spezielle Datei in einem VMFS-Volume, die als Proxy für ein Raw-Device fungiert. Das RDM bietet einige der Vorteile einer virtuellen Festplatte im VMFS-Dateisystem und behält einige Vorteile des Direktzugriffs auf physische Geräte bei. RDM kann erforderlich sein, wenn Sie Microsoft Cluster Service (MSCS) verwenden oder SAN-Snapshot oder andere Anwendungen mit mehreren Ebenen auf der virtuellen Maschine ausführen. Mithilfe von RDMs können Systeme die in SAN-Arrays enthaltenen Hardware-Funktionen besser nutzen. Weitere Informationen finden Sie unter „Verwenden von Raw Device Mapping“ im Handbuch zur Server-Konfiguration. Informationen über MSCS finden Sie im Dokument Einrichtung des Microsoft Cluster-Dienstes. Virtuelle SCSI-HBA Mit virtuellen SCSI-HBAs können virtuelle Maschinen auf logische SCSI-Geräte zugreifen, ebenso wie ein physischer HBA den Zugriff auf physische Speichergeräte ermöglicht. Im Gegensatz zum physischen HBA ermöglicht der SCSI-HBA Speicheradministratoren (wie z. B. SAN-Administratoren) keinen Zugriff auf den physischen Rechner. Gleichzeitig können zahlreiche virtuelle HBAs hinter einem (oder mehreren) FC-HBAs ausgeblendet werden. Der SAN sieht nur den physischen Rechner und dessen HBAs. Interaktion mit ESX Server-Systemen Im Allgemeinen können Administratoren eine der folgenden Möglichkeiten für die Interaktion mit ESX Server-Systemen nutzen: Verwenden eines Clients (VI-Client oder VI Web Access), wie in „Einführung in ESX Server“ auf Seite 16 erläutert. Clients können direkt mit dem ESX Server-Host verbunden werden, oder Sie können mit dem VirtualCenter-Management-Server mehrere ESX Server-Hosts gleichzeitig verwalten. Weitere Informationen zum VirtualCenter-Management-Server finden Sie unter „VMware Virtual Center“ auf Seite 24. Verwenden der Service-Konsole. Beachten Sie, dass die Verwendung der Service-Konsole in ESX Server 3.0 und höher im Allgemeinen nicht erforderlich und nicht erwünscht ist, da die meisten administrativen Vorgänge mit einem VI-Client oder VI Web Access ausgeführt werden können. Verwenden Sie Virtual Infrastructure SDK für das Skript-Management. Weitere Informationen zur Service-Konsole finden Sie unter „Service-Konsole“ auf Seite 25. VMware, Inc. 23 Handbuch der SAN-Konfiguration VMware Virtual Center Sie können über einen VI-Client oder über VI Web Access auf einen VirtualCenter-Server zugreifen. Der VirtualCenter-server fungiert als zentraler Administrator für VMware-Server, die über ein Netzwerk miteinander verbunden sind. Der Server leitet Aktionen an die virtuellen Maschinen und VMware ESX Server weiter. Die Benutzeroberfläche des VI-Clients wird unter Microsoft Windows ausgeführt. In einer Umgebung mit mehreren Hosts können Administratoren den VI-Client verwenden, um Anforderungen an den VirtualCenter-Server zu stellen. Dies wirkt sich wiederum auf die virtuellen Maschinen und Hosts aus. Die direkte Verbindung zu einem ESX Server-Host ist normalerweise nur in einer Umgebung mit einem Server sinnvoll. Mit VI Web Access können Sie unter Verwendung eines HTML-Browsers eine Verbindung zu einem VirtualCenter-Server herstellen. In Abbildung 1-4 ist die Registerkarte Konfiguration einer VI-Client-Anzeige dargestellt, wenn Speicher ausgewählt ist. Der ausgewählte ESX Server-Host stellt eine Verbindung zu beiden SAN-LUNs und zu lokalen Festplatten her. Der Unterschied in der Anzeige ist nur aufgrund der Namen sichtbar, die während des Setup gewählt wurden. Abbildung 1-4. Anzeige von Speicherdaten im VI-Client, Registerkarte Konfiguration 24 VMware, Inc. Kapitel 1 Überblick über VMware ESX Server Service-Konsole Die Service-Konsole ist die ESX Server-Schnittstelle für das Befehlszeilenmanagement. In früheren Versionen von ESX Server war die Service-Konsole die Hauptschnittstelle zum ESX Server-Host. Ab der Version ESX Server 3 hat der VI-Client Priorität, obwohl die Service-Konsole immer noch eingesetzt werden kann, um bestimmte erweiterte Verwaltungsvorgänge durchzuführen. Die Service-Konsole unterstützt Systemmanagementfunktionen und –schnittstellen des ESX Server-Systems. Dazu gehören HTTP-, SNMP- und API-Schnittsellen sowie andere Supportfunktionen, wie z. B. Authentifizierung und Zugriff auf leistungsschwache Geräte. Da die VirtualCenter-Funktionen verbessert wurden und nahezu alle administrativen Vorgänge ermöglichen, ist die Funktionalität der Service-Konsole eingeschränkt. Die Service-Konsole wird nur unter bestimmten Bedingungen verwendet. HINWEIS Verwenden Sie Virtual Infrastructure SDK für das Skript-Management. Befehle der Service-Konsole sind in zukünftigen Versionen unter Umständen nicht mehr verfügbar oder führen zu anderen Ergebnissen. Die Service-Konsole wird mit einer modifizierten Linux-Distribution implementiert. Die Service-Konsole entspricht jedoch nicht direkt einer Linux-Befehlseingabeaufforderung. Weitere Informationen finden Sie unter „Prozesse und Services der Service-Konsole“ auf Seite 25. Prozesse und Services der Service-Konsole Die folgenden Managementprozesse und -services von ESX Server werden in der Service-Konsole ausgeführt: Host-Daemon (hostd) - Führt im Auftrag der Service-Konsole und des VI-Clients Aktionen in der Service-Konsole aus. Authentifizierungs-Daemon (vmauthd) - Authentifiziert Remote-Anwender des VI-Clients und Remote-Konsolen mithilfe der Datenbank mit den Anwendernamen und Kennwörtern. Alle anderen Authentifizierungsspeicher, auf die über die PAM-Funktionen (Pluggable Authentication Module) der Service-Konsole zugegriffen werden kann, können ebenfalls verwendet werden. Die Verwendung mehrerer Mechanismen zum Speichern von Kennwörtern ermöglicht den Einsatz von Kennwörtern von einem Windows-Domain-Controller, LDAP- oder RADIUS-Server oder einem ähnlichen zentralen Authentifizierungsspeicher in Verbindung mit VMware ESX Server für den Remote-Zugriff. SNMP-Server (net-snmpd) - Implementiert die SNMP-Traps und Datenstrukturen, mit denen ein Administrator ein ESX Server-System in ein SNMP-basiertes Systemmanagement-Tool integrieren kann. VMware, Inc. 25 Handbuch der SAN-Konfiguration Neben diesen von VMware bereitgestellten Services kann die Service-Konsole zum Ausführen anderer systemweiter oder Hardware-abhängiger Management-Tools verwendet werden. Dazu können Hardware-spezifische Tools zur Statusüberwachung (wie z. B. IBM Director oder HP Insight Manager), Software für vollständige System-Backups und Disaster Recovery sowie Clustering- und Hochverfügbarkeitsprodukte gehören. HINWEIS Die Verfügbarkeit der Service-Konsole für die allgemeine Linux-Hardware-Überwachung wird nicht gewährleistet. Sie ist kein Äquivalent einer Linux-Shell. Virtualisierung im Überblick ESX Server virtualisiert die Ressourcen des physischen Systems für die Verwendung durch die virtuellen Maschinen. Mehrere virtuelle Maschinen nutzen physische Geräte gemeinsam. Virtuelle Maschine 1 Arbeitsspeicher CPU Virtuelle Maschine 2 Netzwer- Fest- Festkadapter platte 1 platte 2 FestFestplatte 1 platte 2 Netzwerkadapter CPU Arbeitsspeicher VMFS Raw-Festplatte SpeicherArray network adapter CPU Arbeitss- Physische peicher Ressourcen Abbildung 1-5. Gemeinsame Nutzung physischer Ressourcen durch virtuelle Maschinen 26 VMware, Inc. Kapitel 1 Überblick über VMware ESX Server In Abbildung 1-5 sind zwei virtuelle Maschinen dargestellt, die jeweils wie folgt konfiguriert sind: Eine CPU Zuweisung von Speicher und ein Netzwerkadapter (NIC) Zwei virtuelle Festplatten Die virtuellen Maschinen verwenden jeweils eine der CPUs auf dem Server und greifen auf nicht angrenzende Speicherseiten zu, wobei ein Teil des Speichers einer virtuellen Maschine derzeit auf Festplatte ausgelagert ist (nicht dargestellt). Die zwei virtuellen Netzwerkadapter sind mit zwei physischen Netzwerkadaptern verbunden. Die Festplatten sind wie folgt zugeordnet: Festplatte 1 der virtuellen Maschine 1 ist direkt einer Raw-Festplatte zugeordnet. Diese Konfiguration ist im Normalfall nicht empfehlenswert, kann unter bestimmten Bedingungen jedoch vorteilhaft sein. Festplatte 2 der virtuellen Maschine 1 und beide Festplatten der virtuellen Maschine 2 residieren auf dem VMFS, das sich auf einem SAN-Speicher-Array befindet. VMFS stellt sicher, dass entsprechende Sperren und Sicherheit jederzeit aktiviert sind. VMware, Inc. 27 Handbuch der SAN-Konfiguration 28 VMware, Inc. 2 Verwenden von ESX Server mit SAN 2 Bei der Einrichtung von ESX Server-Hosts für die Verwendung mit FC-SAN-Arrays müssen bestimmte Dinge beachtet werden. Dieses Kapitel enthält grundlegende Informationen zur Verwendung von ESX Server mit einem SAN-Array und behandelt die folgenden Themen: „SAN-Konzepte“ auf Seite 30. „Überblick über die Verwendung von ESX Server mit SAN“ auf Seite 32. „Besonderheiten der Verwendung von SAN-Arrays mit ESX Server“ auf Seite 35. „Grundlegendes zu VMFS- und SAN-Speicheroptionen“ auf Seite 40. „Grundlegendes zum Datenzugriff“ auf Seite 43. „Pfad-Management und Failover“ auf Seite 46. „Auswahl der Speicherorte virtueller Maschinen“ auf Seite 48. „Präventionsmaßnahmen gegen Server-Ausfälle“ auf Seite 49. „Optimieren der Ressourcen-Nutzung“ auf Seite 51. VMware, Inc. 29 Handbuch der SAN-Konfiguration SAN-Konzepte Wenn Sie als ESX Server-Administrator die Einrichtung von ESX Server-Hosts in einem SAN planen, benötigen Sie fundierte Kenntnisse über SAN-Konzepte. Informationen über SAN finden Sie sowohl in Büchern bzw. Fachzeitschriften als auch im Internet. Zwei Internetressourcen werden von der SAN-Branche aufgrund Ihres umfangreichen Informationsangebots besonders empfohlen: www.searchstorage.com www.snia.org Da die SAN-Branche dem schnellen Wandel unterlegen ist, sollten Sie diese Ressourcen regelmäßig nutzen, um sich über die neuesten Entwicklungen zu informieren. Falls Sie noch keine Erfahrungen auf dem Gebiet der SAN-Technologie sammeln konnten, haben Sie im folgenden Abschnitt die Gelegenheit, sich mit einigen Begriffen vertraut machen, die in diesem Handbuch verwendet werden. Informationen über grundlegende SAN-Konzepte finden Sie im White Paper SAN Conceptual and Design Basics unter http://www.vmware.com/support/pubs. HINWEIS SAN-Administratoren können diesen Abschnitt überspringen und mit dem Rest des Kapitels fortfahren. Ein SAN (Storage Area Network) ist ein spezialisiertes Hochgeschwindigkeitsnetzwerk, das Computersysteme oder Host-Server mit leistungsstarken Speichersubsystemen verbindet. Die SAN-Komponenten umfassen Host-Bus-Adapter (HBAs) in den Host-Servern, Switches zur Weiterleitung von Speicherdaten, Kabel, Speicherprozessoren (SPs) und Speicher-Festplatten-Arrays. Eine SAN-Topologie mit mindestens einem Switch bildet einen SAN-Fabric. Zur Datenübertragung von den Host-Servern zum gemeinsamen Speicher verwendet das SAN ein Fibre-Channel (FC)-Protokoll, über das SCSI-Befehle in Fibre-Channel-Frames gepackt werden. Im vorliegenden Dokument wird die Verbindung von einem Device zum SAN als Port bezeichnet. Jeder Node im SAN, d. h. Host, Speicher-Device und Fabric-Komponente, ist über einen oder mehrere Ports mit dem SAN verbunden. Ports können auf verschiedene Arten identifiziert werden: 30 WWPN – World Wide Port Name. Ein weltweit eindeutiger Bezeichner für einen Port, über den bestimmte Anwendungen auf den Port zugreifen können. Die FC-Switches erkennen den WWPN eines Devices oder Hosts und weisen ihm eine Port-Adresse zu. VMware, Inc. Kapitel 2 Verwenden von ESX Server mit SAN Um den WWPN mit einem VI-Client anzuzeigen, klicken Sie auf die Host-Registerkarte Konfiguration und wählen die Option Storage-Adapter. Anschließend können Sie den Speicheradapter auswählen, dessen WWPN Sie anzeigen möchten. Port-ID (oder Port-Adresse) – Im SAN verfügt jeder Port über eine eindeutige ID, die als FC-Adresse für den Port fungiert. Dadurch ist es möglich, Daten über das SAN zum entsprechenden Port weiterzuleiten. Die FC-Switches weisen die Port-ID zu, wenn sich das Device beim Fabric anmeldet. Die Port-ID ist nur gültig, solange das Device angemeldet ist. Bei der Datenübertragung zwischen Host-Server und Speicher verwendet das SAN ein Multipathing-Verfahren. Durch Multipathing können mehrere physische Pfade vom ESX Server-Host zu einer LUN in einem Speicher-Array führen. Wenn ein Standardpfad oder eine der Komponenten im Pfad – HBA, Kabel, Switch-Port oder Speicherprozessor – ausfällt, wählt der Server einen anderen verfügbaren Pfad. Der Prozess der Erkennung eines ausgefallenen Pfads und der Wechsel zu einem anderen Pfad wird als Pfad-Failover bezeichnet. Es gibt folgende Arten von Speicher-Festplatten-Arrays: Ein Aktiv/Aktiv-Festplatten-Array ermöglicht den gleichzeitigen Zugriff auf die LUNs über alle verfügbaren Speicherprozessoren, ohne dass die Performance wesentlich beeinträchtigt wird. Alle Pfade sind permanent aktiv (sofern kein Pfad ausfällt). In einem Aktiv/Passiv-Festplatten-Array verwaltet ein SP aktiv den Zugriff auf eine bestimmte LUN. Der andere SP fungiert als Reserve für die LUN und kann andere LUN-I/Os aktiv verwalten. I/Os können nur an einen aktiven Prozessor gesendet werden. Wenn der primäre Speicherprozessor ausfällt, wird einer der anderen Speicherprozessoren aktiv, entweder automatisch oder durch Eingreifen des Administrators. Um den Serverzugriff auf Speicher-Arrays zu beschränken, die diesem Server nicht zugewiesen sind, verwendet das SAN Zoning. Normalerweise werden Zonen für jede Gruppe von Servern erstellt, die auf eine gemeinsame Gruppe von Speicher-Devices und LUNs zugreifen. Zonen definieren, welche HBAs eine Verbindung mit bestimmten SPs herstellen können. Devices außerhalb einer Zone sind gegenüber Devices innerhalb der Zone nicht sichtbar. VMware, Inc. 31 Handbuch der SAN-Konfiguration Zoning ist vergleichbar mit der LUN-Maskierung, die in der Regel für das Genehmigungs-Management verwendet wird. Bei der LUN-Maskierung handelt es sich um einen Prozess, der eine LUN für einige Hosts verfügbar macht, für andere Hosts hingegen nicht. Normalerweise wird die LUN-Maskierung auf SP- oder Serverebene ausgeführt. Überblick über die Verwendung von ESX Server mit SAN Die Unterstützung von QLogic- und Emulex-FC-HBAs ermöglicht es, ein ESX Server-System mit einem SAN-Array zu verbinden. Anschließend können LUNs im SAN-Array zum Speichern von Konfigurationsinformationen und Anwendungsdaten virtueller Maschinen verwendet werden. Die Verwendung von ESX Server in einem SAN äußert sich in einer höheren Flexibilität, Effizienz und Zuverlässigkeit. Darüber hinaus unterstützt diese Konfiguration zentralisiertes Management, Failover und Technologien für den Lastausgleich. Weitere Informationen finden Sie in folgenden Abschnitten: „Vorteile der Verwendung von ESX Server mit SAN“ auf Seite 32. „Anwendungsbeispiele“ auf Seite 33. „Informationssuche“ auf Seite 34. Vorteile der Verwendung von ESX Server mit SAN Ein SAN mit ESX Server ermöglicht es Ihnen, die Ausfallsicherheit Ihrer Umgebung zu verbessern: 32 Sie können Daten redundant speichern und mehrere FC-Fabrics konfigurieren, um einen Single-Point-of-Failure auszuschließen. Ihr Unternehmen wird nicht lahm gelegt, wenn ein Rechenzentrum ausfällt. ESX Server-Systeme bieten standardmäßig Multipathing und unterstützen es automatisch für jede virtuelle Maschine. Weitere Informationen finden Sie unter „Pfad-Management und Failover“ auf Seite 46. Bei Verwendung von ESX Server-Systemen wird die Ausfallsicherheit auf den Server erweitert. Wenn Sie einen SAN-Speicher verwenden, können alle Anwendungen nach einem Host-Ausfall unverzüglich neu gestartet werden. Weitere Informationen finden Sie unter „Präventionsmaßnahmen gegen Server-Ausfälle“ auf Seite 49. VMware, Inc. Kapitel 2 Verwenden von ESX Server mit SAN Bei Verwendung von ESX Server mit einem SAN sind Hochverfügbarkeit und automatischer Lastausgleich für mehr Anwendungen erschwinglich als bei Verwendung von dedizierter Hardware, die für Standby-Services reserviert ist. Da ein gemeinsam genutzter zentraler Speicher verfügbar ist, können Cluster aus virtuellen Maschinen gebildet werden, die MSCS verwenden. Weitere Informationen finden Sie unter „Server-Failover und Speicheraspekte“ auf Seite 51. Wenn virtuelle Maschinen als Standby-Systeme für physische Server verwendet werden, ist ein gemeinsamer Speicher unerlässlich und ein SAN die beste Lösung. Sie können die VMware VMotion-Funktionen verwenden, um virtuelle Maschinen nahtlos von einem Host zum nächsten zu migrieren. Sie können VMware HA in Verbindung mit einem SAN als Cold-Standby-Lösung verwenden, die eine automatische Antwort ohne Verzögerung garantiert. Sie können VMware DRS verwenden, um virtuelle Maschinen zum Lastausgleich automatisch von einem Host zum nächsten zu migrieren. Da sich der Speicher in einem SAN-Array befindet, werden die Anwendungen unterbrechungsfrei weiter ausgeführt. Wenn Sie VMware DRS-Cluster verwenden, können Sie einen ESX Server-Host im Wartungsmodus ausführen, damit das System alle aktiven virtuellen Maschinen auf andere ESX Server-Hosts migriert. Anschließend können Sie Upgrades oder Wartungsarbeiten vornehmen. Die Transportfähigkeit und Verkapselung von virtuellen VMware-Maschinen tragen zur gemeinsamen Nutzung eines SAN-Speichers bei. Wenn sich virtuelle Maschinen in einem SAN-basierten Speicher befinden, ist es möglich, innerhalb von wenigen Minuten eine virtuelle Maschine auf einem Server herunterzufahren und auf einem anderen Server wieder hochzufahren – oder auf einem Server anzuhalten und auf einem anderen Server im gleichen Netzwerk weiter auszuführen. Dadurch können Sie Rechenressourcen migrieren, ohne auf einen konsistenten gemeinsamen Zugriff verzichten zu müssen. Anwendungsbeispiele Die Verwendung von ESX Server-Systemen in Verbindung mit SAN bietet sich besonders für folgende Aufgaben an: Ausfallfreie Wartungen – Bei der Durchführung von Wartungen können Sie virtuelle Maschinen mit VMware DRS oder VMotion auf andere Server migrieren. Wenn das SAN einen gemeinsamen Speicher umfasst, können Sie Wartungsarbeiten vornehmen, ohne dass der Anwender dies bemerkt. VMware, Inc. 33 Handbuch der SAN-Konfiguration Lastausgleich – Sie können VMotion oder VMware DRS verwenden, um virtuelle Maschinen zum Lastausgleich auf andere Hosts zu migrieren. Wenn das SAN einen gemeinsamen Speicher umfasst, können Sie den Lastausgleich vornehmen, ohne dass der Anwender dies bemerkt. Speicherkonsolidierung und Vereinfachung des Speicherlayouts – Wenn Sie mit mehreren Hosts arbeiten und auf jedem Host mehrere virtuelle Maschinen ausgeführt werden, reicht der Speicher des Hosts nicht aus, und Sie benötigen einen externen Speicher. Ein SAN als externer Speicher vereinfacht die Systemarchitektur und bietet Ihnen alle sonstigen in diesem Abschnitt genannten Vorteile. Sie können zunächst eine große LUN reservieren und anschließend Teile nach Bedarf auf die virtuellen Maschinen verteilen. Die LUN-Reservierung und -Erstellung über das Speicher-Device muss nur einmal durchgeführt werden. Disaster Recovery – Das Speichern aller Daten in einem SAN kann die Remote-Speicherung von Daten-Backups deutlich vereinfachen. Darüber hinaus können Sie virtuelle Maschinen auf entfernten ESX Server-Hosts zu Recovery-Zwecken neu starten, wenn ein Standort ausfällt. Informationssuche Neben diesem Dokument bieten Ihnen zahlreiche andere Ressourcen Unterstützung bei der Konfiguration Ihres ESX Server-Systems mit einem SAN. Die meisten Fragen zur Einrichtung beantwortet Ihnen die Dokumentation zu Ihrem Speicher-Array. Möglicherweise hält der Anbieter Ihres Speicher-Arrays auch Informationen zur Verwendung des Speicher-Arrays in einer ESX Server-Umgebung für Sie bereit. VMware I/O Compatibility Guide – Enthält eine Liste der zurzeit unterstützten HBAs, HBA-Treiber und Treiberversionen. VMware Storage/SAN Compatibility Guide – Enthält eine Liste der zurzeit unterstützten Speicher-Arrays. VMware-Versionshinweise – Liefern Informationen über bekannte Probleme und deren Lösungen. VMware-Wissensbasis – Enthält Informationen über allgemeine Probleme und deren Lösungen. Weitere Informationen finden Sie auf der VMware Documentation-Website unter http://www.vmware.com/support/pubs/. 34 VMware, Inc. Kapitel 2 Verwenden von ESX Server mit SAN Besonderheiten der Verwendung von SAN-Arrays mit ESX Server Die Verwendung eines SANs in Verbindung mit einem ESX Server-Host unterscheidet sich in vieler Hinsicht von der herkömmlichen SAN-Nutzung, wie im folgenden Abschnitt beschrieben: „Gemeinsame Nutzung eines VMFS auf mehreren ESX Server-Systemen“. „Metadaten-Aktualisierungen“ auf Seite 36. „LUN-Anzeige und erneutes Scannen“ auf Seite 37. „Host-Typ“ auf Seite 37. „Komplexitätsebenen“ auf Seite 37. „Datenzugriff: VMFS oder RDM“ auf Seite 38. „Management-Anwendungen von Drittanbietern“ auf Seite 39. Gemeinsame Nutzung eines VMFS auf mehreren ESX Server-Systemen ESX Server VMFS wurde für den gleichzeitigen Zugriff über mehrere physische Rechner konzipiert und übernimmt die Zugriffskontrolle für Dateien auf virtuellen Maschinen. Weitere Informationen über VMFS finden Sie unter „Virtual Machine File System (VMFS)“ auf Seite 22 sowie im Handbuch zur Server-Konfiguration. VMFS übernimmt folgende Aufgaben: Koordination des Zugriffs auf virtuelle Festplattendateien – ESX Server verwendet Sperren auf Dateiebene, die vom VMFS Distributed Lock Manager verwaltet werden. Koordination des Zugriffs auf interne VMFS-Dateisysteminformationen (Metadaten) – ESX Server verwendet SCSI-Reservierungen für die gesamte LUN. Weitere Informationen finden Sie unter „Metadaten-Aktualisierungen“ auf Seite 36. HINWEIS SCSI-Reservierungen werden bei Metadaten-Aktualisierungen des VMFS-Volumes nicht beibehalten. ESX Server verwendet temporäre SCSI-Reservierungen als Teil seines verteilten Sperrprotokolls. Da virtuelle Maschinen ein VMFS gemeinsames verwenden, kann es schwierig sein, Zeiten höchster Auslastung zu bestimmen oder die Performance zu optimieren. Einerseits müssen Sie den Speicherzugriff virtueller Maschinen für Zeiten höchster Auslastung planen, andererseits sind diese unter Umständen von Anwendung zu Anwendung verschieden. Je mehr virtuelle Maschinen ein VMFS gemeinsam verwenden, desto höher ist die Gefahr einer möglichen Verschlechterung der Performance aufgrund von I/O-Kollisionen. VMware, Inc. 35 Handbuch der SAN-Konfiguration HINWEIS VMware empfiehlt, dass Sie den Datenverkehr virtueller Maschinen auf Server, CPU und Speicher aufteilen. Sie sollten auf jedem Server einen Mix virtueller Maschinen ausführen, sodass nicht alle zur selben Zeit im selben Bereich einer hohen Nachfrage unterliegen. Abbildung 2-1 zeigt mehrere ESX Server-Systeme, die das gleiche VMFS-Volume verwenden. ESX Server A ESX Server B ESX Server C VM1 VM2 VM3 VMFS-Volumen Festplatte1 Virtuelle Fest- Festplattplatte2 endateien Festplatte3 Abbildung 2-1. Zugriff auf virtuelle Festplattendateien Metadaten-Aktualisierungen Ein VMFS enthält u. a. Dateien, Verzeichnisse, symbolische Links, RDMs sowie entsprechende Metadaten für diese Objekte. Ein Zugriff auf die Metadaten findet immer dann statt, wenn die Attribute einer Datei aufgerufen oder geändert werden. Dies ist unter anderem bei folgenden Aktionen der Fall: 36 Erstellen, Erweitern oder Sperren einer Datei Ändern der Dateiattribute Ein- und Ausschalten virtueller Maschinen VMware, Inc. Kapitel 2 Verwenden von ESX Server mit SAN LUN-Anzeige und erneutes Scannen Ein SAN ist dynamisch, d. h. welche LUNs für einen bestimmten Host verfügbar sind, hängt von zahlreichen Faktoren ab, beispielsweise folgenden: Erstellung neuer LUNs in den SAN-Speicher-Arrays. Änderungen an der LUN-Maskierung. Änderungen an der SAN-Konnektivität oder anderen Aspekten im Zusammenhang mit der SAN . Der VMkernel erkennt LUNs beim Hochfahren. Diese LUNs sind daraufhin im VI-Client sichtbar. Wenn Änderungen an den LUNs vorgenommen werden, müssen Sie erneut scannen, um die Änderungen zu sehen. Host-Typ Eine LUN kann sich abhängig davon, welcher Host-Typ auf sie zugreift, anders verhalten. Normalerweise betrifft die Zuweisung des Host-Typs betriebssystemspezifische Funktionen oder Probleme. ESX Server-Systeme werden für gewöhnlich mit einem Linux-Host-Typ für den LUN-Zugriff konfiguriert. Weitere Informationen finden Sie in Kapitel 6, „Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden,“ auf Seite 87 und in der VMware-Wissensbasis. Komplexitätsebenen Wenn Sie bisher mit herkömmlichen SANs gearbeitet haben, können die Komplexitätsebenen anfangs verwirrend sein. Ein direkter Zugriff auf das Betriebssystem virtueller Maschinen im SAN ist nicht möglich. Mit herkömmlichen Tools können Sie nur das Betriebssystem von VMware ESX Server überwachen (jedoch nicht das Betriebssystem virtueller Maschinen). Zum Überwachen virtueller Maschinen verwenden Sie den VI-Client. Jede virtuelle Maschine wird bei der Installation standardmäßig mit einer (virtuellen) Festplatte und einem (virtuellen) SCSI-Controller konfiguriert. Sie können den SCSI-Controller-Typ und die Eigenschaften für die gemeinsame SCSI-Bus-Verwendung ändern, indem Sie die Einstellungen virtueller Maschinen mit dem VI-Client bearbeiten (siehe Abbildung 2-2). Darüber hinaus können Sie einer virtuellen Maschine Festplatten hinzufügen. Weitere Informationen finden Sie im Handbuch zur Server-Konfiguration. VMware, Inc. 37 Handbuch der SAN-Konfiguration Abbildung 2-2. Festlegen des SCSI-Controller-Typs Der HBA, den die Tools für die SAN-Administration erkennen, ist Teil des ESX Server-Systems, nicht der virtuellen Maschine. Das ESX Server-System führt Multipathing durch. Multipathing-Software (z. B. PowerPath) auf der virtuellen Maschine wird nicht unterstützt (und nicht benötigt). Eine Ausnahme ist Multipathing-Software für dynamische Festplatten in virtuellen Windows-Maschinen. Datenzugriff: VMFS oder RDM Standardmäßig wird eine virtuelle Festplatte in einem VMFS-Volume während der Erstellung einer virtuellen Maschine erstellt. Wenn Gastbetriebssysteme SCSI-Befehle an ihre virtuellen Festplatten ausgeben, übersetzt die Virtualisierungsebene diese Befehle in VMFS-Dateivorgänge. Weitere Informationen finden Sie unter „Virtual Machine File System (VMFS)“ auf Seite 22. Eine Alternative zu VMFS bieten RDMs. RDMs sind spezielle Dateien in einem VMFS-Volume, die als Proxy für ein Raw Device fungieren. Bei Verwendung von RDMs gehen einige Vorteile einer virtuellen Festplatte im VMFS zwar verloren, einige Vorteile des direkten Zugriffs auf ein physisches Device bleiben jedoch erhalten. Weitere Informationen finden Sie unter „Raw Device Mapping“ auf Seite 23. 38 VMware, Inc. Kapitel 2 Verwenden von ESX Server mit SAN Management-Anwendungen von Drittanbietern Die meisten SAN-Hardware-Komponenten werden mit entsprechender SAN-Management-Software geliefert. Diese Software wird normalerweise im Speicher-Array oder auf einem einzelnen Server ausgeführt, und zwar unabhängig von den Servern, die das SAN zum Speichern verwenden. Sie können die Management-Software von Drittanbietern für verschiedene Aufgaben verwenden: Speicher-Array-Management, einschließlich LUN-Erstellung, Array-Cache-Management, LUN-Zuordnung und LUN-Sicherheit Einrichtung von Replikation, Checkpointing, Snapshotting oder Spiegelung Wenn Sie die SAN-Management-Software auf einer virtuellen Maschine ausführen, profitieren Sie von den damit verbundenen Vorteilen (Failover mit VMotion, Failover mit VMware HA usw.). Es ist jedoch möglich, dass die Management-Software das SAN aufgrund der zusätzlichen Komplexitätsebene nicht erkennt. Dieses Problem kann durch Verwendung von RDMs behoben werden. Weitere Informationen finden Sie unter „Anwendungen mit mehreren Ebenen“ auf Seite 121. HINWEIS Ob Management-Software auf einer virtuellen Maschine ausgeführt werden kann, hängt vom jeweiligen Speicher-Array ab. Zoning und ESX Server Zoning ermöglicht die Zugriffskontrolle in der SAN-Topologie. Es definiert, welche HBAs eine Verbindung mit bestimmten SPs herstellen können. Wenn ein SAN unter Verwendung von Zoning konfiguriert wird, sind die Devices außerhalb einer Zone gegenüber den Devices innerhalb der Zone nicht sichtbar. Zoning hat folgende Auswirkungen: Es reduziert die Anzahl der Ziele und LUNs, die einem ESX Server-System zugeordnet sind. Es kontrolliert und isoliert Pfade in einem Fabric. Es kann andere Systeme daran hindern, ein bestimmtes Speichersystem zu erkennen und möglicherweise ESX Server VMFS-Daten zu zerstören. Es kann verwendet werden, um verschiedene Umgebungen voneinander zu trennen (z. B. eine Test- von einer Produktionsumgebung). VMware, Inc. 39 Handbuch der SAN-Konfiguration Bei der Verwendung von Zoning sollten Sie Folgendes beachten: ESX Server-Hosts, die einen gemeinsamen Speicher für Failover oder Lastausgleich verwenden, müssen sich in einer Zone befinden. Wenn Sie über eine sehr umfangreiche Konfiguration verfügen, müssen Sie ggf. separate Zonen für verschiedene Funktionsbereiche definieren. Beispielsweise können Sie die Bereiche Buchhaltung und Personal voneinander trennen. Es ist nicht ratsam, viele kleine Zonen aus beispielsweise zwei Hosts mit jeweils vier virtuellen Maschinen zu erstellen. HINWEIS Informationen zu den Best-Practices beim Zoning erhalten Sie vom Anbieter Ihres Speicher-Arrays. Zugriffskontrolle (LUN-Maskierung) und ESX Server Durch Zugriffskontrolle können Sie die Anzahl der ESX Server-Hosts (oder anderer Hosts), die eine LUN erkennen können, beschränken. Zugriffskontrolle ist in folgenden Fällen sinnvoll: Um die Anzahl der LUNs zu reduzieren, die einem ESX Server-System zugeordnet sind. Um andere Systeme daran zu hindern, ESX Server-LUNs zu erkennen und möglicherweise VMFS-Volumes zu zerstören. Grundlegendes zu VMFS- und SAN-Speicheroptionen In diesem Abschnitt werden die verfügbaren VMFS- und SAN-Speicheroptionen beschrieben und Entscheidungshilfen zur Verfügung gestellt. In diesem Abschnitt werden folgende Themen behandelt: „Auswahl großer oder kleiner LUNs“ auf Seite 40. „LUN-Entscheidungen“ auf Seite 41. „Tipps“ auf Seite 42. Auswahl großer oder kleiner LUNs Bei der Installation von ESX Server werden Sie aufgefordert, Partitionen für das System zu erstellen. Daher sollten Sie sich schon vor der Installation überlegen, wie Sie den Speicher für die ESX Server-Systeme einrichten möchten. Dabei haben Sie die Wahl zwischen folgenden Ansätzen: 40 Viele LUNs mit einem VMFS-Volume für jede LUN. Viele LUNs mit einem VMFS-Volume für alle LUNs. VMware, Inc. Kapitel 2 Verwenden von ESX Server mit SAN Maximal ist ein VMFS-Volume pro LUN möglich. Sie können aber auch eine große LUN oder mehrere kleine LUNs verwenden. Folgende Gründe sprechen für wenige große LUNs: Mehr Flexibilität beim Erstellen virtueller Maschinen, ohne beim SAN-Administrator mehr Platz anfordern zu müssen. Mehr Flexibilität bei der Größenänderung virtueller Festplatten, dem Erstellen von Snapshots usw. Weniger LUNs, die identifiziert und verwaltet werden müssen. Folgende Gründe sprechen für viele kleine LUNs: Weniger Konkurrenzsituationen auf den einzelnen VMFS aufgrund von Sperren und SCSI-Reservierungen. Unterschiedliche Anwendungen könnten unterschiedliche RAID-Charakteristiken erfordern. Mehr Flexibilität (die Multipathing-Policy und gemeinsam genutzte Festplatten werden pro LUN festgelegt). Für den Einsatz von Microsoft Cluster Service muss jede Cluster-Festplatten-Ressource in ihrer eigenen LUN eingerichtet sein. HINWEIS Sie können Ihr Rechenzentrum auf Server aufteilen, die wenige große LUNs verwenden, sowie Server, die viele kleine LUNs verwenden. LUN-Entscheidungen Wenn die Speichercharakterisierung für eine virtuelle Maschine nicht verfügbar ist, lässt sich häufig nicht ohne weiteres beantworten, wann Entscheidungen hinsichtlich der Größe und Anzahl der zu verwendenden LUNs getroffen werden sollten. Die folgenden Ansätze können Sie bei der Entscheidungsfindung unterstützen: Prädiktiv. Weitere Informationen finden Sie unter „Prädiktives Schema“ auf Seite 42. Adaptiv. Weitere Informationen finden Sie unter „Adaptives Schema“ auf Seite 42. VMware, Inc. 41 Handbuch der SAN-Konfiguration Prädiktives Schema Das prädiktive Schema umfasst folgende Schritte: Erstellen mehrerer LUNs mit verschiedenen Speichereigenschaften. Erstellen eines VMFS-Volumes für jede LUN (wobei jedes Volume eine Bezeichnung erhält, die seine Eigenschaften wiedergibt). Identifizieren der Anforderungen aller Anwendungen im entsprechenden RAID. Verwenden gemeinsam genutzter Festplatten, um virtuelle Maschinen hoher Priorität von virtuellen Maschinen niedriger Priorität zu unterscheiden. Beachten Sie, dass gemeinsam genutzte Festplatten nur innerhalb eines bestimmten ESX Server-Hosts relevant sind. Die gemeinsam genutzten Festplatten, die virtuellen Maschinen auf einem ESX Server-Host zugewiesen sind, haben keine Auswirkungen auf virtuelle Maschinen auf anderen ESX Server-Hosts. Adaptives Schema Das adaptive Schema umfasst folgende Schritte: Erstellen einer großen LUN (RAID 1+0 oder RAID 5) mit aktivierter Write-Cache-Funktion. Erstellen eines VMFS in dieser LUN. Platzieren von vier oder fünf virtuellen Festplatten im VMFS. Ausführen der Anwendungen und Überprüfen der Festplatten-Performance. Wenn die Performance akzeptabel ist, können Sie zusätzliche virtuelle Festplatten im VMFS platzieren. Andernfalls erstellen Sie eine neue, größere LUN, nach Möglichkeit mit einem anderen RAID-Level, und wiederholen den Vorgang. Damit bei der LUN-Erstellung keine virtuellen Maschinen verloren gehen, können Sie eine Cold-Migration verwenden. Tipps Bei der LUN-Entscheidung sollten Sie Folgendes beachten: 42 Jede LUN sollte über den richtigen RAID-Level und die richtigen Speichereigenschaften für Anwendungen auf virtuellen Maschinen verfügen, die diese verwenden. Eine LUN darf nur ein VMFS-Volume umfassen. Wenn mehrere virtuelle Maschinen auf die gleiche LUN zugreifen, verwenden Sie gemeinsam genutzte Festplatten, um virtuellen Maschinen eine Priorität zuzuweisen. VMware, Inc. Kapitel 2 Verwenden von ESX Server mit SAN So weisen Sie virtuellen Maschinen durch gemeinsam genutzte Festplatten eine Priorität zu 1 Starten Sie einen Client der virtuellen Infrastruktur und verbinden Sie ihn mit einem VirtualCenter-Server. 2 Wählen Sie die virtuelle Maschine im Inventarfenster aus, und klicken Sie im Kontextmenü auf Einstellungen bearbeiten. 3 Klicken Sie auf die Registerkarte Ressourcen, und wählen Sie Festplatte aus. 4 Klicken Sie mit der rechten Maustaste auf die Spalte Shares für die Festplatte, die Sie bearbeiten möchten, und wählen Sie den erforderlichen Wert aus dem Dropdown-Menü aus. Grundlegendes zum Datenzugriff In diesem Abschnitt werden folgende Themen behandelt: „Aufrufen von Daten in einem SAN Array“ auf Seite 43 „Funktionsweise des Datenzugriffs virtueller Maschinen“ auf Seite 44 „Funktionsweise des Datenzugriffs virtueller Maschinen in einem SAN“ auf Seite 45 Aufrufen von Daten in einem SAN Array Wenn Sie nicht damit vertraut sind, wie ein physischer (nicht virtueller) Rechner die Daten in einem SAN-Array aufruft, lesen Sie das White Paper SAN Conceptual and Design Basics auf der VMware Documentation-Website unter www.vmware.com/support/pubs/. VMware, Inc. 43 Handbuch der SAN-Konfiguration Funktionsweise des Datenzugriffs virtueller Maschinen Virtuelle Maschinen rufen Daten über eine der folgenden Methoden auf: VMFS – In einer einfachen Konfiguration sind die Festplatten der virtuellen Maschinen als .vmdk-Dateien in einem ESX Server VMFS gespeichert. Wenn Gastbetriebssysteme SCSI-Befehle an ihre virtuellen Festplatten ausgeben, übersetzt die Virtualisierungsebene diese Befehle in VMFS-Dateivorgänge. In einer Standardeinrichtung ruft die virtuelle Maschine eine Datei stets über das VMFS auf, egal ob sich die Datei in einem SAN oder auf den lokalen Festplatten eines Hosts befindet. Weitere Informationen finden Sie unter „Virtual Machine File System (VMFS)“ auf Seite 22. Raw Device Mapping (RDM) – Unter RDM versteht man eine Zuordnungsdatei innerhalb des VMFS, die als Proxy für ein Raw Device fungiert. RDM ermöglicht dem Gastbetriebssystem Zugriff auf das Raw Device. RDM wird empfohlen, wenn eine virtuelle Maschine mit einer physischen Festplatte im SAN interagieren muss. Dies ist zum Beispiel der Fall, wenn Sie Snapshots vom Festplatten-Array erstellen, gelegentlich aber auch, wenn Sie über eine große Datenmenge verfügen, die Sie nicht auf eine virtuelle Festplatte verschieben möchten. Außerdem ist es für die Einrichtung von Microsoft Cluster Service erforderlich. Weitere Informationen finden Sie im VMware-Dokument Einrichtung des Microsoft Cluster-Dienstes. 44 VMware, Inc. Kapitel 2 Verwenden von ESX Server mit SAN Abbildung 2-3 zeigt, wie virtuelle Maschinen unter Verwendung von VMFS oder RDM auf Daten zugreifen. ESX Server Virtuelle Maschine 1 SCSI-Controller (Buslogic oder LSI Logic) Virtuelle Festplatte 1 Virtuelle Festplatte 2 VMware-Virtualisierungsebene HBA VMFS LUN1 LUN2 .dsk RDM LUN5 Abbildung 2-3. Funktionsweise des Datenzugriffs virtueller Maschinen Weitere Informationen über VMFS und RDMs finden Sie im Handbuch zur Server-Konfiguration. Funktionsweise des Datenzugriffs virtueller Maschinen in einem SAN Bei der Interaktion einer virtuellen Maschine mit einem SAN finden folgende Schritte statt: 1 Wenn das Gastbetriebssystem auf einer virtuellen Maschine einen Lese- oder Schreibvorgang auf einer SCSI-Festplatte ausführen muss, gibt es SCSI-Befehle an die virtuelle Festplatte aus. 2 Device-Treiber auf dem Betriebssystem der virtuellen Maschine kommunizieren mit den virtuellen SCSI-Controllern. VMware ESX Server unterstützt zwei Arten von virtuellen SCSI-Controllern: BusLogic und LSILogic. 3 Der virtuelle SCSI-Controller leitet den Befehl an den VMkernel weiter. VMware, Inc. 45 Handbuch der SAN-Konfiguration 4 5 6 Der VMkernel führt folgende Schritte aus: Er sucht die Datei im VMFS-Volume, das der Festplatte der virtuellen Gastmaschine entspricht. Er ordnet die Anforderungen nach Blöcken auf der virtuellen Festplatte Blöcken auf dem entsprechenden physischen Device zu. Er sendet die geänderten I/O-Anforderungen vom Device-Treiber im VMkernel an den physischen HBA (Host-HBA). Der Host-HBA führt folgende Schritte aus: Er konvertiert die Anforderung aus ihrer binären Datenform in die optische Form, die zur Übertragung über Glasfaserkabel erforderlich ist. Er packt die Anforderung gemäß den Regeln des FC-Protokolls. Er überträgt die Anforderung an das SAN. Je nachdem, über welchen Port der HBA eine Verbindung mit dem Fabric herstellt, empfängt einer der SAN-Switches die Anforderung und leitet sie an das Speicher-Device weiter, auf den der Host zugreifen möchte. Der Host interpretiert dieses Speicher-Device als eine bestimmte Festplatte. Es kann sich jedoch um ein logisches Device handeln, das einem physischen Device im SAN entspricht. Der Switch muss bestimmen, welches physische Device dem Host für das angesteuerte logische Device zur Verfügung gestellt wurde. Pfad-Management und Failover ESX Server unterstützt Multipathing, um eine dauerhafte Verbindung zwischen dem Server und dem Speicher-Device bei einem Ausfall eines HBAs, Switches, Speicherprozessors oder FC-Kabels aufrecht zu erhalten. Bei Multipathing-Unterstützung sind keine speziellen Failover-Treiber erforderlich. Um Pfad-Switching zu unterstützen, verfügt der Server in der Regel über einen oder mehrere HBAs, über die der Speicher-Array unter Verwendung von einem oder mehreren Switches erreicht werden kann. Alternativ kann die Konfiguration auch einen HBA und zwei Speicherprozessoren aufweisen, sodass der HBA einen anderen Pfad verwenden kann, um auf den Festplatten-Array zuzugreifen. 46 VMware, Inc. Kapitel 2 Verwenden von ESX Server mit SAN ESX Server HBA2 ESX Server HBA1 HBA3 HBA4 Switch Switch SP2 SP1 Speicher-Array Abbildung 2-4. Multipathing und Failover Abbildung 2-4 zeigt, dass jeder Server über mehrere Pfade mit dem Speicher-Device verbunden ist. Wenn zum Beispiel HBA1 oder die Verbindung zwischen HBA1 und dem FC-Switch ausfällt, übernimmt HBA2 und stellt eine Verbindung zwischen dem Server und dem Switch zur Verfügung. Der Prozess, bei dem ein HBA für einen anderen HBA einspringt, wird als HBA-Failover bezeichnet. Wenn entsprechend SP1 ausfällt oder die Verbindungen zwischen SP1 und den Switches unterbrochen sind, übernimmt SP2 und stellt eine Verbindung zwischen dem Switch und dem Speicher-Device zur Verfügung. Dieser Vorgang wird SP-Failover genannt. VMware ESX Server unterstützt über die Multipathing-Funktion sowohl HBA- als auch SP-Failover. Sie können eine Multipathing-Policy für Ihr System wählen, nämlich Feststehend oder Zuletzt verwendet. Wenn die Policy Feststehend lautet, können Sie einen bevorzugten Pfad angeben. Jede LUN (Festplatte), die für den ESX Server-Host sichtbar ist, kann über ihre eigene Pfad-Policy verfügen. Informationen zum Anzeigen des aktuellen Multipathing-Status und zum Festlegen der Multipathing-Policy finden Sie unter „Multipathing“ auf Seite 97. VMware, Inc. 47 Handbuch der SAN-Konfiguration HINWEIS I/Os virtueller Maschinen können während des Failovers mit maximal sechzig Sekunden Verzögerung erfolgen, insbesondere in einem Aktiv/Passiv-Array. Diese Verzögerung ist erforderlich, damit der SAN-Fabric nach Topologieänderungen oder anderen Fabric-Eregnissen Zeit zum Stabilisieren seiner Konfiguration hat. Bei einem Aktiv/Passiv-Array mit der Pfad-Policy Feststehend kann Pfad-Thrashing ein Problem darstellen. Weitere Informationen finden Sie unter „Auflösen von Pfad-Thrashing“ auf Seite 113. Auswahl der Speicherorte virtueller Maschinen Wenn Sie die Performance virtueller Maschinen optimieren möchten, spielt der Speicherort eine entscheidende Rolle. Es gibt immer einen Kompromiss zwischen kostspieligen Speichern mit hoher Performance und hoher Verfügbarkeit sowie günstigeren Speichern mit schlechterer Performance. Speicher können in verschiedene Tier unterteilt werden, die von einer Reihe von Faktoren abhängen: High-Tier – Bietet hohe Performance und hohe Verfügbarkeit. Kann integrierte Snapshots für einfachere Backups und Point-in-Time (PiT)-Wiederherstellungen umfassen. Unterstützt Replikation, vollständige SP-Redundanz und Fibre-Laufwerke. Verwendet teure Spindeln. Mid-Tier – Bietet mittlere Performance, geringere Verfügbarkeit, gewisse SP-Redundanz und SCSI-Laufwerke. Kann Snapshots umfassen. Verwendet günstigere Spindeln. Lower-Tier – Bietet niedrige Performance und wenig interne Speicherrredundanz. Verwendet einfache SCSI- oder SATA-Laufwerke (günstige serielle Spindeln). Nicht alle Anwendungen müssen maximale Performance und Verfügbarkeit bieten, zumindest nicht während ihres gesamten Lebenszyklus. HINWEIS Wenn Sie bestimmte Funktionen von High-Tier-Speichern benötigen, z. B. Snapshots, aber kein Geld dafür ausgeben möchten, können Sie einige dieser Eigenschaften unter Umständen durch entsprechende Software erreichen. Beispielsweise können Sie Snapshots mit Software erstellen. Um den Speicherort einer virtuellen Maschine zu bestimmen, müssen Sie sich folgende Fragen stellen: 48 Welche Bedeutung hat die virtuelle Maschine? Wie sehen seine Anforderungen in puncto Performance und Verfügbarkeit aus? Wie sehen seine Anforderungen in puncto Point-in-Time (PiT)-Wiederherstellung aus? VMware, Inc. Kapitel 2 Verwenden von ESX Server mit SAN Wie sehen seine Backup-Anforderungen aus? Wie sehen seine Replikationsanforderungen aus? Eine virtuelle Maschine kann im Laufe seines Lebenszyklus verschiedene Tier durchlaufen, sei es durch eine Neubewertung seiner Bedeutung oder durch technologische Änderungen, infolgedessen Funktionen einem niedrigeren Tier zugeordnet werden. Bedeutung ist relativ und kann sich aus zahlreichen Gründen ändern, z. B. durch Veränderungen im Unternehmen, Änderungen bei betrieblichen Abläufen, Vorschriften, Disaster Planning usw. Präventionsmaßnahmen gegen Server-Ausfälle Durch die RAID-Architektur von SAN-Speichern sind Sie vor Ausfällen physischer Festplatten geschützt. Ein dualer Fabric mit Duplizierung aller Fabric-Komponenten schützt das SAN vor den meisten Fabric-Ausfällen. Der letzte Schritt, um Ihre gesamte Umgebung vor Ausfällen zu schützen, ist der Schutz vor Server-Ausfällen. Die Failover-Optionen von ESX Server-Systemen werden in den folgenden Abschnitten behandelt: „Verwenden von VMware HA“ auf Seite 49. „Verwenden von Cluster-Diensten“ auf Seite 50. „Server-Failover und Speicheraspekte“ auf Seite 51. Verwenden von VMware HA VMware HA ermöglicht es, virtuelle Maschinen in Failover-Gruppen zu organisieren. Bei einem Host-Ausfall werden unverzüglich all seine virtuellen Maschinen auf anderen Hosts neu gestartet. HA erfordert einen SAN-Speicher. Wenn eine virtuelle Maschine auf einem anderen Host wiederhergestellt wird, geht sein Speicherzustand zwar verloren, seine Festplatte befindet sich jedoch noch im gleichen Zustand wie zum Zeitpunkt des Host-Ausfalls (absturzkonsistentes Failover). Für HA wird ein gemeinsam genutzter Speicher (z. B. ein SAN) benötigt. Ausführliche Informationen finden Sie im Handbuch zum Ressourcen-Management. HINWEIS Wenn Sie VMware HA verwenden möchten, müssen Sie über eine entsprechende Lizenz verfügen. VMware, Inc. 49 Handbuch der SAN-Konfiguration Verwenden von Cluster-Diensten Server-Clustering ist ein Verfahren, mit dem zwei oder mehr Server über eine Hochgeschwindigkeits-Netzwerkverbindung miteinander verbunden werden, sodass die Server-Gruppe als einzelner, logischer Server fungiert. Wenn einer der Server ausfällt, übernehmen die anderen Server im Cluster die Vorgänge, die von dem ausgefallenen Server ausgeführt wurden. VMware testet Microsoft Cluster Service in Verbindung mit ESX Server-Systemen, andere Cluster-Lösungen werden jedoch eventuell auch unterstützt. Für Cluster-Failover stehen verschiedene Konfigurationsmöglichkeiten zur Verfügung: Cluster in einer Box – Zwei virtuelle Maschinen auf einem Host fungieren als Failover-Server für den jeweils anderen. Wenn eine virtuelle Maschine ausfällt, übernimmt der andere. (Diese Konfiguration bietet keinen Schutz vor Host-Ausfällen. Sie wird für gewöhnlich beim Testen der Cluster-Anwendung verwendet.) Cluster in mehreren Boxen – Einer virtuellen Maschine auf einem ESX Server-Host ist eine entsprechende virtuelle Maschine auf einem anderen ESX Server-Host zugeordnet. P2V-Clustering (N+1-Clustering) – Eine virtuelle Maschine auf einem ESX Server-Host fungiert als Failover-Server für einen physischen Server. Da virtuelle Maschinen, die auf einem einzigen Host ausgeführt werden, als Failover-Server für zahlreiche physische Server fungieren können, bietet diese Clustering-Methode eine kostengünstige N+1-Lösung. Weitere Informationen finden Sie im Dokument Einrichtung des Microsoft Cluster-Dienstes. Abbildung 2-5 zeigt verschiedene Konfigurationsmöglichkeiten für Cluster-Failover. Virtuelle Maschine Virtuelle Maschine Virtuelle Maschine Virtuelle Maschine Virtuelle Maschine Virtuelle Maschine Virtuelle Maschine Cluster in einer Box Cluster in mehreren Boxen P2V-Clustering Abbildung 2-5. Clustering mit einem Clustering-Dienst 50 VMware, Inc. Kapitel 2 Verwenden von ESX Server mit SAN Server-Failover und Speicheraspekte Bei jeder Art von Server-Failover müssen bestimmte Speicheraspekte beachtet werden: Ansätze für Server-Failover funktionieren nur, wenn jeder Server Zugriff auf den gleichen Speicher hat. Da mehrere Server viel Speicherplatz beanspruchen und Failover für den Server durch Failover für das Speicher-Array ergänzt wird, werden SANs normalerweise in Verbindung mit Server-Failover bereitgestellt. Wenn Sie ein SAN mit Server-Failover bereitstellen möchten, müssen alle LUNs, die von den virtuellen Maschinen im Cluster verwendet werden, von allen ESX Server-Hosts erkannt werden. Dies erscheint SAN-Administratoren möglicherweise nicht logisch, ist bei Verwendung von virtuellen Maschinen aber sinnvoll. Auch wenn ein Host auf eine LUN zugreifen kann, müssen nicht zwangsläufig alle virtuellen Maschinen auf diesem Host Zugriff auf alle Daten dieser LUN haben. Eine virtuelle Maschine kann nur auf die virtuellen Festplatten zugreifen, für die er konfiguriert wurde. Bei einem Konfigurationsfehler werden die virtuellen Festplatten gesperrt, wenn die virtuelle Maschine gestartet wird, sodass keine Datenverluste entstehen. HINWEIS Bei Verwendung des Systemstarts über SAN sollte in der Regel jede Boot-LUN nur von dem ESX Server-System erkannt werden, das über diese LUN gestartet wird. Dies gilt jedoch nicht, wenn Sie versuchen, nach einem Absturz in den Ausgangszustand zurückzukehren, indem Sie ein zweites ESX Server-System auf die gleiche LUN verweisen. In diesem Fall ist die betreffende SAN-LUN im Grunde keine LUN für den Systemstart über SAN. Da sie beschädigt ist, wird kein ESX Server-System über sie gestartet. Die SAN-LUN ist dann eine normale LUN, die für ein ESX Server-System sichtbar gemacht wird. Optimieren der Ressourcen-Nutzung Virtual Infrastructure ermöglicht Ihnen die Optimierung der Ressourcen-Zuweisung, indem Sie virtuelle Maschinen von übermäßig stark genutzten Hosts auf zu wenig genutzte Hosts migrieren. Es gibt zwei Optionen: Virtuelle Maschinen explizit mit VMotion migrieren. Weitere Informationen finden Sie unter „Verwenden von VMotion zum Migrieren virtueller Maschinen“ auf Seite 52. Virtuelle Maschinen automatisch mit VMware DRS migrieren. „Verwenden von VMware DRS zum Migrieren virtueller Maschinen“ auf Seite 52. Sie können VMotion oder DRS nur verwenden, wenn sich die virtuellen Festplatten auf dem gemeinsam genutzten Speicher befinden, der mehreren Server zur Verfügung steht. In den meisten Fällen wird ein SAN-Speicher verwendet. Weitere Informationen über VMotion finden Sie unter Grundlagen der Systemverwaltung. Weitere Informationen über DRS finden Sie im Handbuch zum Ressourcen-Management. VMware, Inc. 51 Handbuch der SAN-Konfiguration Verwenden von VMotion zum Migrieren virtueller Maschinen Die VMotion-Technologie ermöglicht ein intelligentes Arbeitslast-Management. Mit VMotion können Administratoren virtuelle Maschinen manuell auf verschiedene Hosts migrieren. Eine aktive virtuelle Maschine kann unterbrechungsfrei auf einen physischen Server migriert werden, der mit dem gleichen SAN verbunden ist. VMotion ermöglicht Folgendes: Durchführung ausfallfreier Wartung durch Verschieben von virtuellen Maschinen. Dadurch können Wartungsarbeiten an der zugrunde liegenden Hardware und an den Speicherressourcen erfolgen, ohne dass Anwendersitzungen unterbrochen werden müssen. Kontinuierlicher Lastausgleich im gesamten Rechenzentrum zur optimalen Ressourcennutzung bei schwankenden Geschäftsanforderungen. Abbildung 2-6 zeigt, wie Sie eine virtuelle Maschine mit VMotion migrieren können. ESX Server ESX Server VMotion-Technologie Anwendungen Anw wendu wendu u ungen n Anwendungen Anwendungen Gastbetriebssystem Gastbe a ettriebssystteem Gastbetriebssystem Gastbetriebssystem Virtuelle Maschine Virtueeelle lle Maaschine a e Virtuelle Maschine Virtuelle Maschine Abbildung 2-6. Migration mit VMotion Verwenden von VMware DRS zum Migrieren virtueller Maschinen VMware DRS verbessert die Ressourcen-Zuweisung über alle Hosts und Ressourcen-Pools hinweg. DRS erfasst Ressourcen-Nutzungsinformationen für alle Hosts und virtuellen Maschinen in einem VMware-Cluster und gibt in einer der beiden folgenden Situationen Empfehlungen (oder migriert virtuelle Maschinen): Startplatzierung – Wenn Sie eine virtuelle Maschine erstmalig in einem Cluster einschalten, sorgt DRS entweder für eine adäquate Platzierung der virtuellen Maschine oder gibt eine Empfehlung. Lastausgleich – DRS versucht, die Ressourcen-Auslastung im gesamten Cluster zu verbessern, indem virtuelle Maschinen automatisch migriert werden (VMotion) oder eine Empfehlung für die Migration virtueller Maschinen gegeben wird. Weitere Informationen finden Sie im Handbuch zum Ressourcen-Management. 52 VMware, Inc. 3 Voraussetzungen und Installation 3 In diesem Kapitel werden Hardware- und Systemvoraussetzungen für den Einsatz von ESX Server-Systemen mit SAN-Speicher erläutert. Das Kapitel umfasst die folgenden Abschnitte: „Allgemeine Voraussetzungen für ESX Server mit SAN“ auf Seite 54. „Voraussetzungen für einen ESX Server-Systemstart über SAN“ auf Seite 57. „Schritte für Installation und Setup“ auf Seite 59. Es werden nur die grundlegendsten Voraussetzungen aufgeführt. Lesen Sie vor dem Konfigurieren Ihres Systems Kapitel 4, „Einrichten von SAN-Speicher-Devices mit ESX Server,“ auf Seite 61. VMware, Inc. 53 Handbuch der SAN-Konfiguration Allgemeine Voraussetzungen für ESX Server mit SAN Prüfen Sie während der Vorbereitung der SAN-Konfiguration und der Einrichtung Ihres ESX Server-Systems für die Verwendung von SAN-Speicher die folgenden Anforderungen und Empfehlungen: Hardware und Firmware. In Verbindung mit ESX Server-Systemen wird nur eine begrenzte Zahl von Kombinationen aus SAN-Speicher-Hardware und -Firmware unterstützt. Eine aktuelle Liste finden Sie im Storage/SAN Compatibility Guide. Ein VMFS-Volume pro LUN. Stellen Sie sicher, dass Sie Ihr System so konfigurieren, dass pro LUN nur ein VMFS-Volume vorhanden ist. (In VMFS-3 müssen Sie die Zugänglichkeit nicht mehr festlegen.) Sofern Sie keine Server ohne Festplatte verwenden, richten Sie die Diagnosepartition auf einer SAN-LUN nicht ein. Für Server ohne Festplatte, die über SAN booten, eignet sich eine gemeinsam genutzte Diagnosepartition. Weitere Informationen finden Sie unter „Gemeinsame Nutzung von Diagnosepartitionen“ auf Seite 109. Die Verwendung von RDMs wird für den Zugriff auf Raw-Festplatten über einen Rechner mit ESX Server 2.5 oder höher empfohlen. Weitere Informationen über RDMs finden Sie im Handbuch zur Server-Konfiguration. Multipathing. Damit Multipathing fehlerfrei funktioniert, muss jede LUN auf allen ESX Server-Hosts dieselbe LUN-Nummer darstellen. Warteschlangengröße. Stellen Sie sicher, dass der BusLogic- oder LSILogic-Treiber im Gastbetriebssystem eine ausreichend große Warteschlange angibt. Sie können die Warteschlangentiefe für den physischen HBA während der Systemkonfiguration festlegen. Im Storage/SAN Compatibility Guide finden Sie eine Liste der unterstützten Treiber. SCSI-Timeout. Auf virtuellen Maschinen, die Microsoft Windows ausführen, sollten Sie den Wert des SCSI-Parameters TimeoutValue erhöhen, sodass Windows verzögerte I/O aufgrund eines Pfad-Failovers besser tolerieren kann. Siehe „Festlegen des Betriebssystem-Timeouts“ auf Seite 108. Weitere Informationen finden Sie in den folgenden Abschnitten: 54 „Einschränkungen“ auf Seite 55 „Festlegen von LUN-Zuweisungen“ auf Seite 55 „Einrichten des FC-HBA“ auf Seite 56 VMware, Inc. Kapitel 3 Voraussetzungen und Installation Einschränkungen Die folgenden Einschränkungen gelten, wenn Sie ESX Server mit einem SAN verwenden: ESX Server unterstützt keine FC-verbundenen Band-Devices. Diese Devices können vom VMware Consolidated Backup-Proxy verwaltet werden, der im Handbuch für das Backup virtueller Maschinen erläutert wird. Multipathing-Software für virtuelle Maschinen kann nicht zum Ausführen des I/O-Lastausgleichs auf eine einzige physische LUN verwendet werden. Sie können logische Volume-Manager-Software für virtuelle Maschinen nicht zum Spiegeln virtueller Festplatten verwenden. Dynamische Festplatten auf einer virtuellen Microsoft Windows-Maschine sind eine Ausnahme, erfordern allerdings eine besondere Konfiguration. Festlegen von LUN-Zuweisungen Beachten Sie beim Festlegen von LUN-Zuweisungen die folgenden Punkte: Speicherbereitstellung - Um sicherzustellen, dass das ESX Server-System die LUNs beim Starten erkennt, stellen Sie den entsprechenden HBAs alle LUNs bereit, bevor Sie das SAN mit dem ESX Server-System verbinden. HINWEIS Die gleichzeitige Bereitstellung aller LUNs für alle ESX Server-HBAs wird empfohlen. HBA-Failover funktioniert nur, wenn alle HBAs dieselben LUNs sehen. VMotion und VMware DRS - Wenn Sie VirtualCenter und VMotion oder DRS verwenden, stellen Sie sicher, dass die LUNs für die virtuellen Maschinen allen ESX Server-Hosts bereitgestellt werden. Dies bietet maximale Flexibilität beim Verlagern virtueller Maschinen. Aktiv/Aktiv- vs. Aktiv/Passiv-Arrays - Wenn Sie VMotion oder DRS mit einem Aktiv/Passiv-SAN-Speicher-Device verwenden, stellen Sie sicher, dass alle ESX Server-Systeme über konsistente Pfade zu allen Speicherprozessoren verfügen. Andernfalls kann es im Fall einer VMotion-Migration zu Pfad-Thrashing kommen. Siehe „Auflösen von Pfad-Thrashing“ auf Seite 113. Für Aktiv/Passiv-Speicher-Arrays, die nicht im Storage/SAN Compatibility Guide aufgeführt sind, unterstützt VMware den Speicher-Port-Failover nicht. In diesem Fall müssen Sie den Server mit dem aktiven Port auf dem Speicher-Array verbinden. Diese Konfiguration stellt sicher, dass die LUNs auf dem ESX Server-Host angezeigt werden. VMware, Inc. 55 Handbuch der SAN-Konfiguration Einrichten des FC-HBA Beachten Sie während der Einrichtung des FC-HBA die folgenden Punkte: HBA-Standardeinstellungen - FC-HBAs funktionieren mit den Standardkonfigurationseinstellungen fehlerfrei. Beachten Sie die von Ihrem Speicher-Array-Anbieter vorgegebenen Konfigurationsrichtlinien. HINWEIS Um optimale Ergebnisse zu erzielen, verwenden Sie innerhalb eines Servers dasselbe HBA-Modell. Stellen Sie sicher, dass die Firmware-Ebene innerhalb eines Servers auf jedem HBA identisch ist. Das Vorhandensein von Emulex- und QLogic-HBAs auf demselben Server zum selben Ziel wird nicht unterstützt. Statischer Lastausgleich über HBAs - Einige ESX Server-Systeme können so konfiguriert werden, dass ein Lastausgleich des Verkehrs über mehrere HBAs auf mehrere LUNs mit bestimmten Aktiv/Aktiv-Arrays erfolgt. Dazu weisen Sie Ihren LUNs bevorzugte Pfade zu, sodass Ihre HBAs gleichmäßig verwendet werden. Beispiel: wenn Sie über zwei LUNs (A und B) und zwei HBAs (X und Y) verfügen, können Sie HBA X als bevorzugten Pfad für LUN A und HBA Y als bevorzugten Pfad für LUN B festlegen. Dadurch wird die Ausnutzung Ihrer HBAs maximiert. In diesem Fall muss die Pfad-Policy auf Fest gesetzt werden. Siehe „So legen Sie die Multipathing-Policy mit einem VI-Client fest:“ auf Seite 102. Festlegen des Failover-Timeouts - Der Timeout-Value zum Erkennen des Ausfalls eines Pfades wird im HBA-Treiber festgelegt. Wenn Sie den Timeout-Wert auf 30 Sekunden setzen, ist eine optimale Leistung sichergestellt. Dies ist die empfohlene Einstellung. Befolgen Sie zum Festlegen des Wertes die Anweisungen unter „Festlegen des HBA-Timeout für Failover“ auf Seite 107. Dedizierter Adapter für Bandlaufwerke - Um optimale Ergebnisse zu erzielen, verwenden Sie einen dedizierten SCSI-Adapter für alle Bandlaufwerke, die Sie mit einem ESX Server-System verbinden. FC-verbundene Bandlaufwerke werden nicht unterstützt. Verwenden Sie den Consolidated Backup-Proxy, wie im Handbuch für das Backup virtueller Maschinen erläutert. Weitere Informationen zum Systemstart über das SAN-HBA-Setup finden Sie in Kapitel 5, „Verwenden des Systemstarts über SAN mit ESX Server-Systemen,“ auf Seite 77. 56 VMware, Inc. Kapitel 3 Voraussetzungen und Installation Empfehlungen Im folgenden Abschnitt erhalten Sie Anweisungen zu Entscheidungen, die Sie beim Einrichten Ihrer Umgebung mit ESX Server-Hosts und einem SAN treffen müssen: Verwenden Sie das Raw-Device-Mapping für die virtuelle Festplatte einer virtuellen Maschine, damit Sie einige der Hardware-Snapshotting-Funktionen des Festplatten-Arrays nutzen oder in einer Cold-Standby-Host-Konfiguration für Daten-LUNs sowohl von einer virtuellen Maschine als auch von einem physischen Rechner auf eine Festplatte zuzugreifen. Verwenden Sie das Raw-Device-Mapping für die freigegebenen Festplatten in einem Microsoft Cluster Service-Setup. Weitere Informationen finden Sie im VMware-Dokument Einrichtung des Microsoft Cluster-Dienstes. Weisen Sie eine große LUN für die Verwendung durch mehrere virtuelle Maschinen zu, und richten Sie diese als VMFS ein. Anschließend können Sie virtuelle Maschinen dynamisch erstellen oder löschen, ohne bei jedem Hinzufügen einer virtuellen Maschine zusätzlichen Speicherplatz anfordern zu müssen. Wenn Sie eine virtuelle Maschine mit VMotion auf einen anderen Host verschieben möchten, müssen die LUNs, die die virtuellen Festplatten der virtuellen Maschinen enthalten, maskiert werden, sodass sie von allen Hosts sichtbar sind. Weitere Empfehlungen und Informationen zur Fehlerbehebung finden Sie in Kapitel 6, „Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden,“ auf Seite 87. Voraussetzungen für einen ESX Server-Systemstart über SAN Wenn Sie SAN-Speicher mit Ihrem ESX Server-System konfiguriert haben, können Sie das Boot-Image von ESX Server auf einer der LUNs auf dem SAN platzieren. Diese Konfiguration muss bestimmte Kriterien erfüllen, die in diesem Abschnitt erläutert werden. Weitere Informationen finden Sie unter „Verwenden des Systemstarts über SAN mit ESX Server-Systemen“ auf Seite 77. Um Ihr ESX Server-System für den Systemstart über SAN zu aktivieren, sollten Sie: Die allgemeinen Voraussetzungen erfüllen. Siehe „Allgemeine Voraussetzungen für ESX Server mit SAN“ auf Seite 54. Die in Tabelle 3-1 aufgelisteten Aufgaben ausführen. VMware, Inc. 57 Handbuch der SAN-Konfiguration Tabelle 3-1. Voraussetzungen für den Systemstart über SAN Voraussetzung Beschreibung ESX Server-Systemvoraussetzungen ESX Server 3.0 oder höher wird empfohlen. Wenn Sie ein ESX Server 3.0-System verwenden, werden RDMs in Verbindung mit dem Systemstart über SAN unterstützt. Für ein ESX Server 2.5.x-System werden RDMs in Verbindung mit dem Systemstart über SAN nicht unterstützt. HBA-Voraussetzungen Das HBA-BIOS für Ihre HBA-FC-Karte muss aktiviert und korrekt konfiguriert sein, um auf die Boot-LUN zuzugreifen. Siehe „Einrichten des FC-HBA“ auf Seite 56. Der HBA sollte in den niedrigsten PCI-Bus und die niedrigste Slot-Nummer eingesteckt werden. Dadurch können die Treiber den HBA schnell erkennen, da die Treiber die HBAs unabhängig von der zugehörigen HBA-Nummer der virtuellen Maschine in absteigender Reihenfolge von PCI-Bus und Slot-Nummer scannen. Hinweis: Ausführliche Informationen zu Treibern und Versionen finden Sie im ESX Server I/O Compatibility Guide. Überlegungen zur Boot-LUN SAN-Überlegungen Hardwarespezifische Überlegungen 58 Wenn Sie den Systemstart über einen Aktiv/Passiv-Speicher-Array ausführen, muss der Speicherprozessor, dessen WWN in der BIOS-Konfiguration des HBA angegeben ist, aktiv sein. Ist dieser Speicherprozessor passiv, kann der HBA den Boot-Prozess nicht unterstützen. Um die BIOS-Konfiguration zu erleichtern, maskieren Sie jede Boot-LUN, sodass sie nur von ihrem eigenen ESX Server-System angezeigt werden kann. Jedes ESX Server-System sollte seine eigene Boot-LUN sehen, nicht jedoch die Boot-LUN eines anderen ESX Server-Systems. SAN-Verbindungen müssen über eine Switch-Fabric-Topologie erfolgen. Der Systemstart über SAN unterstützt die direkte Verbindung (d. h. eine Verbindung ohne Switches) oder FC-AL-Verbindungen (Fibre Channel Arbitrated Loop) nicht. Redundante und nicht redundante Konfigurationen werden unterstützt. Im redundanten Fall blendet ESX Server die redundanten Pfade aus, sodass dem Anwender nur ein Pfad zu einer LUN angezeigt wird. Wenn Sie ein IBM eServer BladeCenter ausführen und den Systemstart über SAN verwenden, müssen Sie IDE-Laufwerke auf den Blades deaktivieren. Weitere hardware-spezifische Überlegungen finden Sie in der VMware-Knowledge Base und in Kapitel 4, „Einrichten von SAN-Speicher-Devices mit ESX Server,“ auf Seite 61. VMware, Inc. Kapitel 3 Voraussetzungen und Installation Schritte für Installation und Setup In Tabelle 3-2 erhalten Sie einen Überblick über die Installations- und Setup-Schritte mit Verweisen auf relevante Informationen. Tabelle 3-2. Schritte für Installation und Setup Schritt Beschreibung Siehe 1 Entwerfen Sie Ihr SAN, wenn es noch nicht konfiguriert ist. Die meisten vorhandenen SANs erfordern für den Einsatz mit ESX Server nur geringfügige Änderungen. Kapitel 2, „Verwenden von ESX Server mit SAN,“ auf Seite 29. 2 Prüfen Sie, ob alle SAN-Komponenten die Voraussetzungen erfüllen. Kapitel 3, „Allgemeine Voraussetzungen für ESX Server mit SAN,“ auf Seite 54. Richten Sie die HBAs für die ESX Server-Hosts ein. Besondere Voraussetzungen, die nur für den Systemstart über SAN gelten, finden Sie in Kapitel 3, „Voraussetzungen für einen ESX Server-Systemstart über SAN,“ auf Seite 57. 3 Storage/SAN Compatibility Guide. Weitere Informationen finden Sie auch in Kapitel 5, „Verwenden des Systemstarts über SAN mit ESX Server-Systemen,“ auf Seite 77. 4 Führen Sie alle erforderlichen Speicher-Array-Änderungen aus. Einen Überblick finden Sie in Kapitel 4, „Einrichten von SAN-Speicher-Devices mit ESX Server,“ auf Seite 61. Die meisten Anbieter verfügen über anbieterspezifische Dokumentation zum Einrichten eines SANs für den Einsatz mit VMware ESX Server. 5 Installieren Sie ESX Server auf den Hosts, die Sie mit dem SAN verbunden haben und für die Sie die HBAs eingerichtet haben. Handbuch für Installation und Upgrade. 6 Erstellen Sie virtuelle Maschinen. Grundlagen der Systemverwaltung. VMware, Inc. 59 Handbuch der SAN-Konfiguration Tabelle 3-2. Schritte für Installation und Setup Schritt Beschreibung Siehe 7 Richten Sie Ihr System für VMware HA-Failover oder für die Verwendung von Microsoft Clustering Services ein. VMware-Handbuch zum Ressourcen-Management: ESX Server 3.0 und VirtualCenter 2.0. Richten Sie den Microsoft Cluster-Dienst ein. Dieser Schritt ist optional. 8 Führen Sie gegebenenfalls Upgrades oder Änderungen Ihrer Umgebung durch. Eine Einführung finden Sie in Kapitel 6, „Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden,“ auf Seite 87. Durchsuchen Sie die Artikel der VMware-Knowledge Base nach rechnerspezifischen Informationen und aktuellen Daten. 60 VMware, Inc. 4 Einrichten von SAN-Speicher-Devices mit ESX Server 4 In diesem Kapitel werden verschiedene Speicher-Devices beschrieben, die in Verbindung mit VMware ESX Server unterstützt werden. Zu jedem Device werden die wichtigsten potenziellen Fehler, herstellerspezifische Angaben (sofern verfügbar) und Informationen aus Artikeln der VMware-Wissenbasis aufgeführt. HINWEIS Die Informationen in diesem Dokument werden nur bei einer neuen Produktveröffentlichung aktualisiert. In der Zwischenzeit können jedoch neue Informationen vorliegen. Lesen Sie den aktuellen Storage/SAN Compatibility Guide, fragen Sie den Händler, bei dem Sie den Speicher-Array erworben haben, und informieren Sie sich in den Artikeln der VMware-Wissensbasis. In diesem Kapitel werden folgende Themen behandelt: „Einrichtungsübersicht“ auf Seite 62. „Allgemeine Überlegungen“ auf Seite 64. „EMC CLARiiON-Speichersysteme“ auf Seite 64. „EMC Symmetrix-Speichersysteme“ auf Seite 66. „IBM TotalStorage DS4000-Speichersysteme“ auf Seite 67. „IBM TotalStorage 8000“ auf Seite 71. „HP StorageWorks-Speichersysteme“ auf Seite 72. „Hitachi Data Systems-Speicher“ auf Seite 75. „Network Appliance-Speicher“ auf Seite 75. VMware, Inc. 61 Handbuch der SAN-Konfiguration Einrichtungsübersicht VMware ESX Server unterstützt eine breite Palette von SAN-Speicher-Arrays in verschiedenen Konfigurationen. Nicht alle Speicher-Devices sind für alle Funktionen von ESX Server zertifiziert. Zudem wird ESX Server nicht von allen Anbietern gleichermaßen unterstützt. Aktuelle Informationen über unterstützte Speicher-Arrays finden Sie im Storage/SAN Compatibility Guide. Ausführlichere Informationen enthalten die folgenden Abschnitte: „Tests“ auf Seite 62. „Unterstützte Devices“ auf Seite 63. Tests VMware testet ESX Server mit Speicher-Arrays in den folgenden Konfigurationen: 62 Basiskonnektivität – Testet, ob ESX Server den Speicher-Array erkennt und mit ihm interagiert. Diese Konfiguration ermöglicht kein Multipathing oder Failover. HBA-Failover – Der Server verfügt über mehrere HBAs, die mit ein oder mehreren SAN-Switches verbunden sind. Der Server ist nur vor einem HBA- und Switch-Ausfall geschützt. Speicherport-Failover – Der Server ist mit mehreren Speicherports verbunden und vor Speicherport- und Switch-Ausfällen geschützt. Systemstart über SAN – Der ESX Server-Host startet über eine im SAN konfigurierte LUN, anstatt über den Server selbst. Direktverbindung – Der Server ist ohne Einsatz von Switches über ein FC-Kabel mit dem Array verbunden. Für alle anderen Tests wird eine Fabric-Verbindung verwendet. FC-AL (Fibre Channel Arbitrated Loop) wird nicht unterstützt. Clustering – Das System wird mit Microsoft Cluster Service getestet, das auf der virtuellen Maschine ausgeführt wird. Weitere Informationen finden Sie im Dokument Einrichtung des Microsoft Cluster-Dienstes, das Teil dieses Dokumentationssatzes ist. VMware, Inc. Kapitel 4 Einrichten von SAN-Speicher-Devices mit ESX Server Unterstützte Devices Tabelle 4-1 enthält eine Auflistung der von ESX Server 3.0 unterstützten Speicher-Devices sowie Verweise auf Informationen über ihre Verwendung mit ESX Server. Tabelle 4-1. Unterstützte SAN-Arrays Hersteller Gerät Siehe EMC CLARiiON-Speichersystem. „EMC CLARiiON-Speichersysteme“ auf Seite 64. Auch von FSC erhältlich. Auch von Dell, Inc. erhältlich als Dell/EMC FC RAID Array-Produktreihe. IBM Symmetrix-Speichersystem. „EMC Symmetrix-Speichersysteme“ auf Seite 66. IBM TotalStorage DS 4000-Systeme (ehemals FAStT-Speichersystem). „IBM TotalStorage DS4000-Speichersysteme“ auf Seite 67. Auch erhältlich von LSI Eugenio und StorageTek. IBM TotalStorage Enterprise-Speichersysteme (ehemals Shark-Speichersysteme). „IBM TotalStorage 8000“ auf Seite 71. IBM SVC (SAN Volume Controller). Hewlett Packard HP StorageWorks (MSA, EVA und XP). „HP StorageWorks-Speichersysteme“ auf Seite 72. Hitachi Hitachi Data Systems-Speicher. „Hitachi Data Systems-Speicher“ auf Seite 75. Auch erhältlich von Sun und als HP XP. Network Appliance VMware, Inc. Network Appliance-FC-SANSpeicherlösungen. „Network Appliance-Speicher“ auf Seite 75. 63 Handbuch der SAN-Konfiguration Allgemeine Überlegungen Stellen Sie bei allen Speicher-Arrays sicher, dass die folgenden Bedingungen erfüllt sind: Die LUNs müssen für jeden HBA der einzelnen Hosts die gleiche LUN-ID aufweisen. Wenn mehrere Nummern verwendet werden, erkennen die ESX Server-Hosts keine unterschiedlichen Pfade zur gleichen LUN. Da sich die Anweisungen zur Konfiguration identischer LUN-IDs in einem SAN je nach Anbieter unterscheiden, sollten Sie in der Dokumentation zu Ihrem Speicher-Array nachschlagen. Sofern für die in diesem Kapitel behandelten Speicher-Arrays nichts anderes angegeben ist, sollten Sie den Host-Typ der LUNs für ESX Server auf Linux oder Linux Cluster einstellen. Wenn Sie VMotion, DRS oder HA verwenden, stellen Sie sicher, dass sowohl die Quell- als auch die Ziel-Hosts für virtuelle Maschinen die gleichen LUNs erkennen. SAN-Administratoren erscheint es möglicherweise nicht logisch, dass mehrere Hosts die gleichen LUNs erkennen, da sie um Datenverluste besorgt sind. VMFS verhindert jedoch, dass mehrere virtuelle Maschinen gleichzeitig in eine Datei schreiben, d. h. es macht durchaus Sinn, die LUNs allen erforderlichen ESX Server-Systemen bereitzustellen. EMC CLARiiON-Speichersysteme Die CLARiiON-Speichersysteme von EMC können in SAN-Konfigurationen mit ESX Server-Rechnern verwendet werden. Die Konfiguration umfasst im Wesentlichen folgende Schritte: 1 Installieren und Konfigurieren des Speicher-Devices 2 Konfigurieren von Zoning auf der Switch-Ebene 3 Erstellen von RAID-Gruppen 4 Erstellen und Verknüpfen von LUNs 5 Registrieren der mit dem SAN verbundenen Server 6 Erstellen von Speichergruppen für die Server und LUNs Die Konfiguration erfolgt mit EMC Software. Weitere Informationen finden Sie in der EMC Dokumentation. 64 VMware, Inc. Kapitel 4 Einrichten von SAN-Speicher-Devices mit ESX Server HINWEIS Hierbei handelt es sich um einen Aktiv/Passiv-Festplatten-Array, zu dem dieses Dokument verwandte Themen enthält. Um ein potenzielles Pfad-Thrashing zu verhindern, lautet die Multipathing-Policy standardmäßig nicht Feststehend, sondern Zuletzt verwendet. Das ESX Server-System legt die Standard-Policy fest, wenn es den Array identifiziert. Weitere Informationen finden Sie unter „Auflösen von Pfad-Thrashing“ auf Seite 113. HINWEIS Stellen Sie für den Systemstart über SAN sicher, dass der aktive Speicherprozessor für das über die Boot-LUN angesteuerte Ziel im HBA-BIOS ausgewählt ist. Ausführlichere Informationen finden Sie unter „EMC CLARiiON AX100“ auf Seite 65. EMC CLARiiON AX100 Wenn Sie einen EMC CLARiiON-Speicher-Array verwenden, lesen Sie die folgenden Abschnitte: „EMC CLARiiON AX100 und RDM“ auf Seite 65. „AX100-Anzeigeprobleme mit inaktiven Verbindungen“ auf Seite 65. „Automatische Volume-Resignatur“ auf Seite 66. EMC CLARiiON AX100 und RDM Auf EMC CLARiiON AX100-Systemen werden RDMs nur unterstützt, wenn Sie für die SAN-Administration die Navisphere Management Suite verwenden. Die einwandfreie Funktionsweise von Navilight kann nicht garantiert werden. Um RDMs verwenden zu können, muss jedem ESX Server-Host im Cluster eine bestimmte LUN mit der gleichen LUN-ID zugeordnet werden. Dies ist beim AX100-System standardmäßig nicht der Fall. AX100-Anzeigeprobleme mit inaktiven Verbindungen Bei Verwendung eines AX100-FC-Speicher-Devices, das direkt mit einem ESX Server-System verbunden ist, müssen Sie sicherstellen, dass alle Verbindungen funktionieren, und nicht mehr verwendete Verbindungen deregistrieren. Andernfalls kann ESX Server keine neuen LUNs oder Pfade erkennen. VMware, Inc. 65 Handbuch der SAN-Konfiguration Stellen Sie sich folgendes Szenario vor: 1 Ein ESX Server-System ist direkt mit einem AX100-Speicher-Device verbunden. Das ESX Server-System verfügt über zwei FC-HBAs. Einer der HBAs wurde für den Speicher-Array registriert, und seine LUNs wurden konfiguriert, die Verbindungen werden aber inzwischen nicht mehr benötigt. 2 Wenn Sie den zweiten HBA im ESX Server-Host mit dem AX100 verbinden und ihn registrieren, zeigt der ESX Server-Host den Array korrekt mit einer aktiven Verbindung an. Dennoch wird keine der LUNs angezeigt, die zuvor für den ESX Server-Host konfiguriert wurden, auch nicht nach wiederholtem Scannen. Um dieses Problem zu lösen, müssen Sie den inaktiven HBA entfernen, die Verbindung mit dem inaktiven HBA deregistrieren oder alle inaktiven Verbindungen aktivieren. Auf diese Weise enthält die Speichergruppe nur aktive HBAs. Nachdem Sie diese Änderung vorgenommen haben, wiederholen Sie den Scanvorgang, um die konfigurierten LUNs hinzuzufügen. Automatische Volume-Resignatur Die automatische Volume-Resignatur wird von AX100-Speicher-Devices nicht unterstützt. Informationen über die Volume-Resignatur finden Sie unter „VMFS-Volume-Resignatur“ auf Seite 122. EMC Symmetrix-Speichersysteme Die folgenden Einstellungen sind für ESX Server-Vorgänge in einem vernetzten Symmetrix-Speichersystem erforderlich: Gemeinsame Seriennummer (C). Auto-Negotiation (EAN) aktiviert. Fibrepath auf diesem Port aktiviert (VCM). SCSI 3 (SC3) aktiviert. Eindeutiger World Wide Name (UWN). SPC-2 (Decal) (SPC2) SPC-2-Flag deaktiviert. Die Konfiguration des Speicher-Arrays erfolgt mit EMC Software. Weitere Informationen finden Sie in der EMC Dokumentation. HINWEIS Der ESX Server-Host betrachtet alle LUNs eines Symmetrix-Speicher-Arrays mit einer Kapazität von 50 MB oder weniger als Management-LUNs. Diese LUNs werden auch als Pseudo- oder Gatekeeper-LUNs bezeichnet. Sie erscheinen in der EMC Symmetrix Management Interface und sollten nicht zum Speichern von Daten verwendet werden. 66 VMware, Inc. Kapitel 4 Einrichten von SAN-Speicher-Devices mit ESX Server IBM TotalStorage DS4000-Speichersysteme Die frühere Bezeichnung von IBM TotalStorage DS4000-Systemen lautet IBM FAStT. Zahlreiche Anbieter von Speicher-Arrays (einschließlich LSI und StorageTek) stellen SAN-Speicher-Arrays her, die mit DS4000-Speichern kompatibel sind. Ausführliche Informationen finden Sie im IBM Redbook Implementing VMware ESX Server with IBM TotalStorage FAStT unter http://www.redbooks.ibm.com/redbooks/pdfs/sg246434.pdf. Dieser Abschnitt enthält eine Zusammenfassung der Konfiguration eines IBM TotalStorage-Speichersystems zur Verwendung mit SAN und Microsoft Clustering Service. Weitere Informationen finden Sie im Dokument Einrichtung des Microsoft Cluster-Dienstes. Neben den herkömmlichen Konfigurationsschritten für das IBM TotalStorage-Speichersystem müssen Sie bestimmte Aufgaben ausführen. Weitere Informationen finden Sie in den folgenden Abschnitten: „Konfigurieren der Hardware für SAN-Failover bei DS4000-Speicherservern“ auf Seite 67 „Überprüfen der Port-Konfiguration des Speicherprozessors“ auf Seite 69. „Deaktivieren der automatischen Volume-Übertragung (AVT)“ auf Seite 70. „Konfigurieren von Sense-Daten des Speicherprozessors“ auf Seite 70. „IBM TotalStorage DS4000 und Pfad-Thrashing“ auf Seite 71. Darüber hinaus müssen Sie sicherstellen, dass die Multipathing-Policy auf Zuletzt verwendet eingestellt ist. Weitere Informationen finden Sie unter „Anzeigen des aktuellen Multipathing-Status“ auf Seite 98. Konfigurieren der Hardware für SAN-Failover bei DS4000-Speicherservern Zum Einrichten einer hochverfügbaren SAN-Failover-Konfiguration für DS4000-Speichermodelle mit zwei Speicherprozessoren benötigen Sie die folgenden Hardware-Komponenten: Zwei FC-HBAs auf jedem ESX Server-Rechner (z. B. QLogic oder Emulex). Zwei FC-Switches zur Verbindung der HBAs mit dem SAN (z. B. FC-Switch 1 und FC-Switch 2). Zwei SPs (z. B. SP1 und SP2). Jeder SP muss über mindestens zwei Ports mit dem SAN verbunden sein. VMware, Inc. 67 Handbuch der SAN-Konfiguration ESX Server 1 HBA1 HBA2 FC-Switch 1 ESX Server 2 HBA3 HBA4 FC-Switch 2 SP1 SP2 Speicher Abbildung 4-1. SAN-Failover Verwenden Sie die folgenden Verbindungseinstellungen für den ESX Server-Host, wie in Abbildung 4-1 gezeigt: Verbinden Sie jeden HBA auf jedem ESX Server-Rechner mit einem separaten Switch. Beispielsweise können Sie HBA1 mit FC-Switch 1 und HBA2 mit FC Switch 2 verbinden. Verbinden Sie SP1 an FC-Switch 1 mit einer niedrigeren Switch-Port-Nummer als SP2, damit SP1 zuerst aufgeführt wird. Beispielsweise können Sie SP1 mit FC-Switch 1, Port 1 und SP2 mit FC-Switch 1, Port 2 verbinden. Verbinden Sie SP1 an FC-Switch 2 mit einer niedrigeren Switch-Port-Nummer als SP2, damit SP1 zuerst aufgeführt wird. Beispielsweise können Sie SP1 mit Port 1 an FC-Switch 2 und SP2 mit Port 2 an FC-Switch 2 verbinden. Diese Konfiguration stellt zwei Pfade von jedem HBA bereit, sodass jedes Verbindungselement an einen redundanten Pfad übergeben werden kann. Die Reihenfolge der Pfade in der oben beschriebenen Konfiguration ermöglicht ein HBA-und Switch-Failover, ohne dass ein SP-Failover ausgelöst werden muss. Die LUNs müssen dem Speicherprozessor zugeordnet sein, mit dem die bevorzugten Pfade verbunden sind (in der Beispielkonfiguration oben sollten sie SP1 zugeordnet sein). HINWEIS In den voranstehenden Beispielen wird davon ausgegangen, dass die Switches nicht über einen Inter-Switch Link (ISL) in einem Fabric verbunden sind. 68 VMware, Inc. Kapitel 4 Einrichten von SAN-Speicher-Devices mit ESX Server Überprüfen der Port-Konfiguration des Speicherprozessors Sie können die Port-Konfiguration des Speicherprozessors überprüfen, indem Sie die Informationen des VI-Clients mit den Informationen im Profil des DS4000-Subsystems vergleichen. So überprüfen Sie die Port-Konfiguration des Speicherprozessors 1 Stellen Sie mit einem VI-Client eine Verbindung mit dem ESX Server-Host her. 2 Wählen Sie den Host aus, und klicken Sie auf die Registerkarte Konfiguration. 3 Klicken Sie im Hardware-Fenster auf Storage-Adapter. 4 Wählen Sie die einzelnen Speicheradapter aus, um ihren WWPN anzuzeigen. 5 Wählen Sie Speicher, um die verfügbaren Datastores anzuzeigen. Vergleichen Sie die WWPN-Informationen mit den Informationen im Profil des DS4000-Speichersubsystems. VMware, Inc. 69 Handbuch der SAN-Konfiguration Deaktivieren der automatischen Volume-Übertragung (AVT) Um ein potenzielles Pfad-Thrashing zu verhindern, deaktivieren Sie die automatische Volume-Übertragung (Auto Volume Transfer, AVT) für die SAN-Speicherprozessoren. Wenn AVT aktiviert ist, können die beiden Speicherprozessoren die LUN in bestimmten Situationen abwechselnd beanspruchen, wodurch die Performance beeinträchtigt wird. AVT wird auch als ADT (Auto Disk Transfer) bezeichnet. Weitere Informationen finden Sie unter „Auflösen von Pfad-Thrashing“ auf Seite 113. Um AVT zu deaktivieren, stellen Sie den Host-Typ im DS 4000 Storage Manager auf LNXCL ein, und zwar für jeden Port, der in allen Host-Gruppen mit HBAs für einen oder mehrere ESX Server-Rechner definiert ist. HINWEIS Nachdem Sie die AVT-Konfiguration geändert haben, müssen Sie den ESX Server-Host neu starten. Konfigurieren von Sense-Daten des Speicherprozessors Speicherprozessoren können so konfiguriert werden, dass sie im Ruhezustand entweder Unit Attention oder Not Ready zurückgeben. Ein DS4000-Speicherprozessor, der unter Windows als Gastbetriebssystem ausgeführt wird, sollte im Ruhezustand die Sense-Daten Not Ready zurückgeben. Die Rückgabe von Unit Attention kann bei einem Failover zu einem Absturz des Windows-Gastbetriebssystems führen. So konfigurieren Sie die Speicherprozessoren für die Rückgabe der Sense-Daten Not Ready 1 Bestimmen Sie den Index für den Host-Typ LNXCL, indem Sie die folgenden Befehle in einem Shell-Fenster eingeben. Drücken Sie nach jedem Befehl die Eingabetaste. SMcli.exe <IP-Adr-für-SPA> show hosttopology; <Eingabetaste> SMcli.exe <IP-Adr-für-SPB> show hosttopology; <Eingabetaste> Bei den folgenden Befehlen wird davon ausgegangen, dass 13 dem Index für LNXCL in den NVSRAM-Host-Typ-Definitionen entspricht. Wenn Ihre Speicherprozessoren einen anderen Index für LNXCL aufweisen, ersetzen Sie diesen Index in den folgenden Befehlen durch 13. 2 Führen Sie die folgenden Befehle für SPA aus, damit dieser die Sense-Daten Not Ready zurückgibt. Drücken Sie die Eingabetaste erst, nachdem Sie alle Befehle eingegeben haben. SMcli.exe <IP-Adr-für-SPA> set controller [a] HostNVSRAMBYTE [13,0x12]=0x01; set controller [a] HostNVSRAMBYTE [13,0x13]=0x00; reset Controller [a]; <Eingabetaste> 70 VMware, Inc. Kapitel 4 Einrichten von SAN-Speicher-Devices mit ESX Server 3 Führen Sie die folgenden Befehle für SPB aus, damit dieser die Sense-Daten Not Ready zurückgibt. Drücken Sie die Eingabetaste erst, nachdem Sie alle Befehle eingegeben haben. SMcli.exe <IP-Adr-für-SPB> set controller [b] HostNVSRAMBYTE [13,0x12]=0x01; set controller [b] HostNVSRAMBYTE [13,0x13]=0x00; reset Controller [b]; <Eingabetaste> HINWEIS Wenn Sie die DS4000 Storage Manager-GUI verwenden, fügen Sie die Konfigurationsbefehle für beide Speicherprozessoren in ein Skript ein, und konfigurieren Sie die Speicherprozessoren gleichzeitig. Wenn Sie SMcli.exe verwenden, müssen Sie mit jedem Speicherprozessor einzelne Verbindungen herstellen. IBM TotalStorage DS4000 und Pfad-Thrashing Wenn Path-Thrashing bei einem DS 4000 oder einem kompatiblen SAN-Array festgestellt wird, wird die folgende Warnung in das VMkernel-Protokoll geschrieben. FAStT SAN is path thrashing with another system. Check AVT setting. IBM TotalStorage 8000 IBM TotalStorage 8000-Systeme verwenden einen Aktiv/Aktiv-Array, der keine besondere Konfiguration in Verbindung mit VMware ESX Server erfordert. Um RDMs verwenden zu können, muss jedem ESX Server-Host im Cluster eine bestimmte LUN mit der gleichen LUN-ID zugeordnet werden. Aktivieren Sie im TotalStorage Configuration Management-Tool das Kontrollkästchen Use same ID for LUN in source and target. HINWEIS Wenn Sie den ESX Server-Host für den Systemstart über eine SAN-LUN in einem IBM TotalStorage 8000-Array konfigurieren, deaktivieren Sie den internen Fibre-Port für das entsprechende Blade, bis die Installation abgeschlossen ist. Automatische Resignatur Die automatische Resignatur wird für IBM TotalStorage 8000-Systeme nicht unterstützt. VMware, Inc. 71 Handbuch der SAN-Konfiguration HP StorageWorks-Speichersysteme Dieser Abschnitt enthält Informationen zur Konfiguration der verschiedenen HP StorageWorks-Speichersysteme. In diesem Abschnitt werden folgende Themen behandelt: „HP StorageWorks MSA“ auf Seite 72. „HP StorageWorks EVA“ auf Seite 74. „HP StorageWorks XP“ auf Seite 74. Weitere Informationen finden Sie in den HP ActiveAnswers im Abschnitt zu VMware ESX Server unter http://h71019.www7.hp.com/ActiveAnswers/cache/71086-0-0-0-121.html. HP StorageWorks MSA Dieser Abschnitt enthält Themen, die für Sie interessant sind, wenn Sie die Aktiv/Passiv-Version von HP StorageWorks MSA verwenden. Festlegen des Profilnamens „Linux“ Um HP StorageWorks MSA 1000 und MSA 1500 mit ESX Server-Systemen verwenden zu können, müssen Sie die FC-Verbindungen zwischen dem SAN-Array und dem ESX Server-Host konfigurieren und den Profilnamen Linux festlegen. So legen Sie den Profilnamen für eine Verbindung fest 1 Richten Sie über die Befehlszeilen-Oberfläche des MSA 1000 eine statische Verbindung mit dem MSA 1000 ein. Informationen zur Installation und Konfiguration der Befehlszeilen-Oberfläche finden Sie in der Dokumentation zu HP StorageWorks MSA 1000. HINWEIS Die Verbindungseinstellungen können nicht mit dem HP Array Configuration Utility festgelegt werden. 72 2 Verbinden Sie die Befehlszeilen-Oberfläche des MSA 1000 mit dem MSA 1000. 3 Stellen Sie sicher, dass das FC-Netzwerk zwischen dem MSA 1000 und dem ESX Server-Host funktioniert. VMware, Inc. Kapitel 4 Einrichten von SAN-Speicher-Devices mit ESX Server 4 Rufen Sie die Befehlszeilen-Oberfläche auf, und geben Sie Folgendes in die Befehlszeile ein: SHOW CONNECTIONS Zu jedem FC-WWNN und -WWPN, der dem MSA 1000 zugeordnet ist, wird eine Verbindungsspezifikation angezeigt: Connection Name: <unbekannt> Host WWNN = 20:02:00:a0:b8:0c:d5:56 Host WWPN = 20:03:00:a0:b8:0c:d5:57 Profile Name = Default Unit Offset 0 Controller 1 Port 1 Status = Online Controller 2 Port 1 Status = Online 5 Stellen Sie sicher, dass der WWNN und WWPN des Hosts die richtige Verbindung zu jedem FC-Adapter auf dem ESX Server-Rechner anzeigen. 6 Erstellen Sie mit folgendem Befehl eine statische Verbindung: ADD CONNECTION ESX_CONN_1 WWNN=20:02:00:a0:b8:0c:d5:56 WWPN=20:03:00:a0:b8:0c:d5:57 PROFILE=LINUX 7 Überprüfen Sie die Verbindung mit folgendem Befehl: SHOW CONNECTIONS Die Ausgabe zeigt eine einzelne Verbindung mit dem WWNN/WWPN-Paar 20:02:00:a0:b8:0c:d5:56 und 20:03:00:a0:b8:0c:d5:57 sowie den Profilnamen Linux: Connection Name: ESX_CONN_1 Host WWNN = 20:02:00:a0:b8:0c:d5:56 Host WWPN = 20:03:00:a0:b8:0c:d5:57 Profile Name = Linux Unit Offset = 0 Controller 1 Port 1 Status = Online Controller 2 Port 1 Status = Online HINWEIS Stellen Sie sicher, dass für WWNN = 20:02:00:a0:b8:0c:d5:56 und WWPN = 20:03:00:a0:b8:0c:d5:57 nur eine Verbindung angezeigt wird. Für WWNN= 20:02:00:a0:b8:0c:d5:56 und WWPN = 20:03:00:a0:b8:0c:d5:57 sollte keine Verbindung mit dem Verbindungsnamen unbekannt angezeigt werden. 8 VMware, Inc. Fügen Sie für jeden WWNN und WWPN auf dem ESX Server-Host statische Verbindungen (mit unterschiedlichen Werten für den Verbindungsnamen) hinzu. 73 Handbuch der SAN-Konfiguration Probleme mit dem Hub-Controller Es ist möglich, dass das ESX Server-System nicht einwandfrei mit dem MSA-Hub-Controller funktioniert. Verwenden Sie stattdessen den internen 2/8-Switch oder den Single Port Controller. HP StorageWorks EVA Es gibt zwei Arten von HP StorageWorks EVA-Systemen: das Aktiv/Passiv-System EVA_GL und das Aktiv/Aktiv-System EVA_XL. Legen Sie als Verbindungstyp Benutzerdefiniert fest, wenn Sie einem ESX Server-Host eine LUN zuordnen. Die Werte lauten folgendermaßen: Für HP EVAgl 3000/5000 (Aktiv/Passiv) verwenden Sie den Host-Modustyp 000000002200282E. Für HP EVAgl-Firmware 4.001 (Aktiv/Aktiv-Firmware für GL-Reihe) und höher verwenden Sie den Host-Modustyp VMware. Für EVA4000/6000/8000-Aktiv/Aktiv-Arrays mit Firmware unter 5.031 verwenden Sie den Host-Modustyp 000000202200083E. Für EVA4000/6000/8000-Aktiv/Aktiv-Arrays mit Firmware 5.031 und höher verwenden Sie den Host-Modustyp VMware. Darüber hinaus erfordern EVA-Systeme keine besonderen Konfigurationsanpassungen in Verbindung mit einem ESX Server-System. Ausführliche Informationen finden Sie im Dokument VMware Infrastructure 3, HP StorageWorks Best Practices unter http://h71019.www7.hp.com/ActiveAnswers/downloads/VMware3_StorageWorks_ BestPractice.pdf. HP StorageWorks XP Legen Sie für HP StorageWorks XP den Host-Modus Windows fest (nicht Linux). Dieses System ist von Hitachi Data Systems erhältlich. Weitere Informationen finden Sie unter „Hitachi Data Systems-Speicher“ auf Seite 75. 74 VMware, Inc. Kapitel 4 Einrichten von SAN-Speicher-Devices mit ESX Server Hitachi Data Systems-Speicher Dieser Abschnitt enthält einen Überblick über die Einrichtung von Hitachi Data Systems-Speichern. Diese Speicherlösung ist auch von Sun und als HP XP-Speicher erhältlich. LUN-Maskierung – Um optimale Ergebnisse beim Maskieren von LUNs auf einem ESX Server-Host zu erzielen, sollten Sie die HDS Storage Navigator-Software verwenden. Microcode und Konfigurationen – Informationen über die zur Interoperabilität mit ESX Server erforderlichen Konfigurationen und Microcode-Level erhalten Sie von Ihrem HDS-Vertreter. Wenn Ihr Microcode nicht unterstützt wird, ist normalerweise keine Interaktion mit ESX Server möglich. Modi – Die von Ihnen festgelegten Modi hängen davon ab, welches Modell Sie verwenden: 9900 und 9900v verwenden den Netware-Host-Modus. Die 9500v-Reihe verwendet den Host-Modus 1: Standard und Host-Modus 2: SUN-Cluster. Network Appliance-Speicher Befolgen Sie zur Konfiguration eines Speicher-Devices von Network Appliance die Anweisungen in den folgenden Abschnitten: „Festlegen des LUN- und Initiatorgruppentyps“ auf Seite 75. „Speicherbereitstellung“ auf Seite 76. Festlegen des LUN- und Initiatorgruppentyps Sie müssen für den Speicher-Array den entsprechenden LUN- und Initiatorgruppentyp festlegen: LUN-Typ – VMware (wenn VMware nicht verfügbar ist, verwenden Sie Linux). Initiatorgruppentyp – VMware (wenn VMware nicht verfügbar ist, verwenden Sie Linux). VMware, Inc. 75 Handbuch der SAN-Konfiguration Speicherbereitstellung Sie müssen Speicher bereitstellen. So stellen Sie Speicher über ein Network Appliance-Speicher-Device bereit 1 Erstellen Sie über die Befehlszeilen-Oberfläche oder die FilerView-GUI ein Aggregat, sofern erforderlich. aggr create <WMware-Aggr> <Anzahl der Festplatten> 2 Erstellen Sie ein flexibles Volume. vol create <Aggregatname> <Volume-Größe> 3 Erstellen Sie einen Qtree zum Speichern der LUNs. qtree create <Pfad> 4 Erstellen Sie eine LUN. lun create -s <Größe> -t vmware <Pfad> 5 Erstellen Sie eine Initiatorgruppe. igroup create -f -t vmware <Initiatorgruppenname> 6 Ordnen Sie die LUN der zuvor erstellten Initiatorgruppe zu. lun map (<Pfad>) <Initiatorgruppenname> <LUN-ID> Weitere Informationen zur Verwendung von Network Appliance-Speichern mit VMware-Technologie finden Sie in den folgenden Network Appliance-Dokumenten: 76 Network Appliance & VMware ESX Server: Instantaneous Backup & Recovery with NetApp Snapshot Technology unter http://www.netapp.com/library/tr/3428.pdf. Technical Case Study: Using a Network Appliance SAN with VMware to Facilitate Storage and Server Consolidation unter http://www.netapp.com/library/tr/3401.pdf. VMware, Inc. 5 Verwenden des Systemstarts über SAN mit ESX Server-Systemen 5 In diesem Kapitel werden die Vorteile eines Systemstarts über SAN sowie die Aufgaben beschrieben, die ausgeführt werden müssen, wenn das Boot-Image von ESX Server auf einer SAN-LUN gespeichert werden soll. HINWEIS Wenn der ESX Server-Host nicht über ein SAN gestartet werden soll, können Sie dieses Kapitel überspringen. In diesem Kapitel werden folgende Themen behandelt: „Einführung in den Systemstart über SAN“ auf Seite 78. „Vorteile des Systemstarts über SAN“ auf Seite 79. „Vorbereitungen für den Systemstart über SAN“ auf Seite 79. „Einrichten des FC-HBA für den Systemstart über SAN“ auf Seite 83. VMware, Inc. 77 Handbuch der SAN-Konfiguration Einführung in den Systemstart über SAN Bevor Sie sich überlegen, wie Sie Ihr System für den Systemstart über SAN einrichten, sollten Sie abwägen, ob dies für Ihre Umgebung überhaupt sinnvoll ist. In folgenden Fällen ist ein Systemstart über SAN sinnvoll: Wenn Sie den lokalen Speicher nicht warten möchten. Wenn Sie Wert auf einfaches Klonen von Servicekonsolen legen. In Hardware-Konfigurationen ohne Festplatte, z. B. bei einigen Blade-Systemen. In folgenden Fällen ist ein Systemstart über SAN nicht sinnvoll: Wenn Sie Microsoft Cluster Service verwenden. Wenn die Gefahr von I/O-Kollisionen zwischen der Servicekonsole und VMkernel besteht. HINWEIS In ESX Server 2.5 wurde der Systemstart über SAN in Verbindung mit RDM nicht unterstützt. Diese Einschränkung wurde in ESX Server 3.0 aufgehoben. Weitere Informationen finden Sie unter „Funktionsweise des Systemstarts über SAN“ auf Seite 78. Funktionsweise des Systemstarts über SAN Wenn Sie Ihr System für den Systemstart über SAN einrichten, wird das Boot-Image nicht auf der lokalen Festplatte des ESX Server-Systems, sondern auf einer SAN-LUN gespeichert (siehe Abbildung 5-1). ESX Server ServiceKonsole VMkernel HBA FC-Switch Speicher-Array Boot-Laufwerk Abbildung 5-1. Funktionsweise des Systemstarts über SAN 78 VMware, Inc. Kapitel 5 Verwenden des Systemstarts über SAN mit ESX Server-Systemen Ein System, das für den Systemstart über SAN eingerichtet ist, muss folgende Voraussetzungen erfüllen: Das HBA-BIOS muss die FC-Karte als Boot-Controller bestimmen. Weitere Informationen finden Sie unter „Einrichten des FC-HBA für den Systemstart über SAN“ auf Seite 83. Die FC-Karte muss so konfiguriert sein, dass eine einfache Verbindung mit dem über die Boot-LUN angesteuerten Ziel initiiert wird. Vorteile des Systemstarts über SAN In einer Umgebung, die für den Systemstart über SAN eingerichtet wurde, ist das Betriebssystem auf einer oder mehreren LUNs im SAN-Array installiert. Die Server werden über den Speicherort des Boot-Images informiert. Der Start der Server erfolgt über die LUNs im SAN-Array. HINWEIS Wenn Sie den Systemstart über SAN in Verbindung mit einem VMware ESX Server-System verwenden, muss jeder Server über seine eigene Boot-LUN verfügen. Ein Systemstart über SAN bietet unter anderem folgende Vorteile: Günstigere Server – Server können dichter gepackt werden und ohne internen Speicher kühler laufen. Einfacherer Austausch von Servern – Sie können Server austauschen und neue Server auf den alten Boot-Speicherort verweisen lassen. Weniger Platzverschwendung. Einfachere Backup-Prozesse – Die Boot-Images im SAN können im Rahmen des SAN-Backups gesichert werden. Verbessertes Management – Die Erstellung und Verwaltung des Betriebssystem-Images ist einfacher und effizienter. Vorbereitungen für den Systemstart über SAN Neben der allgemeinen Konfiguration von ESX Server in Verbindung mit einem SAN müssen Sie die folgenden Aufgaben ausführen, um den ESX Server-Host für den Systemstart über SAN einzurichten. So richten Sie den Systemstart über SAN ein 1 Stellen Sie sicher, dass die Konfigurationseinstellungen die allgemeinen Anforderungen für den Systemstart über SAN erfüllen. Weitere Informationen finden Sie unter „Voraussetzungen für einen ESX Server-Systemstart über SAN“ auf Seite 57. VMware, Inc. 79 Handbuch der SAN-Konfiguration 2 Bereiten Sie die Hardware-Komponenten vor. Dazu zählen HBA, Netzwerk-Devices und das Speichersystem. Entsprechende Anweisungen können Sie der Produktdokumentation der jeweiligen Devices entnehmen. Weitere Informationen finden Sie unter „Einrichten des FC-HBA für den Systemstart über SAN“ auf Seite 83. 3 Konfigurieren Sie die LUN-Maskierung im SAN. Dadurch wird sichergestellt, dass jeder ESX Server-Host über eine dedizierte LUN für die Boot-Partitionen verfügt. Die Boot-LUN muss einem einzelnen Server zugeordnet sein. 4 Wählen Sie den Speicherort für die Diagnosepartition. Diagnosepartitionen können auf der gleichen LUN wie die Boot-Partition gespeichert werden. Speicherabbilder werden in Diagnosepartitionen gespeichert. Weitere Informationen finden Sie unter „Gemeinsame Nutzung von Diagnosepartitionen“ auf Seite 109. Im übrigen Teil dieses Abschnitts werden die Aufgaben beschrieben, die ausgeführt werden müssen, bevor ein ESX Server-Rechner über SAN gestartet werden kann. Es werden folgende Themen behandelt: „Grundsätzliche Überlegungen“ auf Seite 80. „Vorbereiten des SAN“ auf Seite 81. „Minimieren der Anzahl an Initiatoren“ auf Seite 82. Grundsätzliche Überlegungen Bevor Sie beginnen, sollten Sie folgende Schritte ausführen: 1 2 80 Prüfen Sie die Empfehlungen oder Beispiele für die von Ihnen gewünschte Einrichtung: Einzelne oder redundante Pfade zur Boot-LUN. FC-Switch-Fabric. Spezielle Empfehlungen zu Ihrem Speicher-Array. Prüfen Sie eventuelle Einschränkungen und Anforderungen, z. B. folgende: Einschränkungen für den Systemstart über SAN. Der vom Hersteller empfohlene Speicher-Array für den Systemstart über SAN. Der vom Hersteller empfohlene Server für den Systemstart über SAN. VMware, Inc. Kapitel 5 Verwenden des Systemstarts über SAN mit ESX Server-Systemen 3 Suchen Sie den WWN für den Boot-Pfad-HBA mit einer der folgenden Methoden: Wechseln Sie beim Start in das FC-HBA-BIOS. Suchen Sie den WWN auf der physischen Karte. Dieser ist vergleichbar mit einer MAC-Adresse. LUN-Maskierung beim Systemstart über SAN Beim Systemstart über SAN spielt die richtige LUN-Maskierung eine entscheidende Rolle. Jeder Server darf lediglich seine eigene Boot-LUN erkennen, nicht die Boot-LUNs anderer Server. Mehrere Server können eine Diagnosepartition gemeinsam nutzen. Dies erreichen Sie durch die LUN-Maskierung. Weitere Informationen finden Sie unter „Gemeinsame Nutzung von Diagnosepartitionen“ auf Seite 109. Vorbereiten des SAN Dieser Abschnitt enthält die Schritte, mit denen das SAN-Speicher-Array für den Systemstart über SAN vorbereitet wird. Schritte 3 bis 7 beziehen sich explizit auf den Systemstart über SAN, Schritte 1 und 2 hingegen nicht. So bereiten Sie das SAN vor 1 Verbinden Sie die FC- und Ethernet-Kabel gemäß den für Ihre Einrichtung geltenden Anweisungen. Überprüfen Sie die FC-Switch-Verkabelung, falls vorhanden. 2 VMware, Inc. Konfigurieren Sie den Speicher-Array. a Machen Sie den ESX Server-Host über den SAN-Speicher-Array im SAN sichtbar. Dieser Schritt wird häufig mit der Erstellung eines Objekts gleichgesetzt. b Richten Sie den ESX Server-Host über den SAN-Speicher-Array so ein, dass die WWPNs der FC-Adapter des Hosts den Port- oder Node-Namen entsprechen. c Erstellen Sie LUNs. d Weisen Sie LUNs zu. e Notieren Sie die IP-Adressen der FC-Switches und Speicher-Arrays. f Notieren Sie den WWPN für jeden beteiligten Speicherprozessor und Host-Adapter. 81 Handbuch der SAN-Konfiguration HINWEIS Wenn Sie zum Installieren von ESX Server im „Systemstart über SAN“-Modus eine Skript-Installation verwenden, müssen Sie bestimmte Schritte ausführen, um unbeabsichtigte Datenverluste zu vermeiden. Weitere Informationen finden Sie im VMware-Wissensbasis-Artikel 1540 unter http://www.vmware.com/support/kb/enduser/std_adp.php?p_faqid=1540. 3 4 Konfigurieren Sie das HBA-BIOS für den Systemstart über SAN, wie in den folgenden Abschnitten beschrieben: „Einrichten des QLogic-FC-HBA für den Systemstart über SAN“ auf Seite 83. „Einrichten des Emulex-FC-HBA für den Systemstart über SAN“ auf Seite 85 Starten Sie das ESX Server-System über die Installations-CD von ESX Server. Weitere Informationen finden Sie im Handbuch für Installation und Upgrade. Das QLogic-BIOS verwendet für die Suche nach einem Boot-Image eine Suchliste von Pfaden (wwpn:lun). Wenn einer der wwpn:lun-Pfade mit einem passiven Pfad verknüpft ist (z. b. bei CLARiiON- oder IBM TotalStorage DS 4000-Systemen denkbar), behält das BIOS den passiven Pfad bei, anstatt einen aktiven Pfad zu suchen. Wenn Sie das ESX Server-System über eine SAN-LUN starten, schlägt der Startvorgang fehl, solange der Host versucht, auf den passiven Pfad zuzugreifen. Minimieren der Anzahl an Initiatoren Stellen Sie sicher, dass die Zone eine minimale Anzahl an Host- und Speicherports enthält. Wenn mehrere Initiatoren in der gleichen Zone enthalten sind und Sie versuchen, eine Boot-LUN auszuwählen, kann dies zum Absturz des Emulex- und QLogic-BIOS führen. Enthält eine Zone beispielsweise fünfzehn Initiatoren und vier Symmetrix-Ports, können Sie möglicherweise keine Boot-LUN über das Emulex- oder QLogic-BIOS auswählen, da es nicht reagiert. Beschränken Sie die Zone für die beiden Host-Ports hingegen auf die vier Speicherports, ist es möglich, eine Boot-LUN auszuwählen. 82 VMware, Inc. Kapitel 5 Verwenden des Systemstarts über SAN mit ESX Server-Systemen Einrichten des FC-HBA für den Systemstart über SAN In diesem Abschnitt wird beschrieben, wie die HBAs eingerichtet werden: „Einrichten des QLogic-FC-HBA für den Systemstart über SAN“ auf Seite 83. „Einrichten des Emulex-FC-HBA für den Systemstart über SAN“ auf Seite 85. Einrichten des QLogic-FC-HBA für den Systemstart über SAN Um das QLogic-HBA-BIOS so zu konfigurieren, dass ESX Server über SAN startet, müssen folgende Aufgaben ausgeführt werden: „Aktivieren des QLogic-HBA-BIOS“ auf Seite 83. „Aktivieren der Boot-Auswahl“ auf Seite 84. „Auswählen der Boot-LUN“ auf Seite 84. „Einrichten des Systemstarts über CD-ROM“ auf Seite 85. HINWEIS Wenn Sie ein IBM BladeCenter verwenden, trennen Sie alle lokalen Festplatten vom Server. Aktivieren des QLogic-HBA-BIOS Um das QLogic-HBA-BIOS so zu konfigurieren, dass ESX Server über SAN startet, müssen Sie zunächst das QLogic-HBA-BIOS aktivieren. So aktivieren Sie das QLogic-HBA-BIOS 1 2 3 VMware, Inc. Rufen Sie das Konfigurationsdienstprogramm BIOS Fast!UTIL auf: a Starten Sie den Server. b Drücken Sie beim Hochfahren des Servers die Tasten Strg+Q. Führen Sie je nach Anzahl der HBAs einen der folgenden Schritte aus. Wenn Sie über einen HBA verfügen, wird die Seite mit den Fast!UTIL-Optionen angezeigt. Fahren Sie fort mit Schritt 3. Wenn Sie über mehrere HBAs verfügen, wählen Sie den entsprechenden HBA manuell aus: i Platzieren Sie den Cursor auf der Seite Select Host Adapter mit den Pfeiltasten auf dem HBA. ii Betätigen Sie die Eingabetaste. Wählen Sie auf der Seite Fast!UTIL Option die Option Configuration Settings aus, und drücken Sie die Eingabetaste. 83 Handbuch der SAN-Konfiguration 4 Wählen Sie auf der Seite Configuration Settings die Option Host Adapter Settings, und drücken Sie die Eingabetaste. 5 Richten Sie das BIOS für die Suche nach SCSI-Devices ein: a Wählen Sie auf der Seite Host Adapter Settings die Option Host Adapter BIOS aus. b Drücken Sie die Eingabetaste, um den Wert in Aktiviert zu ändern. c Drücken Sie zum Beenden die Esc-Taste. Aktivieren der Boot-Auswahl Sie müssen die Boot-Auswahl aktivieren. So aktivieren Sie die Boot-Auswahl 1 Wählen Sie Selectable Boot Settings, und drücken Sie die Eingabetaste. 2 Wählen Sie auf der Seite Selectable Boot Settings die Option Selectable Boot. 3 Drücken Sie die Eingabetaste, um den Wert in Aktiviert zu ändern. Auswählen der Boot-LUN Wenn Sie ein Aktiv/Passiv-Speicher-Array verwenden, muss sich der ausgewählte SP im bevorzugten (aktiven) Pfad zur Boot-LUN befinden. Wenn Sie nicht sicher sind, welcher SP sich im aktiven Pfad befindet, überprüfen Sie dies mit der Management-Software des Speicher-Arrays. Die Ziel-IDs werden vom BIOS erstellt und können sich bei jedem Neustart ändern. So wählen Sie die Boot-LUN aus 1 Wählen Sie mit den Pfeiltasten den ersten Eintrag in der Liste der Speicherprozessoren aus, und drücken Sie die Eingabetaste, um die Seite Select Fibre Channel Device zu öffnen. 2 Wählen Sie mit den Pfeiltasten den gewünschten Speicherprozessor (SP) aus, und drücken Sie die Eingabetaste. Wenn dem SP nur eine LUN zugeordnet ist, wird diese automatisch als Boot-LUN ausgewählt. In diesem Fall können Sie mit Schritt 3 fortfahren. Wenn dem SP mehrere LUNs zugeordnet sind, wird die Seite Select LUN angezeigt. Wählen Sie mit den Pfeiltasten die gewünschte LUN aus, und drücken Sie die Eingabetaste. Platzieren Sie den Cursor auf den übrigen Speicherprozessoren in der Liste, und drücken Sie C, um die Daten zu löschen. 3 84 Drücken Sie zum Beenden zweimal die Esc-Taste, und drücken Sie die Eingabetaste, um die Einstellung zu speichern. VMware, Inc. Kapitel 5 Verwenden des Systemstarts über SAN mit ESX Server-Systemen Einrichten des Systemstarts über CD-ROM Da sich die VMware-Installations-CD im CD-ROM-Laufwerk befindet, müssen Sie das System zunächst für den Systemstart über CD-ROM einrichten. Dazu müssen Sie die Startabfolge in der BIOS-Einrichtung des Systems ändern. Auf dem IBM X-Series 345-Server müssen Sie beispielsweise folgende Schritte ausführen: 1 Rufen Sie beim Hochfahren des Systems das Dienstprogramm für die BIOS-Konfiguration/Einrichtung auf. 2 Wählen Sie Startup Options, und drücken Sie die Eingabetaste. 3 Wählen Sie Startup Sequence Options, und drücken Sie die Eingabetaste. 4 Ändern Sie First Startup Device in [CD-ROM]. Anschließend können Sie das ESX Server-System wie im Handbuch für Installation und Upgrade beschrieben installieren. Einrichten des Emulex-FC-HBA für den Systemstart über SAN Um das Emulex-HBA-BIOS so zu konfigurieren, dass ESX Server über SAN startet, müssen folgende Aufgaben ausgeführt werden: Aktivieren der Boot-BIOS-Eingabeaufforderung (siehe „So aktivieren Sie die Boot-BIOS-Eingabeaufforderung“). Aktivieren des Boot-BIOS (siehe „So aktivieren Sie das BIOS“). So aktivieren Sie die Boot-BIOS-Eingabeaufforderung 1 Führen Sie über die ESX Server-Servicekonsole oder eine Linux-Eingabeaufforderung den Befehl lputil aus. HINWEIS Es besteht die Möglichkeit, den ESX Server-Host über eine Linux-Administrations-CD zu starten, um den Emulex-Treiber zu laden, und anschließend den Befehl lputil darüber auszuführen. 2 Wählen Sie <3> Firmware Maintenance. 3 Wählen Sie einen Adapter aus. 4 Wählen Sie <6> Boot BIOS Maintenance. 5 Wählen Sie <1> Enable Boot BIOS. VMware, Inc. 85 Handbuch der SAN-Konfiguration So aktivieren Sie das BIOS 1 Starten Sie den ESX Server-Rechner neu. 2 Drücken Sie an der Emulex-Eingabeaufforderung die Tasten <ALT+E>. 3 86 a Wählen Sie einen Adapter (mit BIOS-Unterstützung) aus. b Wählen Sie <2> Configure Adapter's Parameters. c Wählen Sie <1> Enable or Disable BIOS. d Wählen Sie <1>, um das BIOS zu aktivieren. e Wählen Sie zum Beenden <x> aus und <N>, um zum Hauptmenü zurückzukehren. Gehen Sie im Emulex-Hauptmenü wie folgt vor: a Wählen Sie den gleichen Adapter aus. b Wählen Sie <1> Configure Boot Devices. c Wählen Sie den Speicherort für den Boot-Eintrag aus. d Geben Sie das zweistellige Boot-Device ein. e Geben Sie die zweistellige (HEX) Boot-LUN ein (z. B. 08). f Wählen Sie die Boot-LUN aus. g Wählen Sie <1> WWPN aus. (Starten Sie das Device über den WWPN, nicht die DID). h Wählen Sie zum Beenden <x> aus und <Y>, um neu zu starten. 4 Rufen Sie das BIOS auf, und verschieben Sie Emulex in der Abfolge des Boot-Controllers an die erste Stelle. 5 Starten Sie neu, und führen Sie die Installation auf einer SAN-LUN durch. VMware, Inc. 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden 6 Dieses Kapitel unterstützt Sie bei der effektiven Verwaltung Ihres ESX Server-Systems, das SAN-Speicher einsetzt, sowie bei der Fehlerbehebung. Folgende Themen werden behandelt: „Probleme und Lösungen“ auf Seite 88. „Abrufen von Informationen“ auf Seite 89. „Lösen von Anzeigeproblemen“ auf Seite 92. „Erweiterte Konfiguration der LUN-Anzeige“ auf Seite 95. „Multipathing“ auf Seite 97. „Failover“ auf Seite 105. „Konfiguration des VMkernels“ auf Seite 108. „Vermeiden und Beheben von Problemen“ auf Seite 109. „Optimieren der SAN-Speicherleistung“ auf Seite 110. „Lösen von Leistungsproblemen“ auf Seite 112. „Überlegungen zum SAN-Speicher-Backup“ auf Seite 118. „Anwendungen mit mehreren Ebenen“ auf Seite 121. „VMFS-Volume-Resignatur“ auf Seite 122. VMware, Inc. 87 Handbuch der SAN-Konfiguration Probleme und Lösungen In Tabelle 6-1 sind die am häufigsten auftretenden Probleme aufgeführt. Es wird entweder ein Lösungsvorschlag angegeben oder auf den Abschnitt verwiesen, in dem das Problem behandelt wird. Tabelle 6-1. Probleme und Lösungen Problem Lösung Im VI-Client ist keine LUN sichtbar. Siehe „Lösen von Anzeigeproblemen“ auf Seite 92. Eine gemeinsam genutzte LUN und ein darauf formatiertes VMFS-Dateisystem sind nicht für alle ESX Server-Hosts sichtbar, die auf die LUN zugreifen. Siehe „Probleme mit der Anzeige derselben LUN-ID auf mehreren Hosts“ auf Seite 123. Sie möchten wissen, wie der Pfad-Failover ausgeführt wird oder die Ausführung des Pfad-Failovers ändern. Mithilfe des VI-Clients können Sie diese Aktionen ausführen. Siehe „Multipathing“ auf Seite 97. Sie möchten die aktuelle Multipathing-Policy oder den bevorzugten Pfad anzeigen oder ändern oder einen Pfad deaktivieren oder aktivieren. Mithilfe des VI-Clients können Sie diese Aktionen ausführen. Siehe „Multipathing“ auf Seite 97. Sie müssen das Windows-Festplatten-Timeout erhöhen, um eine Unterbrechung während des Failovers zu vermeiden. Siehe „Festlegen des Betriebssystem-Timeouts“ auf Seite 108. Sie müssen Treiberoptionen für den QLogic- oder Emulex-HBA anpassen. Siehe „Festlegen von Device-Treiberoptionen für SCSI-Controller“ auf Seite 107. Der Server kann nicht oder nur langsam auf eine LUN zugreifen. Das Problem wird u. U. durch Pfad-Thrashing verursacht. Siehe „Auflösen von Pfad-Thrashing“ auf Seite 113. 88 VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Tabelle 6-1. Probleme und Lösungen Problem Lösung Der Zugriff ist langsam. Wenn Sie über zahlreiche LUNs/VMFS-Volumes verfügen, die alle den Typ VMFS-3 aufweisen, entfernen Sie den VMFS-2-Treiber, indem Sie Folgendes an einer Befehlszeileneingabeaufforderung eingeben: vmkload_mod -u vmfs2 Dadurch erhöht sich die Geschwindigkeit von Management-Vorgängen, wie z. B. dem Aktualisieren von Datastores und dem erneuten Scannen von Speicheradaptern, erheblich. Sie haben dem Speicher eine neue LUN oder einen neuen Pfad hinzugefügt, die bzw. der im VI-Client angezeigt werden soll. Sie müssen neu scannen. Siehe „Verwenden von „Neu scannen““ auf Seite 94. Mögliche Probleme Halten Sie sich an die folgenden Richtlinien, um mögliche Probleme zu vermeiden: Platzieren Sie auf jeder LUN nur ein VMFS-Volume. Mehrere VMFS-Volumes auf einer LUN sind nicht empfehlenswert. Ändern Sie die vom System festgelegte Pfad-Policy nicht. Insbesondere kann es zu Pfad-Thrashing kommen, wenn Sie mit einem Aktiv/Passiv-Array arbeiten und die Pfad-Policy auf Fest setzen. Abrufen von Informationen In diesem Abschnitt wird erläutert, wie Sie Informationen über HBAs, Status, Multipathing usw. abrufen können. Sollten beim Ausführen dieser Aufgaben Probleme auftreten, finden Sie unter „Lösen von Anzeigeproblemen“ auf Seite 92 weitere Informationen. In diesem Abschnitt werden folgende Themen behandelt: „Anzeigen von HBA-Informationen“ auf Seite 90. „Anzeigen von Datastore-Informationen“ auf Seite 90. VMware, Inc. 89 Handbuch der SAN-Konfiguration Anzeigen von HBA-Informationen Mit dem VI-Client können Sie alle verfügbaren Speicheradapter und deren Daten anzeigen. So zeigen Sie eine Liste von HBA-Typen an: 1 Wählen Sie den Host aus, für den Sie die HBAs anzeigen möchten, und klicken Sie auf die Registerkarte Konfiguration. Über die Registerkarte Übersicht können Sie eine Liste aller Speicher-Devices anzeigen. Hier können Sie jedoch keine Details anzeigen oder das Gerät verwalten. 2 Wählen Sie im Hardware-Fenster Storage-Adapter. Eine Liste mit Speicheradaptern wird angezeigt. Sie können jeden Adapter auswählen, um weitere Informationen anzuzeigen. Anzeigen von Datastore-Informationen Mit dem VI-Client können Sie alle formatierten Datastores anzeigen und Details zu einem bestimmten Datastore prüfen. So zeigen Sie alle Speicher-Devices und deren Details an: 1 90 Wählen Sie den Host aus, für den Sie die Speicher-Devices anzeigen möchten, und klicken Sie auf die Registerkarte Konfiguration. VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden 2 Wählen Sie im Hardware-Fenster Speicher (SCSI, SAN und NFS). Die Liste der Datastores (Volumes) wird im Fenster Speicher angezeigt. Das gesamte VMFS für den ausgewählten Host wird angezeigt. Nur Speicher, der mit VMFS formatiert wurde, wird in die Anzeige aufgenommen. In Abbildung 6-1 finden Sie ein Beispiel. 3 Um Details über einen Datastore anzuzeigen, wählen Sie den gewünschten Datastore aus. Im Fenster Details werden zusätzliche Informationen angezeigt. Dazu gehören Speicherort und Kapazität, die Anzahl der Pfade, Pfad-Policy und Eigenschaften sowie Erweiterungsinformationen. Eine Erweiterung ist eine VMFS-formatierte Partition (Teil einer LUN). vmhba 0:0:14 ist z. B. eine LUN, und vmhba 0:0:14:1 ist eine Partition. Ein VMFS-Volume kann mehrere Erweiterungen haben. HINWEIS Die Abkürzung vmhba bezieht sich auf den physischen HBA (QLogic oder Emulex) auf dem ESX Server-System, nicht auf den von den virtuellen Maschinen verwendeten SCSI-Controller. VMFS Datastores (formatiert) Erweiterung Abbildung 6-1. Anzeigen von Speicherinformationen 4 Klicken Sie auf Eigenschaften, um Eigenschaften anzuzeigen und zu ändern. Multipathing-Informationen finden Sie unter „So zeigen Sie den aktuellen Multipathing-Status an:“ auf Seite 98. VMware, Inc. 91 Handbuch der SAN-Konfiguration Lösen von Anzeigeproblemen In diesem Abschnitt wird erläutert, wie Sie häufig auftretende Probleme mit dem Status und der Sichtbarkeit beheben: „Erläuterungen zur LUN-Benennung in der Anzeige“ auf Seite 92. „Beheben von Problemen mit nicht sichtbaren LUNs“ auf Seite 93. „Verwenden von „Neu scannen““ auf Seite 94. „Entfernen von Datastores“ auf Seite 95. Wenn Sie einen AX100-Speicher-Array verwenden, können inaktive Verbindungen zu Anzeigeproblemen führen. Siehe „AX100-Anzeigeprobleme mit inaktiven Verbindungen“ auf Seite 65. Erläuterungen zur LUN-Benennung in der Anzeige Im VI-Client wird eine LUN als Abfolge von drei oder vier Zahlen angezeigt, die durch Doppelpunkte getrennt sind: <SCSI-HBA>:<SCSI-Ziel>:<SCSI-LUN>:<Festplattenpartition> Wenn die letzte Zahl eine 0 ist oder nicht angezeigt wird, bezieht sich der Name auf die gesamte LUN. Die ersten drei Zahlen in einem ESX-Device-Namen können sich ändern, beziehen sich aber trotzdem auf dasselbe physische Device. Beispiel: vmhba1:2:3 steht für SCSI-LUN3, die an SCSI-Ziel 2 auf SCSI-HBA 1 angehängt ist. Wenn das ESX Server-System neu gestartet wird, könnte sich der Device-Name für LUN 3 in vmhba1:1:3 ändern. Die Zahlen haben folgende Bedeutung: 92 Die erste Zahl, der SCSI-HBA, ändert sich, wenn zu dem Zeitpunkt, zu dem das System gestartet oder erneut gescannt wird, ein FC- oder iSCSI-Netzwerkausfall auftritt und ESX über einen anderen SCSI-HBA auf das physische Device zugreifen muss. Die zweite Zahl, das SCSI-Ziel, ändert sich, wenn sich die Zuordnungen in den FC- oder iSCSI-Zielen ändern, die für den ESX Server-Host sichtbar sind. Die dritte Zahl, die SCSI-LUN, ändert sich nie. VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Beheben von Problemen mit nicht sichtbaren LUNs Sie können LUNs mit dem VI-Client anzeigen. Wenn die Anzeige (oder Ausgabe) von Ihren Erwartungen abweicht, prüfen Sie Folgendes: Kabelverbindung - Wenn Sie keinen Port sehen, könnte das Problem an der Kabelverbindung oder Zoning liegen. Prüfen Sie zunächst die Kabel. Zoning - Schränkt den Zugriff auf bestimmte Speicher-Devices an, erhöht die Sicherheit und verringert den Netzwerkverkehr. Einige Speicheranbieter lassen nur Zonen mit einem Initiator zu. In diesem Fall kann sich ein HBA in mehreren Zonen befinden, die nur auf ein Ziel verweisen. Andere Anbieter lassen Zonen mit mehreren Initiatoren zu. Zoning-Anforderungen finden Sie in der Dokumentation Ihres Speicheranbieters. Verwenden Sie die SAN-Switch-Software zum Konfigurieren und Verwalten des Zoning. LUN-Masking - Wenn ein ESX Server-Host ein bestimmtes Speicher-Device, jedoch nicht die für dieses Device erwarteten LUNs sieht, könnte es sein, dass das LUN-Masking nicht ordnungsgemäß konfiguriert wurde. Stellen Sie für einen Systemstart über SAN sicher, dass jeder ESX Server-Host nur erforderliche LUNs sieht. Lassen Sie nicht zu, dass ein ESX Server-Host andere Boot-LUNs anzeigen kann als seine eigenen. Verwenden Sie Festplatten-Array-Software, um sicherzustellen, dass der ESX Server-Host nur die LUNs sehen kann, die er sehen soll. Stellen Sie sicher, dass die Einstellungen Disk.MaxLUN und Disk.MaskLUNs so konfiguriert sind, dass Sie die LUN anzeigen können, die Sie erwarten. Siehe „Ändern der Anzahl gescannter LUNs mithilfe von Disk.MaxLUN“ auf Seite 95 und „Masking von LUNs mithilfe von Disk.MaskLUNs“ auf Seite 96. Speicherprozessor - Wenn ein Festplatten-Array mehrere Speicherprozessoren enthält, stellen Sie sicher, dass der SAN-Switch mit dem SP verbunden ist, der Eigentümer der LUNs ist, auf die Sie zugreifen möchten. Auf einigen Festplatten-Arrays ist nur ein SP aktiv. Der andere SP ist passiv, bis ein Fehler auftritt. Wenn Sie mit dem falschen SP (dem mit dem passiven Pfad) verbunden sind, werden die erwarteten LUNs unter Umständen nicht angezeigt, oder die LUNs werden angezeigt, jedoch werden beim Versuch, auf die LUNs zuzugreifen, Fehler angezeigt. VMware, Inc. 93 Handbuch der SAN-Konfiguration Verwenden von „Neu scannen“ Führen Sie jedes Mal einen erneuten Scan durch, wenn Sie: Für einen neuen Festplatten-Array auf dem SAN Zoning zu einem ESX Server-Host ausgeführt haben. Neue LUNs auf einem SAN-Festplatten-Array erstellen. Das LUN-Masking auf einem Festplatten-Array eines ESX Server-Hosts ändern. Ein Kabel anders anschließen. Eine Änderung an einem Host in einem Cluster vornehmen. HINWEIS Führen Sie keinen erneuten Scan aus, wenn ein Pfad ausgefallen ist. Wenn ein Pfad ausfällt, übernimmt der andere Pfad, und Ihr System ist weiterhin uneingeschränkt funktionsfähig. Wenn Sie jedoch zu einem Zeitpunkt, zu dem ein Pfad nicht verfügbar ist, einen erneuten Scan ausführen, entfernt der ESX Server-Host den Pfad aus der Liste der Pfade zum Device. Der Pfad kann erst dann wieder vom ESX Server-Host verwendet werden, wenn ein erneuter Scan ausgeführt wird, während der Pfad aktiv ist. Neu scannen 1 Wählen Sie im VI-Client einen Host aus und klicken Sie auf die Registerkarte Konfiguration. 2 Wählen Sie im Fenster Hardware den Eintrag Speicheradapter, und klicken Sie über dem Fensterbereich Speicheradapter auf Neu scannen. HINWEIS Sie können auch einen einzelnen Adapter markieren und auf Neu scannen klicken, wenn Sie nur diesen Adapter scannen möchten. Neu scannen (Schaltfläche) 94 VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Entfernen von Datastores Mit dem VI-Client können Sie einen Datastore entfernen, sodass er nicht mehr als Speicher für virtuelle Maschinen verwendet wird. HINWEIS Um den Datastore vom ESX Server-Host zu entfernen, müssen Sie ein LUN-Masking durchführen oder die LUN aus dem SAN-Array entfernen und einen erneuten Scan vom VI-Client durchführen. Entfernen eines Datastores 1 Fahren Sie alle virtuellen Maschinen herunter, die den Datastore verwenden, den Sie entfernen möchten. 2 Wählen Sie im Bestandsfenster den Host aus. 3 Migrieren Sie alle virtuellen Maschinen, die Sie beibehalten möchten, mit VMotion. 4 Klicken Sie auf die Registerkarte Konfiguration und dann auf Speicher, um alle Speicher-Devices anzuzeigen. 5 Wählen Sie den Datastore aus, den Sie entfernen möchten, und klicken Sie auf Entfernen. 6 Klicken Sie auf Neu scannen, um die Anzeige verfügbarer Speicheroptionen zu aktualisieren. Erweiterte Konfiguration der LUN-Anzeige In diesem Abschnitt wird eine Reihe erweiterter Konfigurationsoptionen erläutert. „Ändern der Anzahl gescannter LUNs mithilfe von Disk.MaxLUN“ auf Seite 95. „Masking von LUNs mithilfe von Disk.MaskLUNs“ auf Seite 96. „Ändern der Sparse-LUN-Unterstützung mithilfe von DiskSupportSparseLUN“ auf Seite 97. Ändern der Anzahl gescannter LUNs mithilfe von Disk.MaxLUN Standardmäßig scannt der VMkernel für jedes Ziel LUN 0 bis LUN 255 (insgesamt 256 LUNs). Sie können den Parameter Disk.MaxLun anpassen, um diese Zahl zu ändern. Dadurch kann die Geschwindigkeit der LUN-Erkennung erhöht werden. HINWEIS Sie können LUNs mit einer ID, die größer als 255 ist, nicht erkennen. VMware, Inc. 95 Handbuch der SAN-Konfiguration Wenn der Wert verringert wird, verkürzen sich die Zeit für das erneute Scannen und die Boot-Zeit. Die Zeit für das erneute Scannen von LUNs hängt von mehreren Faktoren ab, unter anderem vom Typ des Speicher-Arrays und davon, ob die Sparse-LUN-Unterstützung aktiviert ist. Siehe „Ändern der Sparse-LUN-Unterstützung mithilfe von DiskSupportSparseLUN“ auf Seite 97. So ändern Sie den Wert von Disk.MaxLUN: 1 Wählen Sie im Bestandsfenster des VI-Clients den Host aus, und klicken Sie auf die Registerkarte Konfiguration und dann auf Erweiterte Einstellungen. 2 Wählen Sie im Dialogfeld, das daraufhin geöffnet wird, Festplatte aus. 3 Führen Sie einen Bildlauf zu Disk.MaxLUN aus, ändern Sie den vorhandenen Wert in den gewünschten Wert, und klicken Sie auf OK. Masking von LUNs mithilfe von Disk.MaskLUNs Mit dem Parameter Disk.MaskLUNs können Sie bestimmte LUNs auf bestimmten HBAs maskieren. Der VMkernel kann maskierte LUNs nicht ändern oder darauf zugreifen, auch nicht während des ersten Scan-Vorgangs. Verwenden Sie diese Option, wenn Sie verhindern möchten, dass das ESX Server-System auf einige FC-LUNs zugreift, aber nicht den LUN-Masking-Mechanismus mit FC-Switch oder FC-Device verwenden möchten. 96 VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden So ändern Sie den Wert von Disk.MaskLUNs: 1 Wählen Sie im Bestandsfenster des VI-Clients den Host aus, und klicken Sie auf die Registerkarte Konfiguration und dann auf Erweiterte Einstellungen. 2 Wählen Sie im Dialogfeld, das daraufhin geöffnet wird, Festplatte aus. 3 Führen Sie einen Bildlauf zu Disk.MaskLUNs aus, ändern Sie den vorhandenen Wert in den gewünschten Wert, und klicken Sie auf OK. VORSICHT Wenn sich ein Ziel, eine LUN oder eine vmhba-Nummer aufgrund einer SAN-Neukonfiguration ändert, wird die falsche LUN unter Umständen maskiert oder aufgedeckt werden. Ändern der Sparse-LUN-Unterstützung mithilfe von DiskSupportSparseLUN Standardmäßig ist der VMkernel so konfiguriert, dass Sparse-LUNs unterstützt werden, d. h. Fälle, in denen einige LUNs im Bereich 0 bis N-1 nicht vorhanden sind, LUN N jedoch vorhanden ist. Wenn alle LUNs aufeinender folgen, können Sie den Parameter Disk.SupportSparseLUN ändern. Dadurch wird die zum Scannen nach LUNs erforderliche Zeit verringert. So ändern Sie den Wert von Disk.SupportSparseLUN: 1 Wählen Sie im Bestandsfenster des VI-Clients den Host aus, und klicken Sie auf die Registerkarte Konfiguration und dann auf Erweiterte Einstellungen. 2 Wählen Sie im Dialogfeld, das daraufhin geöffnet wird, Festplatte aus. 3 Führen Sie einen Bildlauf zu Disk.SupportSparseLUN, aus, ändern Sie den Wert in 0, und klicken Sie auf OK. Multipathing In diesem Abschnitt werden folgende Multipathing-Themen behandelt: „Anzeigen des aktuellen Multipathing-Status“ auf Seite 98. „Festlegen der Multipathing-Policy einer LUN“ auf Seite 101. „Deaktivieren und Aktivieren von Pfaden“ auf Seite 102. „Einrichten des bevorzugten Pfads (Nur feste Pfad-Policy)“ auf Seite 103. „Pfad-Management und manueller Lastausgleich“ auf Seite 104. Eine Einführung in Multipathing-Konzepte finden Sie unter „Pfad-Management und Failover“ auf Seite 46. VMware, Inc. 97 Handbuch der SAN-Konfiguration Anzeigen des aktuellen Multipathing-Status Mit dem VI-Client können Sie den aktuellen Multipathing-Status anzeigen. So zeigen Sie den aktuellen Multipathing-Status an: 1 Wählen Sie im Bestandsfenster des VI-Clients einen Host aus, und klicken Sie auf die Registerkarte Konfiguration. 2 Wählen Sie im Fenster Speicher einen der Datastores aus. Im Fenster Details werden Informationen über den Datastore angezeigt. Eigenschaften 98 3 Um weitere Informationen anzuzeigen oder die Multipathing-Policy zu ändern, wählen Sie Eigenschaften oberhalb des Detailfensters aus. 4 Wählen Sie im Fenster Erweiterungen die Erweiterung aus, für die Sie Informationen anzeigen oder ändern möchten. VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Im Fenster Gerät erweitern werden Informationen über die Erweiterung, den Pfadauswahlalgorithmus, die verfügbaren Pfade und den aktiven Pfad angezeigt. Die Anzeige beinhaltet Informationen über den Status jedes Pfads zur Device-Erweiterung. Die folgenden Pfadinformationen werden angezeigt: 5 VMware, Inc. Aktiv - Der Pfad ist aktiv. Es handelt sich um den aktuellen Pfad, der zum Übertragen von Daten verwendet wird. Deaktiviert - Der Pfad wurde deaktiviert, und es können keine Daten übertragen werden. Standby - Der Pfad ist betriebsbereit, wird jedoch derzeit nicht für die Datenübertragung verwendet. Tot - Die Software kann über diesen Pfad keine Verbindung zur Festplatte herstellen. Wenn Sie die Pfad-Policy Fest verwenden und feststellen möchten, welcher Pfad der bevorzugte Pfad ist, klicken Sie auf Pfade verwalten. 99 Handbuch der SAN-Konfiguration Der bevorzugte Pfad ist mit einem Asterisk-Zeichen (*) in der vierten Spalte gekennzeichnet. In Tabelle 6-2 ist zusammengefasst, wie sich das Verhalten eines ESX Server-Systems je nach Array-Typ und Failover-Policy ändert. Tabelle 6-2. Auswirkungen der Pfad-Policy Policy/Controller Aktiv/Aktiv Aktiv/Passiv Zuletzt verwendet Administrator-Aktion ist für Failback nach Pfadausfall erforderlich. Administrator-Aktion ist für Failback nach Pfadausfall erforderlich. Feststehend VMkernel setzt die Ausführung mit dem bevorzugten Pfad fort, wenn die Verbindung wiederhergestellt wurde. VMkernel versucht, die Ausführung mit dem bevorzugten Pfad wieder aufzunehmen. Dies kann zu Pfad-Thrashing oder einem Pfadausfall führen, da ein anderer SP jetzt Eigentümer der LUN ist. Siehe „Auflösen von Pfad-Thrashing“ auf Seite 113. Weitere Informationen finden Sie unter „Aktive Pfade“ auf Seite 101. 100 VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Aktive Pfade In der Regel führt ESX Server für eine bestimmte LUN keinen pfadübergreifenden I/O-Lastausgleich durch. Zu einem bestimmten Zeitpunkt wird nur ein Einzelpfad verwendet, um I/O an eine bestimmte LUN auszugeben. Der Pfad wird als aktiver Pfad bezeichnet. Ist die Pfad-Policy einer LUN auf Fest gesetzt, wählt ESX Server den als Bevorzugt gekennzeichneten Pfad als aktiven Pfad aus. Wenn der bevorzugte Pfad deaktiviert wurde oder auf andere Weise nicht verfügbar ist, verwendet das ESX Server-System einen alternativen aktiven Pfad als aktiven Pfad. Ist die Pfad-Policy einer LUN auf Zuletzt verwendet gesetzt, wählt der ESX Server-Host einen aktiven Pfad zur LUN aus, der Pfad-Thrashing verhindert. Die Bezeichnung „Bevorzugter Pfad“ wird dabei ignoriert. In einigen Fällen wird der Begriff aktiv in der SAN-Terminologie zur Bezeichnung eines Pfades verwendet, der zum Ausgeben von I/O an eine LUN verfügbar ist. Aus Sicht des ESX Server-Hosts bezeichnet der Begriff den einzigen Pfad, den der ESX Server-Host verwendet, um I/O an eine LUN auszugeben. Festlegen der Multipathing-Policy einer LUN Die folgenden Multipathing-Policys werden derzeit unterstützt: Fest - Der ESX Server-Host verwendet immer den bevorzugten Pfad zur Festplatte, wenn dieser Pfad verfügbar ist. Wenn nicht über den bevorzugten Pfad auf die Festplatte zugegriffen werden kann, werden die anderen Pfade probiert. Fest ist die Standard-Policy für Aktiv/Aktiv-Speicher-Devices. Zuletzt verwendet - Der ESX Server-Host verwendet den zuletzt verwendeten Pfad zur Festplatte, bis dieser Pfad nicht mehr verfügbar ist. Dies bedeutet, dass der ESX Server-Host nicht automatisch zum bevorzugten Pfad zurückkehrt. Zuletzt verwendet ist die Standard-Policy für Aktiv/Passiv-Speicher-Devices und wird für diese Geräte benötigt. Der ESX Server-Host stellt die Multipathing-Policy automatisch und entsprechend des erkannten Array-Modells ein. Wenn der erkannte Array nicht unterstützt wird, wird er als aktiv/aktiv betrachtet. Im Storage/SAN Compatibility Guide finden Sie eine Liste der unterstützten Arrays. HINWEIS Es wird davon abgeraten, die Einstellung Zuletzt verwendet manuell in Fest zu ändern. Das System stellt diese Policy für die Arrays ein, für die diese Einstellung erforderlich ist. VMware, Inc. 101 Handbuch der SAN-Konfiguration So legen Sie die Multipathing-Policy mit einem VI-Client fest: 1 Wählen Sie im Bestandsfenster des VI-Clients den Host aus, und klicken Sie anschließend auf die Registerkarte Konfiguration. 2 Wählen Sie im Hardware-Fenster Speicher. 3 Wählen Sie den Datastore aus, für den Sie die Multipathing-Policy ändern möchten, und klicken Sie im Detailfenster auf Eigenschaften. 4 Wählen Sie im Fenster Erweiterung das Device aus, für das Sie die Änderung vornehmen möchten, und klicken Sie im Fenster Gerät erweitern auf der rechten Seite auf Pfade verwalten. 5 Wählen Sie die Multipathing-Policy im Dialogfeld aus, das daraufhin geöffnet wird, und klicken Sie auf Fertig. HINWEIS Bei Aktiv/Passiv-Speicher-Devices wird die Einstellung Zuletzt verwendet dringend empfohlen. Deaktivieren und Aktivieren von Pfaden In einigen Fällen müssen Sie Pfade zur Wartung oder aus anderen Gründen vorübergehend deaktivieren. Dazu können Sie den VI-Client verwenden. So deaktivieren Sie einen Pfad: 102 1 Wählen Sie im Bestandsfenster des VI-Clients den Host aus, und klicken Sie anschließend auf die Registerkarte Konfiguration. 2 Wählen Sie im Fenster Hardware den Eintrag Speicher aus. 3 Wählen Sie das Device aus, für das Sie einen Pfad deaktivieren möchten, und klicken Sie im Detailfenster auf Eigenschaften. 4 Wählen Sie im Fenster Erweiterung das Device aus, für das Sie die Änderung vornehmen möchten, und klicken Sie im Fenster Gerät erweitern auf der rechten Seite auf Pfade verwalten. VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden 5 Klicken Sie im Feld Pfade des Dialogfeldes Pfade verwalten auf Ändern, und aktivieren Sie das Optionsfeld Deaktiviert, um den Pfad zu deaktivieren. So aktivieren Sie einen Pfad: Wenn Sie einen Pfad (z. B. zur Wartung) deaktiviert haben, können Sie ihn erneut aktivieren, indem Sie die Schritte zum Deaktivieren eines Pfades ausführe, aber das Optionsfeld Aktiviert aktivieren. Einrichten des bevorzugten Pfads (Nur feste Pfad-Policy) Wenn Sie die Pfad-Policy Fest verwenden, verwendet der Server immer den bevorzugten Pfad, sofern dieser verfügbar ist. So richten Sie den bevorzugten Pfad ein: 1 Wählen Sie im Bestandsfenster des VI-Clients den Host aus, und klicken Sie anschließend auf die Registerkarte Konfiguration. 2 Wählen Sie im Hardware-Fenster Speicher. 3 Wählen Sie das Device aus, für das Sie einen Pfad deaktivieren möchten, und klicken Sie im Detailfenster auf Eigenschaften. 4 Wählen Sie im Fenster Erweiterung das Device aus, für das Sie die Änderung vornehmen möchten, und klicken Sie im Fenster Gerät erweitern auf der rechten Seite auf Pfade verwalten. VMware, Inc. 103 Handbuch der SAN-Konfiguration 5 Wählen Sie den Pfad aus, den Sie als bevorzugten Pfad festlegen möchten, und klicken Sie auf Ändern. 6 Klicken Sie im Bereich Einstellungen auf Bevorzugt. Wenn die Option Bevorzugt nicht verfügbar ist, stellen Sie sicher, dass die Pfad-Policy auf Fest gesetzt ist. 7 Klicken Sie auf OK und anschließend erneut auf OK, um die Dialogfelder zu schließen. Pfad-Management und manueller Lastausgleich Durch einen Ausgleich der Last auf verfügbare Pfade wird die Leistung optimiert. Sie können Ihr System so einrichten, dass verschiedene Pfade zu verschiedenen LUNs verwendet werden, indem Sie den bevorzugten Pfad für die verschiedenen HBAs ändern. Die ist nur für Aktiv/Aktiv-SPs möglich und erfordert, dass Sie die Pfad-Policy auf Fest gesetzt haben. In „Beispiel für die Verwendung des manuellen Lastausgleichs“ auf Seite 104 finden Sie ein Beispiel. Wenn ein Pfad ausfällt, übernimmt der verbleibende Pfad den gesamten Verkehr. Der Pfadausfall kann eine Minute oder länger dauern, da der Fabric unter Umständen mit einer neuen Topologie konvertiert, um zu versuchen, den Service wiederherzustellen. Diese Verzögerung ist erforderlich, damit der SAN-Fabric nach Topologieänderungen oder anderen Fabric-Ereignissen Zeit zum Stabilisieren seiner Konfiguration hat. Beispiel für die Verwendung des manuellen Lastausgleichs Wenn Sie einen Aktiv/Aktiv-Array verwenden, können Sie Ihre Umgebung für den Lastausgleich einrichten. Gehen Sie von folgendem Setup aus, das in Abbildung 6-2 dargestellt ist: 104 Aktiv/Aktiv-SPs. Ein ESX Server-System. Vier Fibre-Channel-HBAs in jedem Server. Director-Class-Software. VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden ESX Server HBA1 HBA2 HBA3 HBA4 FC-Switch SP1 1 SP2 2 3 4 Speicher-Array Abbildung 6-2. Manueller Lastausgleich Legen Sie für den Lastausgleich die bevorzugten Pfade wie folgt fest: LUN 1: vmhba1:1:1 LUN 2: vmhba2:1:2 LUN 3: vmhba3:2:3 LUN 4: vmhba4:2:4 Informationen finden Sie in „Einrichten des bevorzugten Pfads (Nur feste Pfad-Policy)“ auf Seite 103. HINWEIS Für den Lastausgleich sind zwei HBAs ausreichend, auch wenn in diesem Beispiel vier eingesetzt werden. Failover Pfad-Failover bezieht sich auf Situationen, in denen der aktive Pfad zu einer LUN geändert wird. Dies erfolgt normalerweise aufgrund des Ausfalls einer SAN-Komponente des aktuellen Pfades. Ein Server verfügt in der Regeln über einen oder zwei HBAs, und jeder HBA sieht einen oder zwei Speicherprozessoren auf einem bestimmten SAN-Array. Sie können den aktiven, derzeit vom Server verwendeten Pfad ermitteln, indem Sie die LUN-Eigenschaften prüfen. VMware, Inc. 105 Handbuch der SAN-Konfiguration Aktive Pfade und Standby-Pfade Abbildung 6-3. Aktive Pfade und Standby-Pfade Wenn ein FC-Kabel gezogen wird, wird I/O unter Umständen für 30-60 Sekunden angehalten, bis der FC-Treiber feststellt, dass die Verknüpfung ausgefallen ist und ein Failover eingetreten ist. Daher kann es dazu kommen, dass die virtuellen Maschinen (deren virtuelle Festplatten auf SAN-Speicher installiert sind) nicht reagieren. Wenn Sie versuchen, den Host, dessen Speicher-Devices oder Adapter anzuzeigen, kann es den Anschein haben, als hätte sich der Vorgang „aufgehängt“. Nach Abschluss des Failovers wird I/O normal fortgesetzt. Bei schwerwiegenden Ereignissen mit mehreren Ausfällen können alle Verbindungen zu SAN-Speicher-Devices verloren gehen. Wenn keine der Verbindungen zum Speicher-Device funktioniert, können bei einigen virtuellen Maschinen I/O-Fehler auf den virtuellen SCSI-Festplatten auftreten. Weitere Informationen finden Sie in den folgenden Abschnitten: 106 „Festlegen des HBA-Timeout für Failover“ auf Seite 107. „Festlegen von Device-Treiberoptionen für SCSI-Controller“ auf Seite 107. „Festlegen des Betriebssystem-Timeouts“ auf Seite 108. VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Festlegen des HBA-Timeout für Failover Der Timeout-Wert für wiederholte I/O-Vorgänge wird in der Regel im HBA-BIOS-Treiber festgelegt. (Sie können auch den Timeout-Wert des Betriebssystems ändern, wie in „Festlegen des Betriebssystem-Timeouts“ auf Seite 108 erläutert.) VMware empfiehlt, dass Sie den Timeout-Wert auf 30 Sekunden setzen. Für QLogic-HBAs beträgt der Timeout-Wert 2*n + 5 Sekunden, wobei n der Wert des Parameters PortDownRetryCount des BIOS der QLogic-Karte ist. Sie können die Erkennungszeit für einen Pfadausfall anpassen, indem Sie den Wert des Modulparameters qlport_down_retry ändern (dessen Standardwert aus der BIOS-Einstellung übernommen wird). Die empfohlene Einstellung für diesen Parameter ist 14. Für Emulex-HBAs können Sie die Erkennungszeit für einen Pfadausfall anpassen, indem Sie den Wert der Modulparameter lpfc_linkdown_tmo (der Standardwert ist 30) und lpfc_nodedev_tmo (der Standardwert ist 30) ändern. Die Summe der Werte dieser beiden Parameter legt die Erkennungszeit für einen Pfadausfall fest. Die empfohlene Einstellung ist jeweils der Standardwert. Um diese Parameter zu ändern, müssen Sie eine zusätzliche Option an den Treiber weitergeben, wie z. B. qlport_down_retry or lpfc_linkdown_tmo. Im folgenden Abschnitt wird erläutert, wie Sie diese Optionen an den Treiber weitergeben können. Festlegen von Device-Treiberoptionen für SCSI-Controller In diesem Abschnitt werden Device-Treiberoptionen für QLogic, Emulex oder andere SCSI-Kartentreiber festgelegt. So legen Sie Device-Treiberoptionen für QLogic, Emulex oder andere SCSI-Kartentreiber fest: 1 Erstellen Sie eine Sicherungskopie der Datei /etc/vmware/esx.conf, und öffnen Sie die Datei zum Bearbeiten. Die Datei enthält einen Abschnitt für jedes SCSI-Device, wie im folgenden Beispiel dargestellt: /device/002:02.0/class = "0c0400" /device/002:02.0/devID = "2312" /device/002:02.0/irq = "19" /device/002:02.0/name = "QLogic Corp QLA231x/2340 (rev 02)" /device/002:02.0/options = "" /device/002:02.0/owner = "vmkernel" /device/002:02.0/subsysDevID = "027d" /device/002:02.0/subsysVendor = "1014" /device/002:02.0/vendor = "1077" /device/002:02.0/vmkname = "vmhba0" VMware, Inc. 107 Handbuch der SAN-Konfiguration 2 Suchen Sie die Zeile options direkt unter der Zeile name, und nehmen Sie die entsprechenden Änderungen vor. 3 Wiederholen Sie dies bei Bedarf für jeden SCSI-Adapter, der vom selben Treiber gesteuert wird. Festlegen des Betriebssystem-Timeouts Sie können den Standardwert für das Festplatten-Timeout erhöhen, sodass ein Windows-Gastbetriebssystem während des Failovers nicht übermäßig lange unterbrochen wird. Für die Gastbetriebssysteme Windows 2000 und Windows Server 2003 können Sie das Betriebssystem-Timeout in der Registry festlegen. So legen Sie das Betriebssystem-Timeout für Windows-Server fest: 1 Führen Sie ein Backup Windows-Registry durch. 2 Wählen Sie Start > Ausführen, geben Sie regedit.exe ein, und klicken Sie auf OK. 3 Doppelklicken Sie in der hierarchischen Ansicht im linken Fensterbereich auf HKEY_LOCAL_MACHINE, dann auf System, CurrentControlSet, Services und anschließend auf Disk. 4 Wählen Sie TimeOutValue aus, und setzen Sie den Wert auf x03c (hexadezimal) oder 60 (dezimal). Wenn Sie die Änderung vorgenommen haben, wartet Windows mindestens 60 Sekunden, damit verzögerte Festplattenvorgänge abgeschlossen werden können, bevor Fehler ausgegeben werden. 5 Klicken Sie auf OK, um den Registry Editor zu schließen. Konfiguration des VMkernels Legen Sie beim Installieren des ESX Server-Systems fest, wo verschiedene Speicherelemente abgelegt werden sollen, wie z. B. die Partitionen / und /boot der Service-Konsole. Die verschiedenen Komponenten werden im Handbuch für Installation und Upgrade ausführlicher erläutert. Weitere Informationen finden Sie unter „Gemeinsame Nutzung von Diagnosepartitionen“ auf Seite 109. 108 VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Gemeinsame Nutzung von Diagnosepartitionen Wenn Ihr ESX Server-Host über eine lokale Festplatte verfügt, wird diese am besten für die Diagnosepartition verwendet. Ein Grund dafür besteht darin, dass es nach einem Problem mit Remote-Speicher, das einen Core Dump verursacht, zum Verlust des Core Dump kommt. Dadurch wird die Behebung des Problems erschwert. Für Server ohne Festplatte, die über SAN booten, können mehrere ESX Server-Systeme eine Diagnosepartition auf einer SAN-LUN gemeinsam nutzen. Verwenden mehrere ESX Server-Systeme eine LUN als Diagnosepartition, muss ein Zoning dieser LUN ausgeführt werden, sodass alle Server darauf zugreifen können. Jeder Server benötigt 100 MB Speicherplatz, sodass die Größe der LUN festlegt, wie viele Server sie gemeinsam nutzen können. Jedes ESX Server-System wird einem Diagnose-Slot zugeordnet. VMware empfiehlt mindestens 16 Slots (1600 MB) Festplattenspeicher, wenn Server einer Diagnosepartition gemeinsam nutzen. Ist auf dem Device nur ein Diagnose-Slot vorhanden, werden alle ESX Server-Systeme, die dieses Device gemeinsam nutzen, demselben Slot zugeordnet. Dies kann leicht zu Problemen führen. Wenn zwei ESX Server-Systeme gleichzeitig einen Core Dump ausführen, werden die Core Dumps auf dem letzten Slot der Diagnosepartition überschrieben. Wenn Sie genügend Speicher für 16 Slots zuweisen, ist es unwahrscheinlich, dass Core Dumps demselben Speicherort auf der Diagnosepartition zugeordnet werden, auch wenn zwei ESX Server-Systeme gleichzeitig einen Core Dump ausführen. Vermeiden und Beheben von Problemen In diesem Abschnitt erhalten Sie einige Tipps zum Vermeiden und Beheben von Problemen: Dokumentieren Sie alles. Nehmen Sie Informationen über Zoning, Zugriffssteuerung, Speicher, Switch-, Server- und FC-HBA-Konfiguration, Software- und Firmware-Versionen und den Speicherkabelplan auf. Erstellen Sie einen Plan für Ausfälle: VMware, Inc. Erstellen Sie mehrere Kopien Ihrer Topologiekarte. Überlegen Sie für jedes Element, welche Auswirkungen der Ausfall des Elements auf Ihr SAN hat. Haken Sie verschiedene Zuordnungen, Switches, HBAs und andere Elemente ab, zum sicherzustellen, dass Sie keinen kritischen Ausfallpunkt vergessen haben. 109 Handbuch der SAN-Konfiguration Trennen Sie die Verbindung der Fibre-Channel-HBAs während der lokalen Installation, wenn Sie einen ESX Server-Host auf einem Produktionssystem installieren. VORSICHT Mit dem Installationsprogramm können Sie alle zugänglichen Festplatten löschen, darunter auch SAN-LUNs, die von anderen Servern verwendet werden. Stellen Sie sicher, dass die Fibre-Channel-HBAs auf der Grundlage von Slot- und Bus-Geschwindigkeit in den richtigen Slots im ESX Server-Host installiert sind. Verteilen Sie die PCI-Bus-Last auf die im Server verfügbaren Busse. Machen Sie sich mit den verschiedenen Überwachungspunkten in Ihrem Speichernetzwerk an allen Sichtbarkeitspunkten vertraut, wie z. B. ESX Server-Leistungsdiagrammen, FC-Switch-Statistiken und Speicherleistungsstatistiken. Optimieren der SAN-Speicherleistung Die zwei Hauptfaktoren für eine Optimierung einer typischen SAN-Umgebung sind die Speicher-Array-Leistung und die Server-Leistung. Wenn die Umgebung ordnungsgemäß konfiguriert ist, leisten die SAN-Fabric-Komponenten (insbesondere die SAN-Switches) aufgrund ihrer geringen Latenz im Vergleich zu Servern und Speicher-Arrays lediglich einen geringen Beitrag. Stellen Sie sicher, dass die Pfade durch den Switch-Fabric nicht gesättigt sind, d. h. dass der Switch-Fabric mit dem maximalen Durchsatz (z. B. 2 GB/Sekunde) läuft. Weitere Informationen finden Sie in den folgenden Abschnitten: „Speicher-Array-Leistung“ auf Seite 110. „Server-Leistung“ auf Seite 111. Speicher-Array-Leistung Wenn Probleme mit der Speicher-Array-Leistung auftreten, finden Sie relevante Informationen in der Dokumentation Ihres Speicher-Array-Anbieters. Denken Sie beim Zuweisen von LUNs dran, dass eine Reihe von ESX Server-Hosts auf jede LUN zugreifen und dass auf jedem Host eine Reihe virtueller Maschinen ausgeführt werden kann. Eine von einem ESX Server-Host verwendete LUN kann I/O aus zahlreichen verschiedenen Anwendungen bedienen, auf verschiedenen Betriebssystemen ausgeführt werden. Aufgrund dieser vielfältigen Workload sollte die RAID-Gruppe, die die ESX Server-LUNs enthält, keine LUNs enthalten, die von anderen Hosts verwendet werden, die ESX Server für I/O-intensive Anwendungen nicht ausführen. 110 VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Stellen Sie sicher, dass Read/Write-Caching aktiviert ist. Beim Lastausgleich werden Server-I/O-Anforderungen auf alle verfügbaren SPs und deren Host-Server-Pfade verteilt. Das Ziel besteht in der Leistungsoptimierung im Hinblick auf den Durchsatz (I/O pro Sekunde, Megabyte pro Sekunde oder Antwortzeit). SAN-Speicher-Arrays erfordern eine ständige Neuentwicklung und Feinabstimmung, um sicherzustellen, dass der I/O-Lastausgleich auf alle Speicher-Array-Pfade erfolgt. Um diese Anforderung zu erfüllen, verteilen Sie die Pfade auf die LUNs aller SPs, um einen optimalen Lastausgleich zu erzielen. Eine lückenlose Überwachung zeigt an, wann ein manueller Neuausgleich der LUN-Verteilung erforderlich ist. In „Pfad-Management und manueller Lastausgleich“ auf Seite 104 finden Sie ein Beispiel. Die Feinabstimmung statisch ausgeglichener Speicher-Arrays beinhaltet die Überwachung der jeweiligen Leistungsstatistik (z. B. I/O-Vorgänge pro Sekunde, Blöcke pro Sekunde und Antwortzeit) und die Verteilung der LUN-Workload auf alle SPs. HINWEIS Der dynamische Lastausgleich wird in ESX Server derzeit nicht unterstützt. Server-Leistung Um eine optimale Server-Leistung sicherzustellen, muss eine Reihe von Faktoren berücksichtigt werden. Jede Server-Anwendung muss Zugang zum benannten Speicher mit folgenden Kriterien haben: Hohe I/O-Rate (Anzahl der I/O-Vorgänge pro Sekunde). Hoher Durchsatz (Megabyte pro Sekunde). Minimale Latenz (Antwortzeiten). Da jede Anwendung unterschiedliche Anforderungen hat, können Sie diese Ziele erreichen, indem Sie auf dem Speicher-Array eine entsprechende RAID-Gruppe auswählen. So erreichen Sie Leistungsziele: Platzieren Sie jede LUN in einer RAID-Gruppe, die das erforderliche Leistungsniveau bietet. Achten Sie besonders auf die Aktivitäten und Ressourcennutzung anderer LUNs in der zugewiesenen RAID-Gruppe. Eine leistungsfähige RAID-Gruppe, der zu viele I/O-intensive Anwendungen zugewiesen sind, erfüllt die Leistungsziele einer Anwendung, die auf dem ESX Server-Host ausgeführt wird, unter Umständen nicht. Stellen Sie sicher, dass jeder Server über eine ausreichende Anzahl von HBAs verfügt, um den maximalen Durchsatz aller auf dem Server gehosteten Anwendungen während der Spitzenzeiten zu ermöglichen. Eine I/O-Verteilung auf mehrere HBAs bietet einen höheren Durchsatz und weniger Latenz für jede Anwendung. Um Redundanz im Fall eines HBA-Ausfalls sicherzustellen, achten Sie darauf, dass der Server mit einem doppelt redundanten Fabric verbunden ist. VMware, Inc. 111 Handbuch der SAN-Konfiguration Beachten Sie beim Zuweisen von LUNs oder RAID-Gruppen für ESX Server-Systeme, dass mehrere Betriebssysteme diese Ressource verwenden und gemeinsam nutzen. Daher kann die von jeder LUN im Speicher-Subsystem geforderte Leistung erheblich höher sein, wenn Sie mit ESX Server-Systemen arbeiten als wenn Sie physische Geräte einsetzen. Beispiel: wenn Sie vier I/O-intensive Anwendungen ausführen möchten, weisen Sie die vierfache Leistungskapazität für die ESX Server-LUNs zu. Wenn Sie mehrere ESX Server-Systeme in Verbindung mit einem VirtualCenter-Server verwenden, erhöht sich die vom Speicher-Subsystem benötigte Leistung entsprechend. Die Anzahl ausstehender I/Os, die von Anwendungen benötigt werden, die auf einem ESX Server-System ausgeführt werden, sollte mit der Anzahl der I/Os übereinstimmen, die der HBA und Speicher-Array verarbeiten können. Lösen von Leistungsproblemen In diesem Abschnitt werden die Leistungsüberwachung und Möglichkeiten zum Beheben von Leistungsproblemen erläutert: „Überwachen der Leistung“ auf Seite 112. „Auflösen von Pfad-Thrashing“ auf Seite 113. „Ausgleichen des Festplattenzugriffs zwischen virtuellen Maschinen“ auf Seite 115. „Entfernen von VMFS-2-Treibern“ auf Seite 115. „Verringern von SCSI-Reservierungen“ auf Seite 116. „Festlegen der maximalen Warteschlangentiefe für HBAs“ auf Seite 116. HINWEIS Um die optimale Leistung zu erzielen, platzieren Sie jede virtuelle Maschine auf der entsprechenden Speicherebene. Informationen finden Sie unter „Auswahl der Speicherorte virtueller Maschinen“ auf Seite 48. Überwachen der Leistung Der VI-Client bietet umfassende Funktionen zum Sammeln von Leistungsdaten. Diese Informationen werden anschießend grafisch im VI-Client dargestellt. Informationen finden Sie im Virtual Infrastructure UserÕs Guide. Der VI-Client aktualisiert seine Anzeige in regelmäßigen Abständen. Sie können auch das Tool esxtop verwenden, das über die Service-Konsole verfügbar ist. Informationen über esxtop finden Sie im Handbuch zum Ressourcen-Management oder auf der Manpage (über die Service-Konsole). Sie können esxtop verwenden, um die Leistung in Echtzeit zu überwachen. 112 VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Auflösen von Pfad-Thrashing Wenn Ihr Server nicht auf eine LUN zugreifen kann oder der Zugriff sehr langsam ist, könnte ein Problem mit Pfad-Thrashing (wird auch als LUN-Thrashing bezeichnet) vorliegen. Pfad-Thrashing kann auftreten, wenn zwei Hosts über verschiedene SPs auf die LUN zugreifen und die LUN daher niemals tatsächlich verfügbar ist. In der Regel können nur bestimmte SAN-Konfigurationen in Verbindung mit den folgenden Bedingungen zu Pfad-Thrashing führen: Sie arbeiten mit einem Aktiv/Passiv-Array. Die Pfad-Policy ist auf Fest gesetzt. Zwei Hosts greifen mit der entgegengesetzten Pfadreihenfolge auf die LUN zu. Beispiel: Host A ist so eingerichtet, dass er über SP A auf die LUN mit der niedrigsten Nummer zugreift. Host B ist so konfiguriert, dass er über SP B auf die LUN mit der niedrigsten Nummer zugreift. Pfad-Thrashing kann auch auftreten, wenn Host A einen bestimmten Pfad verloren hat und nur Pfade zu SP A verwenden kann, während Host B andere Pfade verloren hat und nur Pfade zu SP B verwenden kann. Dieses Problem kann auch auf einem Array mit direkter Verbindung (wie z. B. AX100) und einem HBA-Failover auf einen oder mehreren Nodes auftreten. Pfad-Thrashing tritt mit anderen Betriebssystemen in der Regel nicht auf: Kein anderes gängiges Betriebssystem verwendet gemeinsam genutzte LUNs für mehr als zwei Server (dieses Setup ist normalerweise für Clustering vorbehalten). Beim Clustering gibt nur jeweils ein Server I/Os aus. Pfad-Thrashing wird nicht zu einem Problem. Mehrere ESX Server-Systeme jedoch geben unter Umständen gleichzeitig I/O auf derselben LUN aus. So beheben Sie Pfad-Thrashing: Stellen Sie sicher, dass alle Hosts, die dieselbe Gruppe von LUNs auf diesen Aktiv/Passiv-Arrays gemeinsam nutzen, gleichzeitig auf denselben Speicherprozessor zugreifen. Korrigieren Sie alle Verkabelungsfehler zwischen verschiedenen ESX Server-Hosts und SAN-Zielen, sodass alle HBAs dieselben Ziele in derselben Reihenfolge sehen. Stellen Sie sicher, dass die Pfad-Policy auf Zuletzt verwendet (Standardwert) gesetzt ist. Weitere Informationen finden Sie unter „Erläuterungen zum Pfad-Thrashing“ auf Seite 114. VMware, Inc. 113 Handbuch der SAN-Konfiguration Erläuterungen zum Pfad-Thrashing In allen Arrays verhalten sich die SPs wie unabhängige Computer, die Zugriff auf gemeinsam genutzten Speicher haben. Algorithmen legen fest, wie der gleichzeitige Zugriff verarbeitet wird. Bei Aktiv/Passiv-Arrays kann nur jeweils eine LUN auf alle Sektoren des Speichers zugreifen, aus denen eine bestimmte LUN besteht. Das Eigentum wird zwischen den Speicherprozessoren weitergegeben. Dies hängt damit zusammen, dass Speicher-Arrays Caches verwenden und SP A keine Daten auf die Festplatte schreiben darf, durch die der Cache von SP B ungültig wird. Da der SP den Cache nach Abschluss des Vorgangs leeren muss, nimmt es etwas Zeit in Anspruch, das Eigentum zu wechseln. Während dieses Zeitraums können von keinem SP I/Os an die LUN verarbeitet werden. Bei Aktiv/Aktiv-Arrays ermöglichen die Algorithmen einen feiner abgestuften Zugriff auf den Speicher und synchronisieren Caches. Der Zugriff kann ohne zusätzliche Zeit gleichzeitig über einen beliebigen SP erfolgen. Arrays mit AVT sind Aktiv/Passiv-Arrays, die versuchen, wie Aktiv/Aktiv-Arrays zu wirken, indem sie das Eigentum an der LUN beim Eingang von I/O an die verschiedenen SPs weitergeben. Dieser Ansatz eignet sich ideal für ein Clustering-Setup. Wenn jedoch zahlreiche ESX Server-Systems gleichzeitig über verschiedene SPs auf dieselbe LUN zugreifen, kommt es zu LUN-Thrashing. Betrachten Sie die Funktionsweise der Pfadauswahl: Auf einem Aktiv/Aktiv-Array beginnt das System mit dem Senden von I/O entlang des neuen Pfads. Für Aktiv/Passiv-Arrays prüft das ESX Server-System alle Standby-Pfade. Der SP am Ende des gegenwärtig betrachteten Pfades sendet Informationen darüber, ob es derzeit Eigentümer der LUN ist, an das System. Wenn das ESX Server-System einen SP findet, der Eigentümer der LUN ist, wird dieser Pfad ausgewählt, und I/O wird entlang dieses Pfades gesendet. Wenn der ESX Server-Host keinen solchen Pfad findet, wählt er einen der Pfade aus und sendet einen Befehl zum Übertragen des LUN-Eigentums an diesen SP an den SP (am anderen Ende des Pfades). Pfad-Thrashing kann infolge dieser Pfadauswahl auftreten: Wenn Server A eine LUN nur über einen SP erreichen kann und Server B dieselbe LUN nur über einen anderen SP erreichen kann, verursachen beide Server den ständigen Wechsel des Eigentums an der LUN zwischen den beiden SPs. Da das System das Eigentum schnell überträgt, kann der Speicher-Array keine I/O verarbeiten (oder nur einen ganz geringen Teil). Folglich kommt es bei allen Servern, die von der LUN abhängen, zu einem I/O-Timeout. 114 VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Ausgleichen des Festplattenzugriffs zwischen virtuellen Maschinen Sie können die maximale Anzahl ausstehender Festplattenanforderungen mit dem Parameter Disk.SchedNumReqOutstanding im VI-Client anpassen. Wenn zwei oder mehr virtuelle Maschinen auf dieselbe LUN zugreifen, steuert dieser Parameter die Anzahl ausstehender Anforderungen, die jede virtuelle Maschine an die LUN ausgeben kann. Durch ein Anpassen des Grenzwerts kann der Festplattenzugriff zwischen virtuellen Maschinen ausgeglichen werden. Dieser Grenzwert gilt nicht, wenn auf einer LUN nur eine virtuelle Maschine aktiv ist. In diesem Fall wird die Bandbreite durch die Warteschlangentiefe des Speicheradapters beschränkt. So legen Sie die Anzahl ausstehender Festplattenanforderungen fest: 1 Wählen Sie im VI-Client den Host aus dem Bestandsfenster aus. 2 Klicken Sie auf die Registerkarte Konfiguration und anschließend auf Erweiterte Einstellungen. 3 Klicken Sie im linken Fenster auf Festplatte, und führen Sie einen Bildlauf zu Disk.SchedNumReqOutstanding aus. 4 Ändern Sie den Parameterwert in die gewünschte Anzahl, und klicken Sie auf OK. 5 Starten Sie den Server neu. Diese Änderung kann sich auf die Planung der Festplattenbandbreite auswirken. Versuche haben jedoch nachgewiesen, dass es bei festplattenintensiven Workloads zu Verbesserungen kommt. Wenn Sie diesen Wert im VMkernel anpassen, können Sie die Warteschlangentiefe im Speicheradapter ebenfalls anpassen. Siehe „Festlegen der maximalen Warteschlangentiefe für HBAs“ auf Seite 116. Entfernen von VMFS-2-Treibern Wenn Sie über zahlreiche LUNs/VMFS-Volumes verfügen, die alle den Typ VMFS-3 aufweisen, können Sie die Leistung möglicherweise optimieren, indem Sie den VMFS-2-Treiber entfernen. Geben Sie Folgendes an einer Befehlszeileneingabeaufforderung ein: vmkload_mod -u vmfs2 Dies sollte zu einer erheblichen Erhöhung der Geschwindigkeit bestimmter Management-Vorgänge führen, wie z. B. dem Aktualisieren von Datastores und dem erneuten Scannen von Speicheradaptern. VMware, Inc. 115 Handbuch der SAN-Konfiguration Verringern von SCSI-Reservierungen Vorgänge, die eine Datei- oder Metadatensperre in VMFS erfordern, führen zu kurzen SCSI-Reservierungen. SCSI-Reservierungen sperren eine gesamte LUN. Übermäßige SCSI-Reservierungen durch einen Server können zu einer Leistungsbeeinträchtigung auf anderen Servern führen, die auf dasselbe VMFS zugreifen. Beispiele für Vorgänge, die das Abrufen von Datei- oder Metadatensperren erfordern, umfassen: Einschalten einer virtuellen Maschine. VMotion. Virtuelle Maschinen, die mit virtuellen Festplatten-Snapshots ausgeführt werden. Dateivorgänge von der Service-Konsole, das das Öffnen von Dateien oder das Ausführen von Metadaten-Updates erfordern. (Siehe „Metadaten-Aktualisierungen“ auf Seite 36.) Es kann zu einer Leistungsbeeinträchtigung kommen, wenn solche Vorgänge häufig auf mehreren Servern ausgeführt werden, die auf dasselbe VMFS zugreifen. Es wird z. B. nicht empfohlen, zahlreiche virtuelle Maschinen von mehreren Servern, die virtuelle Festplatten-Snapshots verwenden, auf demselben VMFS auszuführen. Beschränken Sie die Anzahl der VMFS-Dateivorgänge, die von der Service-Konsole ausgeführt werden, wenn zahlreiche virtuelle Maschinen auf dem VMFS ausgeführt werden. Festlegen der maximalen Warteschlangentiefe für HBAs Wenn Sie eine unbefriedigende Leistung Ihrer HBAs feststellen, können Sie ihre maximale Warteschlangentiefe ändern. Weitere Informationen finden Sie in folgenden Abschnitten: „Anpassen der Warteschlangentiefe für einen QLogic-HBA“ auf Seite 116. „Anpassen der Warteschlangentiefe für einen Emulex-HBA“ auf Seite 117. Anpassen der Warteschlangentiefe für einen QLogic-HBA Sie können die maximale Warteschlangentiefe für einen QLogic-Adapter der Serie qla2x00 mit dem folgenden Verfahren ändern. So legen Sie die maximale Warteschlangentiefe für einen QLogic-HBA fest: 116 1 Melden Sie sich als Root-Benutzer an der ESX Server-Servicekonsole an. 2 Erstellen Sie eine Sicherungskopie der Datei /etc/vmware/esx.conf, und öffnen Sie die Datei zum Bearbeiten. VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Die Datei sieht ähnlich aus wie das folgende Beispiel: /device/002:02.0/class = "0c0400" /device/002:02.0/devID = "2312" /device/002:02.0/irq = "19" /device/002:02.0/name = "QLogic Corp QLA231x/2340 (rev 02)" /device/002:02.0/options = "" /device/002:02.0/owner = "vmkernel" /device/002:02.0/subsysDevID = "027d" /device/002:02.0/subsysVendor = "1014" /device/002:02.0/vendor = "1077" /device/002:02.0/vmkname = "vmhba0" 3 Suchen Sie die Zeile options direkt unter der Zeile name, und ändern Sie diese Zeile wie folgt, um die maximale Warteschlangentiefe anzugeben (wobei nn die maximale Warteschlangentiefe ist): /device/001:02.0/options = "ql2xmaxqdepth=nn" HINWEIS Das zweite Zeichen in ql2xmaxqdepth ist ein kleines „L“. 4 Speichern Sie die Änderungen, und starten Sie den Server neu. Anpassen der Warteschlangentiefe für einen Emulex-HBA Sie können die maximale Warteschlangentiefe für einen Emulex-Adapter mit dem folgenden Verfahren ändern. So ändern Sie die Warteschlangentiefe eines Emulex-HBA: 1 Melden Sie sich als Root-Benutzer an der Service-Konsole an. 2 Prüfen Sie, welches Emulex-HBA-Modul gegenwärtig geladen ist: vmkload_mod -l | grep lpfcdd Je nach HBA-Modell kann eines der folgenden Module geladen sein: lpfcdd_7xx lpfcdd_732 3 Führen Sie für eine Instanz eines Emulex-HBA auf dem System die folgenden Befehle aus. Im Beispiel ist das Modul lpfcdd_7xx dargestellt. Verwenden Sie je nach Ergebnis von Schritt 2 das entsprechende Modul. a esxcfg-module -s lpfc0_lun_queue_depth=16 lpfcdd_7xx b esxcfg-boot -b In diesem Fall wird die LUN-Warteschlangentiefe des durch lpfc0 HBA auf 16 gesetzt. VMware, Inc. 117 Handbuch der SAN-Konfiguration 4 Führen Sie für mehrere Instanzen eines Emulex-HBA auf dem System die folgenden Befehle aus. a esxcfg-module -s "lpfc0_lun_queue_depth=16 lpfc1_lun_queue_depth=16" lpfcdd_7xx b esxcfg-boot -b In diesem Fall wird die LUN-Warteschlangentiefe der beiden HBAs lpfc0 und lpfc1 auf 16 gesetzt. 5 Führen Sie einen Neustart durch. Überlegungen zum SAN-Speicher-Backup In diesem Abschnitt werden Backups in der SAN-Umgebung erläutert: „Backups in einer SAN-Umgebung“ auf Seite 118. „Snapshot-Software“ auf Seite 119. „Verwenden eines Drittanbieter-Backup-Pakets“ auf Seite 120. „Auswählen Ihrer Backup-Lösung“ auf Seite 120. Backups in einer SAN-Umgebung Innerhalb der SAN-Umgebung haben Backups zwei Ziele. Das erste Ziel besteht darin, Online-Daten auf Offline-Medien zu archivieren. Dieser Prozess wird gemäß einem Zeitplan in regelmäßigen Abständen für alle Online-Daten wiederholt. Das zweite Ziel besteht darin, Zugriff auf Offline-Daten zur Recovery nach einem Problem bereitzustellen. Bei einer Datenbank-Recovery müssen beispielsweise archivierte Log-Dateien abgerufen werden, die zurzeit nicht online sind. Die Planung eines Backups hängt von einer Reihe von Faktoren ab: 118 Identifizierung kritischer Anwendungen, die innerhalb eines bestimmten Zeitraums häufigere Backup-Zyklen erfordern. Ziele im Hinblick auf Recovery-Punkt und Recovery-Zeit. Überlegen Sie, wie präzise Ihr Recovery-Punkt sein muss und wie lange Sie darauf warten möchten. Die mit den Daten verknüpfte Änderungsrate (Rate of Change – RoC). Wenn Sie z. B. die synchrone/asynchrone Replikation verwenden, wirkt sich die RoC auf die Bandbreite aus, die zwischen den primären und sekundären Speicher-Devices erforderlich ist. Allgemeine Auswirkung auf die SAN-Umgebung, Speicherleistung (während des Backup) und andere Anwendungen. VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Identifizierung von Spitzenverkehrszeiten des SAN (Backups, die während dieser Zeiten geplant werden, können die Anwendungen und den Backup-Prozess verlangsamen). Zeit zum Planen aller Backups im Rechenzentrum. Erforderliche Zeit zum Sichern einer einzelnen Anwendung. Ressourcenverfügbarkeit zum Archivieren von Daten; in der Regel Offline-Medienzugriff (Band). Nehmen Sie beim Entwerfen Ihrer Backup-Strategie eine Zielsetzung im Hinblick auf die Recovery-Zeit für jede Anwendung auf. Das heißt, berücksichtigen Sie die Zeit und Ressourcen, die zum erneuten Bereitstellen der Daten erforderlich sind. Beispiel: wenn ein geplantes Backup so viele Daten speichert, dass eine Recovery ziemlich viel Zeit in Anspruch nimmt, sollte das geplante Backup überprüft werden. Es könnte besser sein, das Backup häufiger auszuführen. In diesem Fall werden weniger Daten gesichert und die Recovery-Zeit verringert. Wenn eine bestimmte Anwendung eine Recovery innerhalb eines bestimmten Zeitraums erfordert, muss der Backup-Prozess einen Zeitplan und spezifische Datenverarbeitung vorgeben, um diese Anforderung zu erfüllen. Eine schnelle Recovery kann den Einsatz von Recovery-Volumes erfordern, die auf Online-Speicher residieren, um den Zugriff auf langsame Offline-Medien für fehlende Datenkomponenten zu minimieren oder ganz auszuschließen. Snapshot-Software Mit Snapshot-Software kann ein Administrator eine sofortige Kopie einer im Festplatten-Subsystem definierten virtuellen Festplatte erstellen. Snapshot-Software ist auf verschiedenen Ebenen verfügbar: Mit ESX Server-Hosts können Sie Snapshots virtueller Maschinen erstellen. Diese Software ist im ESX Server-Basispaket enthalten. Backup-Software von Drittanbietern ermöglicht unter Umständen umfassendere Backup-Verfahren und kann ausgereiftere Konfigurationsoptionen enthalten. Administratoren erstellen Snapshots aus verschiedenen Gründen, wie z. B.: Backup. Disaster Recovery. Verfügbarkeit mehrerer Konfigurationen und/oder Versionen Forensik (Prüfen eines Snapshot, um die Ursache von Problemen während des Systembetriebs herauszufinden). Data Mining (Prüfen einer Kopie Ihrer Daten, um die Last für Produktionssysteme zu verringern). VMware, Inc. 119 Handbuch der SAN-Konfiguration Verwenden eines Drittanbieter-Backup-Pakets Wenn Sie Drittanbieter-Backup-Software verwenden, stellen Sie sicher, dass die Software mit ESX Server-Hosts unterstützt wird. Weitere Informationen finden Sie im Backup Software Compatibility Guide. Der Einsatz von Drittanbieter-Software bietet den Vorteil einer einheitlichen Umgebung. Sie müssen jedoch berücksichtigen, dass die zusätzlichen Kosten der Drittanbieter-Snapshotting-Software steigen können, wenn Ihr SAN wächst. Wenn Sie Snapshots zum Sichern Ihrer Daten verwenden, beachten Sie die folgenden Punkte: Einige Anbieter unterstützen Snapshots für VMFS und RDMs. Wird beides unterstützt, können Sie einen Snapshot des gesamten VMFS für einen Host oder für die einzelnen virtuellen Maschinen (einer pro Festplatte) erstellen. Einige Anbieter unterstützen Snapshots nur für ein Setup mit RDM. Wenn nur RDM unterstützt wird, können Sie Snapshots einzelner virtueller Maschinen erstellen. Weitere Informationen finden Sie in der Dokumentation Ihres Speicheranbieters. HINWEIS ESX Server-Systeme enthalten auch die Komponente Consolidated Backup, die im Handbuch für das Backup virtueller Maschinen ausführlich erläutert wird. Auswählen Ihrer Backup-Lösung Beachten Sie beim Auswählen Ihrer Backup-Lösung, dass ein Backup eine oder alle der folgenden Eigenschaften aufweisen kann: Absturzkonsistent Dateisystemkonsistent Anwendungskonsistent VMware bietet ein dateisystemkonsistentes Backup. In den meisten Fällen können Sie mit einem dateisystemkonsistenten Backup nach einem Ausfall eine vollständige Recovery ausführen. Wenn Ihre Anwendungen jedoch eine dateisystemübergreifende Synchronisierung oder die Synchronisierung mit einer Datenbank erfordern, bietet die VMware-Lösung unter Umständen keine ausreichende Konsistenz. In diesen Fällen sollten Sie prüfen, ob eine Drittanbieter-Backup-Lösung Ihre Anforderungen besser erfüllen kann. 120 VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Anwendungen mit mehreren Ebenen SAN-Administratoren setzen in der Regel spezielle Array-basierte Software für Backup, Disaster Recovery, Data Mining, Forensik und Konfigurationstests ein. Um mit Tools zu arbeiten, die im ESX Server-Host für dieselben Vorgänge enthalten sind, können ESX Server-Administratoren eingesetzt werden. Wenn Sie ein ESX Server-System in Verbindung mit einem SAN verwenden, müssen Sie entscheiden, ob sich Array-basierte oder Host-basierte Tools besser für Ihre jeweilige Situation eignen. Weitere Informationen finden Sie in folgenden Abschnitten: „Array-basierte (Drittanbieter-)Lösung“ auf Seite 121. „Dateibasierte (Drittanbieter-)Lösung“ auf Seite 121. Array-basierte (Drittanbieter-)Lösung Berücksichtigen Sie beim Prüfen einer Array-basierten Lösung die folgenden Punkte: Wenn Sie die Array-basierte Lösung verwenden, ist RDM (nicht VMFS) in der Regel die entsprechende Wahl. Wenn Sie RDM nicht verwenden möchten, müssen Sie in der Dokumentation des Anbieters prüfen, ob Vorgänge auf virtuellen Festplatten unterstützt werden. Array-basierte Lösungen führen normalerweise zu umfassenderen Statistiken. Mit RDM werden Daten immer entlang desselben Pfades übertragen, was das Leistungs-Management vereinfacht. Sicherheit lässt sich einfacher verwalten, wenn Sie RDM und eine Array-basierte Lösung einsetzen, da virtuelle Maschinen mit RDM physischen Rechnern ähnlicher sind. Dateibasierte (Drittanbieter-)Lösung Beachten Sie beim Prüfen einer dateibasierten Lösung mit VMware-Tools und VMFS die folgenden Punkte: Der Einsatz von VMware-Tools und VMFS ist besser für die Bereitstellung geeignet: eine große LUN wird zugewiesen, und mehrere vmdk-Dateien können auf dieser LUN platziert werden. Mit RDM ist für jede virtuelle Maschine eine neue LUN erforderlich. Snapshotting und Replikation sind ohne zusätzliche Kosten in Ihrem ESX Server-Host enthalten. Daher ist die dateibasierte Lösung kostengünstiger als die Array-basierte Lösung. VMware, Inc. 121 Handbuch der SAN-Konfiguration Für ESX Server-Administratoren ist die Verwendung von ESX Server-Tools einfacher. ESX Server-Administratoren, die die dateibasierte Lösung einsetzen, sind unabhängiger vom SAN-Administrator. VMFS-Volume-Resignatur Mit der VMFS-Volume-Resignature können Sie einen Hardware-Snapshot eines VMFS-Volumes erstellen und von einem ESX Server-System auf diesen Snapshot zugreifen. Dies beinhaltet die Resignatur der Volume-UUID und die Erstellung einer neuen Volume-Bezeichnung. Sie können die Resignatur wie folgt steuern: Aktivieren oder deaktivieren Sie die automatische Resignatur mit der Option LVM.EnableResignature (standardmäßig ist die Option deaktiviert). Als grundsätzliche Regel gilt, dass eine LUN auf allen Hosts, die auf die LUN zugreifen, mit derselben LUN-ID angezeigt werden sollte. Unter bestimmten Umständen müssen Sie dieses Verhalten mit der Option LVM.DisallowSnapshotLUN ändern. Weitere Informationen finden Sie in folgenden Abschnitten: „Mounten von Original- und Snapshot-VMFS-Volumes“ auf Seite 122. „Probleme mit der Anzeige derselben LUN-ID auf mehreren Hosts“ auf Seite 123. „Erläuterungen zu Resignatur-Optionen“ auf Seite 124. Mounten von Original- und Snapshot-VMFS-Volumes Sie können das Original- und das Snapshot-VMFS-Volume auf demselben ESX Server-Host mounten. So mounten Sie Original- und Snapshot-VMFS-Volumes: 122 1 Wählen Sie im VI-Client den Host aus dem Bestandsfenster aus. 2 Klicken Sie auf die Registerkarte Konfiguration und anschließend auf Erweiterte Einstellungen. 3 Führen Sie die folgenden Aufgaben nach Bedarf wiederholt aus: a Erstellen Sie den Snapshot. b Fügen Sie den Snapshot zum Speicher-Array hinzu. c Wählen Sie im linken Fenster LVM aus, und setzen Sie anschließend die Option LVM.EnableResignature auf 1. VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden 4 Scannen Sie das Volume erneut. Nach dem erneuten Scan wird die LUN als /vmfs/volumes/snap-<DIGIT>-<old-label> angezeigt. HINWEIS Alle virtuellen Maschinen auf diesem neuen Snapshot-Volume werden nicht automatisch erkannt. Sie müssen die virtuellen Maschinen manuell registrieren. Wenn die Datei vmx für eine der virtuellen Maschinen oder die Datei .vmsd für virtuelle Maschinen-Snapshots /vmfs/volumes/<label oder UUID>/Pfade enthält, müssen Sie diese Elemente ändern, um die Resignatur des Volume-Pfades darzustellen. 5 Setzen Sie gegebenenfalls die Option LVM.EnableResignature nach Abschluss der Resignatur auf 0. Probleme mit der Anzeige derselben LUN-ID auf mehreren Hosts In der Regel wird eine LUN auf allen Hosts, die auf die LUN zugreifen, mit derselben LUN-ID angezeigt. Auf einigen Arrays ist es jedoch unter Umständen nicht möglich, die LUN mit derselben LUN-ID auf mehreren Hosts anzuzeigen. Dies führt dazu, dass das ESX Server-System die LUN fälschlicherweise als Snapshot erkennt und offline setzt. Beispiele für Speicher-Arrays, bei denen dieselbe LUN-ID unter Umständen für eine bestimmte LUN nicht auf mehreren Hosts sichtbar ist, sind CLARiiON AX100 und einige IBM TotalStorage Enterprise Storage Systems (früher Shark Storage-Systeme). HINWEIS Wenn Sie Clariion AX100 mit Navisphere Express verwenden, können Sie dieselbe LUN-ID nicht für mehrere Speichergruppen konfigurieren. Stattdessen müssen Sie eine Version der Navisphere-Software verwenden, die über umfassendere Management-Funktionen verfügt. Für IBM TotalStorage 8000 müssen Sie diese LUNs neu erstellen. So beheben Sie Probleme mit unsichtbaren LUNs auf bestimmten Arrays: 1 Wählen Sie im VI-Client den Host aus dem Bestandsfenster aus. 2 Klicken Sie auf die Registerkarte Konfiguration und anschließend auf Erweiterte Einstellungen. VMware, Inc. 123 Handbuch der SAN-Konfiguration 3 Wählen Sie im linken Fenster LVM aus, und setzen Sie anschließend die Option LVM.DisallowSnapshotLUN im rechten Fenster auf 0. 4 Scannen Sie alle VMFS-Volumes neu. Nach dem erneuten Scan sind alle VMFS-Volumes verfügbar. VORSICHT Wenn LVM.DisallowSnapshotLUN auf 0 gesetzt ist, können Snapshots nicht an den ESX Server-Host weitergegeben werden. Weitere Informationen finden Sie unter „Status 3 - EnableResignature=no, DisallowSnapshotLUN=no“ auf Seite 125. Erläuterungen zu Resignatur-Optionen In diesem Abschnitt wird die Interaktion der Optionen EnableResignature und DisallowSnapshotLUN erläutert. Die folgenden drei Status, die sich aus einer Änderung dieser Optionen ergeben, werden behandelt: „Status 1 - EnableResignature=no, DisallowSnapshotLUN=yes (Standard)“ auf Seite 124 „Status 2 - EnableResignature=yes, (DisallowSnapshotLUN ist nicht relevant)“ auf Seite 125 „Status 3 - EnableResignature=no, DisallowSnapshotLUN=no“ auf Seite 125 Status 1 - EnableResignature=no, DisallowSnapshotLUN=yes (Standard) In diesem Status: Können Sie Snapshots von VMFS-Volumes nicht über den Array an den ESX Server-Host weitergeben. Müssen mit VMFS formatierte LUNs für jeden ESX Server-Host dieselbe ID aufweisen. Status 1 ist der sicherste Status, aber 124 Er kann auf einigen Arrays (wie z. B. IBM TotalStorage 8000-Arrays und EMC AX100), die dieselben LUNs nicht immer mit derselben ID anzeigen, sofern Sie nicht besonders darauf achten, zu Problemen führen. Sie haben nicht mehr die Möglichkeit, einen Snapshot eines VMFS-Volumes zu erstellen und an ein ESX Server-System weiterzugeben. Ändern Sie dazu die Einstellung LMV.EnableResignature in 1. VMware, Inc. Kapitel 6 Verwalten von ESX Server-Systemen, die SAN-Speicher verwenden Status 2 - EnableResignature=yes, (DisallowSnapshotLUN ist nicht relevant) In diesem Status: Können Sie Snapshots von VMFS-Volumes an denselben oder andere Server weitergeben. VMFS-Volumes, die LUNs aus IBM TotalStorage 8000 oder AX100 enthalten, die nicht auf allen Servern mit denselben LUN-Nummern dargestellt werden, können die auf diesem VMFS-Volume gespeicherten virtuellen Maschinen nicht mehr verwenden. Vermeiden Sie diese Situation unbedingt. Status 3 - EnableResignature=no, DisallowSnapshotLUN=no Mit diesen Einstellungen können Snapshots nicht an den ESX Server-Host weitergegeben werden. Dies ähnelt dem Verhalten von ESX Server 2.x. Wenn Sie über einen IBM TotalStorage 8000 oder AX100 verfügen, der aus irgendeinem Grund nicht so konfiguriert werden kann, dass dieselbe LUN-Nummer auf allen Servern angezeigt wird, benötigen Sie diese Einstellung, damit alle ESX Server-Systeme dieselben LUNs für Funktionen wie VMotion, VMware DRS und VMware HA verwenden können. Bedenken Sie vor dem Ändern dieser Einstellungen die folgenden möglichen Probleme: Wenn Sie ein- oder mehrmals Snapshots eines VMFS-Volumes erstellen und einen oder mehrere dieser Snapshots dynamisch an einen ESX Server übertragen, ist nur die erste Kopie brauchbar. Bei der brauchbaren Kopie handelt es sich wahrscheinlich um die primäre Kopie. Nach dem Neustart kann nicht mehr ermittelt werden, welches Volume (die Quelle oder einer der Snapshots) brauchbar ist. Dieses Verhalten birgt Risiken. Wenn Sie einen Snapshot eines übergreifenden VMFS-Volumes erstellen, könnte ein ESX Server-Host das Volume aus Fragmenten erneut zusammenstellen, die zu verschiedenen Snapshots gehören. Dadurch kann Ihr Dateisystem beschädigt werden. VMware, Inc. 125 Handbuch der SAN-Konfiguration 126 VMware, Inc. A Checkliste für Multipathing A Dieser Anhang enthält eine Checkliste mit Anforderungen für das Multipathing-Setup für verschiedene Speicher-Arrays. Komponente Anmerkungen Alle Speicher-Arrays Write-Cache muss deaktiviert werden, sofern er nicht batteriegepuffert ist. Topologie Kein einzelner Ausfall sollte zu einem Failover von HBA und SP führen, insbesondere mit Aktiv/Passiv-Speicher-Arrays. IBM TotalStorage DS 4000 (ehemals FastT) Der Standard-Host-Typ muss LNXCL sein. Der Host-Typ muss LNXCL sein. AVT (Auto Volume Transfer) ist in diesem Host-Modus deaktiviert. HDS 99xx- und 95xxV-Familie HDS 9500V-Familie (Thunder) erfordert zwei Host-Modi: Host-Modus 1 Standard. Host-Modus 2 Sun Cluster HDS 99xx-Familie (Lightning) und HDS Tabma (USP) erfordern, dass der Host-Modus auf Netware gesetzt wird. EMC Symmetrix EMC Clariion HP MSA Aktivieren Sie die SC3-Einstellung. Deaktivieren Sie die SPC2-Einstellung. Alle Initiator-Records müssen folgende Eigenschaften aufweisen Failover-Modus = 1 Initiatortyp = Clariion Open Array CommPath = Aktiviert oder 1 Der Host-Typ muss Linux sein. Setzen Sie den Verbindungstyp für jeden HBA-Port auf Linux. VMware, Inc. 127 Handbuch der SAN-Konfiguration Komponente Anmerkungen HP EVA Setzen Sie den Host-Typ für EVA3000/5000 Firmware 4.001 und höher sowie EVA4000/6000/8000 Firmware 5.031 und höher auf VMware. Setzen Sie den Host-Modustyp andernfalls auf Benutzerdefiniert. Der Wert lautet: EVA3000/5000 Firmware 3.x: 000000002200282E EVA4000/6000/8000: 000000202200083E HP XP Für XP 128/1024/10000/12000 sollte der Host-Modus auf 0C (Windows), d. h. zeroC (Windows) gesetzt werden. NetApp Keine besonderen Anforderungen. ESX Server-Konfiguration Legen Sie die folgenden erweiterten Einstellungen für den ESX Server-Host fest: Setzen Sie Disk.UseLunReset auf 1. Setzen Sie Disk.UseDeviceReset auf 0. Für alle LUNs, die Cluster-Festplatten für Aktiv/Passiv-Arrays hosten, muss Zuletzt verwendet als Multipathing-Policy festgelegt werden. Für LUNs auf Aktiv/Aktiv-Arrays kann Zuletzt verwendet oder Fest als Multipathing-Policy gewählt werden. Alle FC-HBAs müssen dasselbe Modell sein. 128 VMware, Inc. B Dienstprogramme B In den meisten Fällen eignet sich der VI-Client ideal für die Überwachung eines ESX Server-Hosts, der mit SAN-Speicher verbunden ist. Erfahrene Benutzer können einige Befehlszeilendienstprogramme für zusätzliche Details verwenden. Dieser Anhang enthält Informationen zu den folgenden Dienstprogrammen: „Dienstprogramm esxtop“ auf Seite 130. „Dienstprogramm storageMonitor“ auf Seite 130. VMware, Inc. 129 Handbuch der SAN-Konfiguration Dienstprogramm esxtop Das Befehlszeilen-Tool esxtop bietet einen sehr ausführlichen Überblick darüber, wie ESX Server Ressourcen in Echtzeit nutzt. Das Tool wird auf der Service-Konsole des ESX Server-Hosts ausgeführt. Ausführliche Informationen zu esxtop finden Sie im Handbuch zum Ressourcen-Management, oder geben Sie man esxtop an der Befehlszeileneingabeaufforderung ein. Dienstprogramm storageMonitor Das Dienstprogramm storageMonitor überwacht SCSI-Sense-Fehler, die in Speicher-Devices auftreten, die mit VMware ESX Server verbunden sind. Das Dienstprogramm trägt Sense-Fehlerinformationen zusammen, indem es den im VMkernel ausgeführten storageMonitor in regelmäßigen Abständen abfragt und Fehlerinformationen an Standardausgabe, eine Datei oder das Systemprotokoll sendet. Bevor Fehlerinformationen an eine Ausgabe gesendet werden, werden sie formatiert. Das Dienstprogramm wandelt z. B. Sense-Fehlercodes gemäß SCSI-3-Spezifikation in entsprechenden Text um. Ist keine Konfigurationsdatei angegeben, analysiert storageMonitor die Standardkonfigurationsdatei /etc/vmware/storageMonitor.conf, um bestimmte Fehler zu filtern und die Anzeige anderer Fehler zu ermöglichen. Sie können storageMonitor im interaktiven Modus oder mit der Option -d im Daemon-Modus ausführen. Weitere Informationen finden Sie in folgenden Abschnitten: 130 „Optionen“ auf Seite 131. „Beispiele“ auf Seite 131. VMware, Inc. Anhang B Dienstprogramme Optionen Sie können storageMonitor mit einer der folgenden Optionen über die ESX Server-Befehlszeile aufrufen. Tabelle B-1. Befehlszeilenoptionen von storageMonitor Option Beschreibung <config-file> Mit dieser Option können Sie eine Konfigurationsdatei angeben. Ist diese Option nicht spezifiziert, wird der Standard verwendet. Die Konfigurationsdatei gibt an, welche Fehlerarten storageMonitor zulassen soll und welche vor der Anzeige gefiltert werden sollen. Die Standardkonfigurationsdatei stellt das Format der Einträge dar. -d Gibt an, dass storageMonitor im Daemon-Modus ausgeführt werden soll. Wenn diese Option angegeben ist, erfolgt die Ausgabe in syslog oder eine vom Anwender angegebene Log-Datei. Wenn die Option -s ebenfalls angegeben ist, wird die Ausgabe darüber hinaus in die Standardausgabe geschrieben. -h Zeigt Hilfeinformationen an. -l <log_file> Wenn diese Option angegeben ist, wird die Ausgabe des Programms in <log_file> geschrieben. Diese Option ist nur gültig, wenn die Option -d ebenfalls angegeben ist. -p <poll_interval> Mit dieser Option können Sie das Intervall zum Abfragen des Kernel-residenten Speichers und zum Abrufen des Status oder der Fehler der Speicher-Devices in Sekunden angeben. Wird diese Option nicht festgelegt, wird das Standard-Abrufintervall von 10 Sekunden verwendet. -s Gibt an, dass storageMonitor die Ausgabe an die Standardausgabe senden soll. Diese Option ist nur gültig, wenn Sie storageMonitor im Daemon-Modus starten (Option -d ist angegeben). Beispiele storageMonitor -p 60 Setzt das Abrufintervall auf 60 Sekunden. Sendet die Ausgabe an die Standardausgabe (da storageMonitor nicht im Daemon-Modus ausgeführt wird). Verwendet die in der Standardkonfigurationsdatei angegebenen Filter vor dem Senden der Ausgabe. storageMonitor -d -c myconf.conf VMware, Inc. 131 Handbuch der SAN-Konfiguration Führt storageMonitor im Daemon-Modus mit der Konfigurationsdatei myconf.conf aus. Schreibt die Ausgabe in syslog. Standardmäßig befindet sich syslog in /var/log/storageMonitor. storageMonitor -d -l mylog.log -s Führt storageMonitor im Daemon-Modus mit der Standardkonfigurationsdatei aus. Sendet die Ausgabe an mylog.log anstelle von syslog. Schreibt die Ausgabe auch in die Standardausgabe, da die Option -s angegeben ist. 132 VMware, Inc. Index Symbols * neben Pfad 100 .vmdk-Datei 21 A Abrufen von Informationen 89 Aktiv/Aktiv-FestplattenArrays 55, 71, 100, 104 Aktiv/Passiv-FestplattenArrays 48, 55, 84, 100 HP StorageWorks MSA 72 Pfad-Thrashing 114 Systemstart über SAN 58 Zurücksetzen der Pfad-Policy 89 Aktive Pfade 101 Aktiver Pfadstatus 99 Aktivieren der Boot-Auswahl 84 Aktivieren der Boot-BIOSEingabeaufforderung für Systemstart über SAN 85 Aktivieren des BIOS für Systemstart über SAN 86 Aktivieren von Pfaden 102, 103 Aktueller Multipathing-Status 98 Ändern von disk.maskLuns 97 Ändern von disk.maxLun 96 Ändern von disk.supportSparseLun 97 Anwendergruppen Zugriff 12 Anwendungen mit mehreren Ebenen 121 Anwendungen, Mehrere Ebenen 121 VMware, Inc. Anwendungsbeispiele 33 Anzahl ausstehender Festplattenanforderungen 115 Anzahl der Erweiterungen 22 Anzeigeprobleme, AX100 65 Array-Basierte (Drittanbieter)Lösung 121 Ausfall 49 Ausgefallene Pfade 99 Ausgleichen des Festplattenzugriffs 115 Ausstehende Festplattenanforderungen 115 Authentifizierungs-Daemon 25 Auto Volume Transfer 70 Automatische Volume-Resignatur 66 IBM TotalStorage 71 AVT 70, 114 AX100 65 Anzeigeprobleme 65 Inaktive Verbindungen 65 B Backups 55, 118 Drittanbieter-Backup-Paket 120 Lösung 120 Überlegungen 118 Band-Devices 56 Befehle, SDK 23 Beheben von Problemen 109 Betriebssystem-Timeout 108 Bevorzugter Pfad 100, 103 133 Handbuch der SAN-Konfiguration BIOS Für Systemstart über SAN aktivieren 86 Qlogic-HBA für Systemstart über SAN aktivieren 83 Boot-Auswahl, aktivieren 84 Boot-BIOS-Eingabeaufforderung, für Systemstart über SAN aktivieren 85 Boot-LUN 84 Boot-LUN, auswählen 84 BusLogic SCSI-Controller 20 Warteschlangentiefe 54 C CD-ROM, Systemstart 85 Clariion AX100 123 Client der virtuellen Infrastruktur 16, 23 Cluster in einer Box 50 Cluster in mehreren Boxen 50 Cluster-Dienste 50 Consolidated Backup-Proxy 55 CPU-Virtualisierung 19 Device-Treiberoptionen 107 Emulex 107 Qlogic 107 Diagnosepartitionen 54 Gemeinsam nutzen 109 Systemstart über SAN 80 Dienstprogramme esxtop 130 storageMonitor 130 Direktverbindung 62 disallowSnapshotLUN 124, 125 Disaster Recovery 34 disk.maskLuns 96, 97 disk.maxLun 95, 96 Disk.SchedNumReqOutstanding (Parameter) 115 disk.supportSparseLun 97 Drittanbieter, ManagementAnwendungen 39 Drittanbieter-Backup-Paket 120 DRS 52 DS4000, Hardware-Konfiguration für SAN-Failover 67 Dump-Partitionen 54 Gemeinsam nutzen 109 D Datastores, Entfernen 95 Datenzugriff 43, 44 (SAN) Überblick 45, 48 RDM 38 Überblick 44 VMFS 38 Deaktivieren der automatischen VolumeÜbertragung 70 Deaktivieren von Pfaden 102 Deaktivierter Pfadstatus 99 Details zu Speicher-Devices 90 Device-Treiber 16 134 E Ebenen, Komplexität 37 Einschränkungen 55 EMC CLARiiON 64 EMC CLARiiON AX100 65 EMC Symmetrix 66 Pseudo-LUNs 66 Emulex FC HBA Device-Treiberoptionen 107 lpfc_linkdown_tmo 107 VMware, Inc. Index Emulex-FC-HBA Systemstart über SAN 85 enableResignature 124, 125 Entfernen von Datastores 95 Entfernen von LUNs 95 Entfernen von VMFS-2-Treibern 115 Erneut scannen LUN-Anzeige 37 Erweiterte Konfiguration der LUNAnzeige 95 Erweiterungen 22 Definition 91 ESX Server Einführung 16 Gemeinsame VMFS-Nutzung 35 Vorteile 32 ESX Server und SAN, Voraussetzungen 54 esxtop (Dienstprogramm) 130 EVA (HP StorageWorks) 74 Aktiv/Aktiv 55, 100, 104 Aktiv/Passiv 55, 71, 84, 100, 114 Zoning von Festplatten-Array zu ESX Server 94 Festplattenzugriff, Ausgleichen 115 Feststehend, Pfad-Policy 48 G Gemeinsam genutzte Festplatten 43 Gemeinsame Nutzung von Diagnosepartitionen 109 Gemeinsame VMFS-Nutzung auf mehreren Servern 35 Größe der Zonen 40 H HA 49 Hardware-Kompatibilität 18 HBA Einrichten 56 Emulex 85 F Failover 46, 51, 105 FAStT-Speicher 67 HBA 107 I/O-Verzögerung 48 Zonen 40 Fallen 89 FC-HBA-Setup 56 Fehler Hub-Controller 74 Fehlerbehebung 88, 109 Feste Pfad-Policy 100, 101 Bevorzugter Pfad 103 Pfad-Thrashing 113 Festplatten, Konfigurationsoptionen 21 VMware, Inc. Festplatten-Arrays Liste von Typen 90 Qlogic 83 Qlogic-HBA-BIOS für Systemstart über SAN aktivieren 83 Statischer Lastausgleich 56 Timeout 107 Typen 90 Warteschlangentiefe 116 High-Tier-Speicher 48 Hitachi Data Systems-Speicher 75 Microcode 75 hostd 25 Host-Daemon 25 Host-Typ 64 135 Handbuch der SAN-Konfiguration HP StorageWorks 72 Lastausgleich 34, 56, 104 MSA 72 Manuell 104 LDAP 25 Leistung 110, 111 XP 74 Hub-Controller, Fehler 74 I Entfernen von VMFS-2-Treibern 115 I/O-Verzögerung 48, 54 IBM TotalStorage DS4000 67 Optimieren 110 Pfad-Thrashing 71 IBM TotalStorage EnterpriseSpeichersysteme 71 Informationssuche 34 Installation SAN 58 Schritte 59 Vorbereiten für Systemstart über SAN 79 Interaktion mit ESX ServerSystemen 23 Inter-Switch Link 68 iSCSI 22 ISL 68 K Kabel Neu anschließen und Neu scannen 94 Verbindungsprobleme 93 Komplexität 37 Konfiguration Optionen 21 Sense-Daten des Speicherprozessors 70 Konfigurieren der Hardware für SAN-Failover DS4000 67 136 L EVA 74 Probleme 112 Überwachen 112 Linux Host-Typ 64 Profilname 72 Service-Konsole 25 VMkernel 16 Linux Cluster, Host-Typ 64 Liste von HBA-Typen 90 Logical Volume Manager 22 Lösungen 88 Lower-Tier-Speicher 48 lpfc_linkdown_tmo (Parameter) 107 lpfc_nodedev_tmo (Parameter) 107 LSI Logic-SCSI-Controller 20 LSILogic Warteschlangentiefe 54 LUN nicht sichtbar 92 Kabelverbindung 93 Masking 93 Probleme 93 SP-Sichtbarkeit 93 Zoning 93 LUN-Erkennung, VMkernel 37 LUN-Maskierung 40 Systemstart über SAN 81 LUN-Masking 93 VMware, Inc. Index LUNs 1 VMFS-Volume 54 Ändern der gescannten Anzahl 95 Anzeige und erneutes Scannen 37 Anzeigekonfiguration 95 Boot-LUN 84 Boot-LUN auswählen 84 disk.maskLuns 96 Entfernen 95 Entscheidungen 41 Erstellen, und Neu scannen 94 Festlegen der MultipathingPolicy 101 Gescannte Anzahl 95 Masking-Änderungen und Neu scannen 94 maxLun 95 Mehrere Erweiterungen 91 Metadaten-Aktualisierungen 36 Microcode, Hitachi Data Systems-Speicher 75 Microsoft Cluster Service 23, 33, 62 Mid-Tier-Speicher 48 MRU-Pfad-Policy 100 MSA (HP StorageWorks) 72 MSCS 33, 62 Multipathing 97 Status 98 Multipathing-Policy 101 Festlegen 102 Multipathing-Software 38 Multipathing-Status 98 Multipathing-Policy 101 N Nicht sichtbar 92 N+1-Clustering 50 Navisphere Express 123 net-snmpd 25 Netware-Host-Modus 75 Network Appliance-Speicher 75 Sparse 97 Unsichtbar 123 Wenige große oder viele kleine 40 Zuweisungen 55 LVM 22 LVM.DisallowSnapshotLUN (Parameter) 122 LVM.EnableResignature (Parameter) 122 Speicherbereitstellung 76 Netzwerkvirtualisierung 19 Neu scannen 94 Bei ausgefallenem Pfad 94 Hinzufügen eines Festplatten-Arrays 94 M Management-Anwendungen 39 Manueller Lastausgleich 104 Mapping-Datei 23 Maskierung 40 Masking LUN nicht sichtbar 93 Verwenden von disk.maskLuns 96 Maximale HBAWarteschlangentiefe 116 VMware, Inc. LUN-Erstellung 94 LUN-Masking 94 Neu anschließen von Kabeln 94 NFS 22 O Offline-VMFS-Volumes 123 Optimieren der Ressourcen-Nutzung 51 137 Handbuch der SAN-Konfiguration P P2V-Clustering 50 PAM 25 Parameter, lpfc_nodedev_tmo 107 Passiv-FestplattenArrays 55, 71, 84, 100 Pfad-Thrashing 114 Performance SCSI-Reservierungen 35 Pfadausfall Neu scannen 94 Pfade Priorität für virtuelle Rechner 43 Probleme 88 Hub-Controller 74 Leistung 112 Offline-VMFS-Volumes 123 Sichtbarkeit 92 Vermeiden 109 Profilname, Linux 72 Prozesse, Service-Konsole 25 Q Qlogic FC HBA Device-Treiberoptionen 107 Aktiv 101 Aktivieren 102, 103 Bevorzugt 100, 103 Deaktivieren 102 Pfade verwalten (Dialogfeld) 103 Pfad-Failover 46 Pfad-Management 46, 104 Pfad-Policies Feststehend 48, 100, 101 MRU 100 Pfad-Policy Zuletzt verwendet 101 Pfadstatus 99 Pfad-Thrashing 65, 113, 114 IBM TotalStorage DS4000 71 Pluggable Authentication Module 25 Port-Adresse 31 PortDownRetryCount (Parameter) 107 Port-ID 31 Ports Konfiguration 69 Präventionsmaßnahmen PortDownRetryCount 107 Qlogic-FC-HBA Systemstart über SAN 83 Qlogic-HBA-BIOS Für Systemstart über SAN aktivieren 83 R RADIUS 25 Raw Device Mapping 23, 44, 65 Mapping-Datei 23 RDM 23, 38, 44, 65 Mapping-Datei 23 Microsoft Cluster Service 23 Reservierungen Verringern von SCSI-Reservierungen 116 Resignatur 66 IBM TotalStorage 71 Optionen 124 Ressourcen-Nutzung, optimieren 51 Gegen Server-Ausfälle 49 138 VMware, Inc. Index S Speicher-Devices SAN 40 Arrays 35 Backup-Überlegungen 118 Hardware-Failover 67 Anzeigen 90 Details 90 Speicheroptionen 40 Speicherprozessoren Installationsüberlegungen 58 Konfigurieren von Sense-Daten 70 Server-Failover 51 Port-Konfiguration 69 Voraussetzungen 54 Vorbereiten 81 Vorbereiten für ESX Server-Installation 79 SAN-Fabric 30 SAN-Speicher Vorteile 32 SAN-Speicherleistung, Optimieren 110 Scan, Anzahl ändern 95 SCSI-Controller, Device-Treiberoptionen 107 SCSI-Reservierungen 35 SCSI-Reservierungen, Verringern 116 SDK 23 Server-Ausfall 49 Server-Failover 51 Server-Leistung 111 Service-Konsole 16, 25 Authentifizierung 25 Prozesse 25 Schnittstellen 25 Services, Service-Konsole 25 Setup-Schritte 59 Sichtbarkeitsprobleme 92 snapshot 122 Snapshot-Software 119 SNMP-Server 25 Software-Kompatibilität 18 Sparse-LUN-Unterstützung 97 Speicher-Arrays Sense-Daten 70 Speichersysteme EMC CLARiiON 64 EMC Symmetrix 66 Hitachi 75 HP StorageWorks 72 Network Appliance 75 Speichervirtualisierung 19 Sperren 22 Metadaten-Aktualisierungen 36 SP-Sichtbarkeit, LUN nicht sichtbar 93 Standby-Pfadstatus 99 Sternchen neben Pfad 100 storageMonitor (Dienstprogramm) 130 Systemstart über CD-ROM 85 Systemstart über SAN Diagnosepartitionen 80 Einführung 78 Emulex-FC-HBA 85 ESX Server-Voraussetzungen 58 HBA-Voraussetzungen 58 Konzeptionelle Übersicht 78 LUN-Maskierung 81 Qlogic-FC-HBA 83 Qlogic-HBA-BIOS aktivieren 83 Überlegungen zur Boot-LUN 58 Voraussetzungen 57 Vorbereiten der Installation 79 Vorteile 79 Leistung 110 VMware, Inc. 139 Handbuch der SAN-Konfiguration T VMFS 22, 38, 40 1 Volume pro LUN 54 Tests 62 Timeout 107, 108 TimeoutValue (Parameter) 54 Tipps 42 Treiber Erstellen eines neuen Volumes 22 Gemeinsame Nutzung auf mehreren ESX Server-Systemen 35 Device-Treiber 107 Mindestgröße 22 VMFS -2 115 SCSI-Reservierungen 35 U Überwachen der Leistung 112 Unsichtbare LUNs 123 Unterstützte Devices 63 V Vermeiden von Problemen 109 Verteilte Sperren 22 VI Web Access 16, 23 Virtual Infrastructure SDK 23 Virtual Machine File System 22 Virtual Machine Monitor 16 Virtualisierung 19 Überblick 26 Virtuelle Maschinen Ausgleichen des Festplattenzugriffs 115 Datenzugriff 44 Datenzugriff im SAN 45, 48 Gemeinsames Nutzen von Devices 26 I/O-Verzögerung 48 Priorität zuweisen 43 SAN-Datenzugriff 45, 48 Standard-Konfiguration 37 Virtuelle SCSI-HBAs 20, 23 vmauthd 25 140 Anzahl der Erweiterungen 22 Sperren 22 VMFS-2-Treiber 115 VMFS-Volume-Resignatur 122 VMFS-Volumes Offline 123 vmhba 91 VMkernel 16 Konfiguration 108 LUN-Erkennung 37 VMM 16 VMotion 33, 34, 52, 55 VMware Consolidated Backup-Proxy 55 VMware DRS 33, 34, 52 VMware HA 33, 49 VMware-Diskussionsforen Zugriff 12 Volume-Resignatur 66, 122 TotalStorage 71 Voraussetzungen 54 Systemstart über SAN 57 Vorteile 32 W Warteschlangentiefe 116 Wartung 33 Wissensbasis Zugriff 12 World Wide Port Name 30 WWPN 30, 69 VMware, Inc. Index X XP (HP StorageWorks) 74 Z Zonen Empfohlene Größe 40 Erstellung 40 Failover 40 Zoning ESX Server 39 LUN nicht sichtbar 93 Zugriff Ausgleichen des Festplattenzugriffs 115 Daten 43, 44 Kontrolle 40 Zuletzt verwendete Pfad-Policy 100, 101 Pfad-Thrashing 113 Zurücksetzen der Pfad-Policy Aktiv/Passiv-Festplatten-Array 89 Zuweisungen 55 VMware, Inc. 141 Handbuch der SAN-Konfiguration 142 VMware, Inc.