primecluster™ 4.2a20 - Fujitsu manual server
Transcription
primecluster™ 4.2a20 - Fujitsu manual server
Dokuschablonen DIN A5 V7.31de für FrameMaker V7.x vom 07.03.2007 by S. Thums Services&Tools © cognitas GmbH 2002-2007 7. Mai 2009 Stand 08:30.46 PRIMECLUSTER™ 4.2A20 Data Management Tools (Solaris™) Ausgabe April 2009 Pfad: D:\Daten\PCL\4.2A20Sol\u42128.4\d\42128d44.vor Kritik… Anregungen… Korrekturen… Die Redaktion ist interessiert an Ihren Kommentaren zu diesem Handbuch. Ihre Rückmeldungen helfen uns, die Dokumentation zu optimieren und auf Ihre Wünsche und Bedürfnisse abzustimmen. Sie können uns Ihre Kommentare per E-Mail an [email protected] senden. Zertifizierte Dokumentation nach DIN EN ISO 9001:2000 Um eine gleichbleibend hohe Qualität und Anwenderfreundlichkeit zu gewährleisten, wurde diese Dokumentation nach den Vorgaben eines Qualitätsmanagementsystems erstellt, welches die Forderungen der DIN EN ISO 9001:2000 erfüllt. cognitas. Gesellschaft für Technik-Dokumentation mbH www.cognitas.de Copyright und Handelsmarken Copyright © 2009 Fujitsu LIMITED. Alle Rechte vorbehalten. Liefermöglichkeiten und technische Änderungen vorbehalten. Alle verwendeten Hard- und Softwarenamen sind Handelsnamen und/oder Warenzeichen der jeweiligen Hersteller. Dieses Handbuch wurde erstellt von cognitas. Gesellschaft für Technik-Dokumentation mbH www.cognitas.de Dieses Handbuch wurde auf chlorfrei gebleichtem Papier gedruckt. Inhalt 1 Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.1 Inhalt des Handbuchs . . . . . . . . . . . . . . . . . . . . . . 7 1.2 PRIMECLUSTER Dokumentation . . . . . . . . . . . . . . . . 8 1.3 1.3.1 1.3.1.1 1.3.1.2 1.3.1.3 1.3.1.4 1.3.1.5 1.3.2 Darstellungsmittel . . . . . . . . . . . . Schreibweise . . . . . . . . . . . . . . . System-Eingabeaufforderung (Prompts) Tastatur . . . . . . . . . . . . . . . . . Schriftarten . . . . . . . . . . . . . . . Beispiel 1 . . . . . . . . . . . . . . . . Beispiel 2 . . . . . . . . . . . . . . . . Kommandosyntax . . . . . . . . . . . . . 1.4 Wichtige Hinweise und Warnungen . . . . . . . . . . . . . . 12 2 Volume Manager (RCVM) 2.1 Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2 Anforderungen zur Unterstützung von RCFS 2.3 2.3.1 2.3.2 2.3.3 2.3.4 2.3.4.1 2.3.4.2 2.3.4.3 2.3.4.4 2.3.4.5 2.3.4.6 2.3.4.7 2.3.4.8 2.3.4.9 2.3.4.10 2.3.5 2.3.6 2.3.7 Typen virtueller Platten . . . . . . . . . Einfache (simple) virtuelle Platten . . . . . Verkettete virtuelle Platten . . . . . . . . . Aufgeteilte virtuelle Platten (RAID0) . . . . Gespiegelte virtuelle Platten (RAID1) . . . Struktur von Spiegelplatten . . . . . . Funktionen von Spiegelplatten . . . . . Implementieren von Spiegelplatten . . Zustände von Spiegelplatten . . . . . . Catch-Up-Prozess . . . . . . . . . . . Dirty Region Log (DRL)-Prozess . . . Fehlerbehebung auf Spiegelplatten . . Arbeiten mit Spiegelplatten . . . . . . Meldungen des Spiegelplatten-Treibers Spiegeln von root-Platten . . . . . . . Virtuelle statesave- und statsv-Platten . . Virtuelle DRL-Platte . . . . . . . . . . . . Hinzufügen eines Knotens . . . . . . . . . U42128-J-Z100-4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 . 9 10 10 10 11 11 11 . . . . . . . . . . . . . . . . . . . 13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 15 16 18 20 20 21 22 23 27 30 30 31 32 33 35 37 38 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.ivz © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Inhalt 2.4 2.4.1 2.4.2 2.4.2.1 2.4.2.2 2.4.2.3 2.4.3 Konfigurieren virtueller Platten . . . . . . . . . . . . . . Grenzwerte und Rahmenbedingungen . . . . . . . . . . . Konfiguration . . . . . . . . . . . . . . . . . . . . . . . . Bearbeiten der Konfigurationsdatei /etc/dktab . . . . . Virtuelle Platten in einer OPS-Umgebung konfigurieren Mit dkconfig(1M) und dkmirror(1M) konfigurieren . . . . Beispielkonfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 2.5.1 2.5.2 . . . 54 . . . 54 2.5.3 2.5.4 Online-Rekonfiguration einer Spiegelplatte . . . . . . . Spiegelplatte mit einem definierten Piece konfigurieren . . Neues Spiegel-Piece zu einer konfigurierten Spiegelplatte hinzufügen . . . . . . . . . . . . . . . . . . . . . . . . . Piece von einer konfigurierten Spiegelplatte entfernen . . Root Mirror . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 2.6.1 2.6.2 Label-basierte Konsistenzprüfung . . . . . . . . . . . . . . . 59 Besonderheiten bei Installation und Aktualisierung . . . . . . . . 60 Besonderheiten beim Betrieb . . . . . . . . . . . . . . . . . . . 61 2.7 2.7.1 2.7.2 2.7.2.1 2.7.2.2 Besonderheiten bei gespiegelten root-Platten Beispiel einer gespiegelten root-Platte . . . . . . Deaktivierung der root-Spiegelung . . . . . . . . Deaktivierung . . . . . . . . . . . . . . . . . Aktivierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 63 70 70 73 2.8 2.8.1 2.8.2 2.8.3 2.8.4 Select vdisks . . . . . . . . . . Eigenschaften von select vdisks Hardware . . . . . . . . . . . . Konfiguration von select vdisks . Arbeiten mit select vdisks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 74 74 74 75 3 File Share (RCFS) . . . . . . . . . . . . . . . . . . . . . . . . 77 3.1 RCFS-Komponenten . . . . . . . . . . . . . . . . . . . . . . . 78 3.2 Unterschiede zwischen RCFS und NFS . . . . . . . . . . . . 79 3.3 RCFS-Gerätenamen und Major/Minor Device Numbers . . . . 80 3.4 Knotengruppen . . . . . . . . . . . . . . . . . . . . . . . . . 80 3.5 RCFS-Dateisysteme einhängen 3.6 Automatisches Failover des RCFS-Dateisystem-Servers . . . 83 3.7 RCFS-Dateisysteme aushängen . . . . . . . . . . . . . . . . 84 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 39 42 42 46 47 52 . . . 56 . . . 57 . . . 58 . . . . . . . . . . . . . . . . 81 U42128-J-Z100-4 Inhalt 3.8 Beispiel für RCFS-Eintrag in /etc/vfstab . . . . . . . . . . . 84 3.9 3.9.1 3.9.2 3.9.3 RCFS-Kommandos rcfs_fumount . . . . rcfs_list . . . . . . . rcfs_switch . . . . . 4 Manual-Pages . . . . . . . . . . . . . . . . . . . . . . . . . . 91 4.1 CCBR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 4.2 CF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 4.3 CFS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.4 CIP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.5 CPAT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.6 Monitoring-Agent . . . . . . . . . . . . . . . . . . . . . . . . 93 4.7 PAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.8 RCVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.9 PCS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.10 Ressourcendatenbank . . . . . . . . . . . . . . . . . . . . . 95 4.11 RMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.12 RMS Wizards . . . . . . . . . . . . . . . . . . . . . . . . . . 97 4.13 SCON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 4.14 SF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 4.15 SIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 4.16 Web-Based Admin View . . . . . . . . . . . . . . . . . . . . 98 U42128-J-Z100-4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 85 86 89 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.ivz © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Inhalt 5 Anhang – Systemparameter . . . . . . . . . . . . . . . . . 101 Abkürzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Fachwörter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 Bilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 Stichwörter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 U42128-J-Z100-4 1 Vorwort PRIMECLUSTER™ Data Management Tools bieten Virtual Disk- und Shared File System-Management in einem Knoten-Cluster. Dieses Handbuch beschreibt die Konfigurations- und Verwaltungsverfahren der Tools in dieser Suite. Das Handbuch richtet sich an Systemverwalter und Programmierer, die mit der Installation und Pflege vernetzter Dateisysteme vetraut sind. Es wird angenommen, dass der Leser mit Folgendem vertraut ist: ● Produktfamilie PRIMECLUSTER ● Betriebssystem Solaris™ OE 1.1 Inhalt des Handbuchs Dieses Handbuch ist wie folgt aufgebaut: ● Das Kapitel „Volume Manager (RCVM)“ beschreibt das RCVM-Konzept für Festplatten, die beiden wesentlichen Typen virtueller Platten und ihre Funktionsweise und enthält detaillierte Informationen zur Konfiguration aller Arten von virtuellen Platten. ● Das Kapitel „File Share (RCFS)“ erläutert das PRIMECLUSTER File Share, das die Nutzung eines Dateisystems durch alle oder mehrere Knoten eines Cluster ermöglicht. ● Das Kapitel „Manual-Pages“ enthält eine Liste der Manual-Pages zu CF, CIP, SF, Ressourcendatenbank, RMS, SIS und SCON. ● Das Kapitel „Anhang – Systemparameter“ erläutert das Einstellen von Systemparametern für RCFS. U42128-J-Z100-4 7 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 PRIMECLUSTER Dokumentation 1.2 Vorwort PRIMECLUSTER Dokumentation Die unten aufgeführten Dokumente enthalten detaillierte Informationen über PRIMECLUSTER-Produkte. Die Bücher können im Internetshop http://manualshop.ts.fujitsu.com bestellt werden. ● Freigabemitteilungen für alle Produkte—Diese Dokumentationsdateien werden als html-Dateien auf der PRIMECLUSTER-CD mitgeliefert. Hier finden Sie aktuelle Informationen zu Installation, Konfiguration und Betrieb von PRIMECLUSTER. Lesen Sie diese Informationen unbedingt zuerst. ● Konzept (Solaris, Linux)—Dieses Handbuch enthält Einzelheiten über das Konzepte der PRIMECLUSTER-Produktreihe. ● Installationshandbuch (Solaris)—Dieses Handbuch enthält die für die Installation und den Upgrade von PRIMECLUSTER-Produkten erforderlichen Informationen. ● Installationshandbuch (Linux)—Dieses Handbuch enthält die erforderlichen Informationen für die Installation und den Upgrade von PRIMECLUSTER unter Linux. ● Web-Based Admin View (Solaris, Linux) Operation Guide—Dieses Handbuch enthält Informationen zur Verwendung des Management-GUI für WebBased Admin View. ● Cluster Foundation (CF) (Solaris) Konfigurieren und Verwalten—Enthält Anweisungen zur Konfigurierung und Verwaltung der PRIMECLUSTER Cluster Foundation. ● Cluster Foundation (CF) - Konfigurieren und Verwalten (Linux)—Dieses Handbuch enthält Anweisungen zur Konfigurierung und Verwaltung der PRIMECLUSTER Cluster Foundation unter Linux. ● Reliant Monitor Services (RMS) mit Wizard Tools (Solaris, Linux) Konfigurieren und Verwalten—Dieses Handbuch enthält Anweisungen zur Konfigurierung und Verwaltung der PRIMECLUSTER Reliant Monitor Services mithilfe der Schnittstelle Wizard Tools. ● Reliant Monitor Services (RMS) mit PCS (Solaris, Linux) Konfigurieren und Verwalten—Dieses Handbuch enthält Anweisungen zur Konfigurierung und Verwaltung der PRIMECLUSTER Reliant Monitor Services mithilfe der Schnittstelle PCS (PRIMECLUSTER Configuration Services). 8 U42128-J-Z100-4 Vorwort Darstellungsmittel ● Reliant Monitor Services (RMS) (Solaris, Linux) Reference Guide—Dieses Handbuch beschreibt Diagnoseverfahren zur Lösung von RMS-Konfigurationsproblemen, einschließlich der Betrachtung und Interpretation von RMS-LogDateien. Es stellt eine Liste aller RMS-Fehlermeldungen mit möglicher Ursache und einem Handlungsvorschlag für jeden Fall bereit. ● Scalable Internet Services (SIS) (Solaris, Linux) Konfigurieren und Verwalten—Dieses Handbuch enthält Informationen zur Konfigurierung und Verwaltung von Scalable Internet Services (SIS). ● Global Disk Services (Solaris) Configuration and Administration Guide—Dieses Handbuch enthält Informationen zur Konfigurierung und Verwaltung von Global Disk Services (GDS). ● Global File Services (Solaris) Configuration and Administration Guide—Dieses Handbuch enthält Informationen zur Konfigurierung und Verwaltung von Global File Services (GFS). ● Global Link Services (Solaris, Linux) Configuration and Administration Guide: Redundant Line Control Function—Dieses Handbuch enthält Informationen zur Konfigurierung und Verwaltung der "Redundant Line Control"-Funktion für Global Link Services (GLS). ● Global Link Services (Solaris) Configuration and Administration Guide: Multipath Function—Dieses Handbuch enthält Informationen zur Konfigurierung und Verwaltung der Multipath-Funktion für Global Link Services (GLS). ● SNMP Referenzhandbuch (Solaris, Linux)—Dieses Handbuch enthält Referenzinformationen zum Produkt Simple Network Management Protocol (SNMP). 1.3 Darstellungsmittel Um die Handbuchinhalte in einem einheitlichen Format darzustellen, wurde dieses Handbuch nach bestimmten Vorgaben für Schreibweise, Schriftart und Kommandosyntax aufgebaut. 1.3.1 Schreibweise In diesem Handbuch wird die im Folgenden beschriebene Schreibweise verwendet. U42128-J-Z100-4 9 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Vorwort Darstellungsmittel 1.3.1.1 System-Eingabeaufforderung (Prompts) Vor Beispielen für Kommandozeilen, die nur vom Systemverwalter (bzw. Root) ausgeführt werden können, steht eine Systemverwalter-Eingabeaufforderung, das Nummernzeichen (#). Eingaben, für die keine Systemverwalter-Berechtigung benötigt wird, werden mit voranstehendem Dollarzeichen ($) gekennzeichnet. 1.3.1.2 Tastatur Wenn Tasten betätigt werden sollen, die keine druckbaren Zeichen erzeugen, werden diese als Tasten-Icons gezeigt, zum Beispiel [Enter] oder [F1]. [Enter] bedeutet beispielsweise, dass die mit Enter beschriftete Taste gedrückt werden soll. [Ctrl-b] bedeutet, dass zunächst die mit Ctrl oder Strg beschriftete Taste gedrückt gehalten und dann die Taste [B] gedrückt werden soll. 1.3.1.3 Schriftarten Bestimmte Elemente in diesem Handbuch werden durch unterschiedliche Schriftarten hervorgehoben. Schriftart Funktion Konstante Breite Rechnerausgaben und Programm-Listings; Kommandos, Dateinamen, Bezeichnungen von Manual-Pages und sonstige Zitate innerhalb des Fließtextes. Kursiv Variablen, die durch passende Werte zu ersetzen sind. Diese können in spitze Klammern eingeschlossen sein, um sie vom umgebenden Text abzuheben, z. B. <knotenname>RMS; Sofern nichts Gegenteiliges angegeben ist, sollten die spitzen Klammern nicht mit eingegeben werden. Name einer Position in einer zeichenbasierten oder graphischen Benutzeroberfläche. Hierbei kann es sich um einen Menüpunkt, ein Optionsfeld, eine Check-Box, ein Texteingabefeld, ein Feld oder einen Fenstertitel handeln. Fett Positionen in einer Kommandozeile, die exakt wie gezeigt eingegeben werden müssen. Die folgenden Beispiele verdeutlichen die Schriftartkonventionen. 10 U42128-J-Z100-4 Vorwort 1.3.1.4 Darstellungsmittel Beispiel 1 Nachstehende Zeilen zeigen verschiedene Einträge in einer Datei namens /etc/passwd: root:x:0:1:0000-Admin(0000):/: sysadm:x:0:0:System Admin.:/usr/admin:/usr/sbin/sysadm setup:x:0:0:System Setup:/usr/admin:/usr/sbin/setup daemon:x:1:1:0000-Admin(0000):/: 1.3.1.5 Beispiel 2 Wenn mit dem Kommando cat der Inhalt einer Datei gezeigt werden soll, ist folgende Kommandozeile einzugeben: $ cat datei 1.3.2 Kommandosyntax Die Konventionen für den Aufbau einer Kommandosyntax lauten: Symbol Name [] Eckige Klam- Umschließen ein optionales Element. mern {} Geschweifte Klammern Umschließen zwei oder mehr Elemente, von denen nur eins benötigt wird. Die einzelnen Elemente sind durch einen Längsstrich (|) voneinander getrennt. | Längsstrich In geschweiften Klammern trennt dieser Strich mehrere Elemente, von denen nur eins benötigt wird. Wenn sich der Strich nicht in geschweiften Klammern befindet, handelt es sich um ein PipeSymbol, das zeigt, dass die Ausgabedaten eines Programms als Eingabedaten für ein anderes Programm verwendet werden. () Runde Klammern Umschließen Elemente, die bei Wiederholung in Gruppen zusammengefasst werden müssen. ... Auslassungs- Kennzeichnet ein Element, das wiederholt werden punkte kann. Wenn eine Gruppe von Elementen wiederholt werden kann, wird die Gruppe in Klammern gesetzt. U42128-J-Z100-4 Bedeutung 11 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Vorwort Wichtige Hinweise und Warnungen 1.4 Wichtige Hinweise und Warnungen In diesem Handbuch sind Passagen, die unbedingt beachtet werden müssen, wie folgt gekennzeichnet: I Enthält zusätzliche Informationen zu dem erläuterten Thema. V Achtung Weist auf eine Gefahrensituation hin, die zur Beschädigung von Daten oder zum Datenverlust führen kann. 12 U42128-J-Z100-4 2 Volume Manager (RCVM) In diesem Abschnitt werden folgende Themen behandelt: ● Übersicht geht auf das RCVM-Konzept für Festplatten ein. ● Anforderungen zur Unterstützung von RCFS erläutert, wann RCFS verwendet werden soll. ● In Typen virtueller Platten sind die hauptsächlichen Arten von virtuellen Platten sowie ihre Funktion beschrieben. ● Konfigurieren virtueller Platten enthält detaillierte Informationen zur Konfiguration aller Arten von virtuellen Platten. ● In Label-basierte Konsistenzprüfung wird beschrieben, wie Vdisk die statesave-Konsistenzprüfung durchführt, um sicherzustellen, dass die Spezifikationen für die gespiegelte vdisk auf den verschiedenen Knoten übereinstimmen. ● Besonderheiten bei gespiegelten root-Platten beschreibt die Verwendung einer virtuellen Platte zum Spiegeln der root-Partition. ● Select vdisks erläutert die Eigenschaften von select vdisks, die Hardware, die Konfiguration von select vdisks sowie die Arbeit mit select vdisks. 2.1 Übersicht RCVM ist ein Konzept zur Verwaltung virtueller Platten, das für Benutzer und Anwendungen in vollem Umfang transparent ist. Daher müssen bereits vorhandene Anwendungen nicht angepasst werden, um virtuelle Platten nutzen zu können. RCVM bietet Benutzern mehr Eigenschaften als vergleichbare Verwaltungskonzepte und erreicht eine deutlich bessere Performance. Virtuelle Platten unterscheiden sich in der Funktion nicht von physischen Platten. Für virtuelle Platten wird ein Pseudo-Gerätetreiber zwischen den höchsten Level des logischen Eingabe-/Ausgabe (I/O)-Systems und den physischen Gerätetreiber eingefügt. Dieser Pseudo-Gerätetreiber ordnet dann alle logischen I/O-Anfragen physischen Platten zu. U42128-J-Z100-4 13 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Anforderungen zur Unterstützung von RCFS Volume Manager (RCVM) Üblicherweise beträgt die mittlere Zeit zwischen Störungen (MTBF, Mean Time Between Failure) bei Laufwerken 200.000 Stunden (etwa 20 Jahre). D. h., dass bei einem System mit 100 Laufwerken statistisch gesehen alle zwei Monate ein Laufwerk ausfällt, in einem System mit 1.000 Laufwerken alle acht Tage. Selbst wenn man annimmt, dass Laufwerke bereits heute zuverlässiger sind und immer besser werden, ist diese Situation bei weitem nicht akzeptabel. Um dieses Problem in den Griff zu bekommen, wurden verschiedene RAIDTechniken (Redundant Array of Independent Disks, redundante Gruppe unabhängiger Platten) entwickelt. Insbesondere bei den virtuellen Platten des Typs stripe (aufgeteilt) und mirror (gespiegelt) (RAID0 bzw. RAID1) sind die RAIDKonzepte im Datenträgerverwaltungsmodul implementiert. RAID bezieht sich auf Platten-Subsysteme, die die Zuverlässigkeit, Verfügbarkeit und Performance von Massenspeichersystemen deutlich erhöhen. 2.2 Anforderungen zur Unterstützung von RCFS Wenn mit RCFS gearbeitet werden soll, sind die im Abschnitt 3.3 der RCFSDokumentation dargelegten Anforderungen zu beachten, bevor mit der Installation des RCVM begonnen werden kann. 2.3 Typen virtueller Platten Dieser Abschnitt beschreibt die hauptsächlichen Typen virtueller Platten und ihre Funktion. Unterschiedliche Typen virtueller Platten stehen für eine Vielzahl von Anwendungen zur Verfügung. Die wichtigsten Arten von virtuellen Platten werden in den folgenden Abschnitten beschrieben: ● Einfache virtuelle Platten – Definieren entweder einen Bereich innerhalb einer Partition einer physischen Platte oder eine vollständige Partition. ● Gespiegelte virtuelle Platten – Erhöhen die Sicherheit und Verfügbarkeit von Plattensystemen durch gleichzeitige Ausführung von Schreibvorgängen auf zwei oder mehr physischen Geräten. Virtuelle Platten sind ein Konzept zur Verwaltung von Datenträgern. Dieses Konzept sorgt für eine wesentlich komfortablere und flexiblere Handhabung von Speichermedien. Virtuelle Platten bieten Endbenutzern und Programmen voll- 14 U42128-J-Z100-4 Volume Manager (RCVM) Typen virtueller Platten ständige Transparenz. Nach ihrer Installation stellen sie alle I/O-Schnittstellen physischer Platten bereit. Zwischen dem höchsten Level des logischen Eingabe-/Ausgabe (I/O)-Systems und den Treibern der physischen Geräte werden Pseudo-Gerätetreiber eingefügt. Diese Pseudo-Gerätetreiber ordnen alle I/OAnfragen den zugrundeliegenden physischen Platten zu. Virtuelle Platten bestehen aus einer oder mehreren der folgenden Komponenten: ● Physische Platte ● einem Teil einer physischen Platte ● einer weiteren virtuellen Platte 2.3.1 Einfache (simple) virtuelle Platten Einfache virtuelle Platten definieren entweder einen Bereich innerhalb einer Partition einer physischen Platte oder eine vollständige Partition. Eine Partition kann weiter durch Festlegung der relativen Position und der Größe einer virtuellen Platte dieses Typs unterteilt werden. Falls keine Angaben für relative Position und Größe gemacht wurden, wird die gesamte Partition als virtuelle Platte definiert. Durch einfache virtuelle Platten kann eine physische Platte zum Beispiel in mehr Bereiche (Pieces) unterteilt werden, als dies üblicherweise durch Partitionierung möglich ist. Physische Partition (c4t3d5s3) Virtuelle Platte (vdisk2) Virtuelle Platte (vdisk3) Virtuelle Platte (vdisk4) Bild 1: Unterteilung einer physischen Partition in einfache virtuelle Platten U42128-J-Z100-4 15 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Typen virtueller Platten Volume Manager (RCVM) Da bei der Erstellung von virtuellen Platten die Partitionstabelle auf SystemLevel nicht geändert werden muss, ist es sinnvoll, physische Platten in einfache virtuelle Platten zu unterteilen. In dem Beispiel in Bild 1, wird nur Bezug genommen auf die Partition s0 im Systemkern. Benutzer und Anwendungsprogramme können jedoch auf drei verschiedene virtuelle Platten (vdisk2, vdisk3 und vdisk4) zugreifen. Eine weitere gängige Nutzung einfacher virtueller Platten ist, eine virtuelle Platte, die aus mehreren physischen Platten zusammengesetzt ist (d. h., eine verkettete virtuelle Platte), in kleinere Teilen zu gliedern, die von einer Anwendung optimaler genutzt werden können. Näheres zur Konfiguration einer einfachen virtuellen Platte enthält der Abschnitt „Konfigurieren virtueller Platten“. 2.3.2 Verkettete virtuelle Platten Verkettete (concatenated) virtuelle Platten bestehen aus zwei oder mehr Pieces auf einem oder mehreren Plattenlaufwerken. Ihre Kapazität entspricht der Summe ihrer Einzelbestandteile. Anders als bei einfachen virtuellen Platten, bei denen die Platte in kleine Pieces unterteilt ist, werden hier die einzelnen Platten oder Partitionen zusammengefasst und bilden eine einzelne große logische Platte wie in Bild 2 gezeigt. 16 U42128-J-Z100-4 Volume Manager (RCVM) Physische Partition (c2t2d0s1) Typen virtueller Platten Verkettete virtuelle Platte (vdisk 30) Physische Partition (c2t3d1s3) Pieces einer physischen Partition, spezifiziert durch relative Position und Länge (c2t2d0s4) Virtuelle Platte (vdisk20) Virtuelle Platte (vdisk21) Bild 2: Muster für die Zusammensetzung einer verketteten virtuellen Platte Eine verkettete virtuelle Platte kann aus Partitionen einer physischen Platte, Teilen einer Partition oder weiteren virtuellen Platten bestehen. Entsprechend kann diese Platte äußerst flexibel strukturiert werden. Alle I/O-vorgänge auf einer virtuellen Platte entsprechen exakt den I/O-Vorgängen auf einer physischen Platte, deren Kapazität der Summe der Teile der virtuellen Platte entspricht. Die Pieces einer verketteten Platte können nach Bedarf angeordnet werden. Durch die Festlegung von relativer Position und Größe bei der Definition der virtuellen Platte können physische Platten oder Positionen weiter unterteilt werden. U42128-J-Z100-4 17 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Volume Manager (RCVM) Typen virtueller Platten 2.3.3 Aufgeteilte virtuelle Platten (RAID0) Aufgeteilte (striped) virtuelle Platten bieten unter bestimmten Voraussetzungen eine weitaus höhere Datendurchsatzrate für I/O-Vorgänge als normale Platten. Falls zum Beispiel Anwendungsprogramme eine große Zahl von I/O-Vorgängen auf einer virtuellen Platte ausführen, können diese Vorgänge über verschiedene Plattenlaufwerke und/oder Controller verteilt werden. Physische Platte (c3t2d1s0) Physische Platte (c3t2d2s0) Physische Platte (c3t2d3s0) Physische Platte (c3t2d4s0) 1 2 3 4 Stripe 1 5 6 7 8 Stripe 2 9 10 11 12 Stripe 3 13 14 15 16 Stripe 4 17 18 19 20 Stripe 5 22 Piece 2 23 Piece 3 24 Piece 4 21 Piece 1 Aufgeteilte (striped) virtuelle Platte mit 4 Pieces (vdisk3) Stripe 6 Cluster Bild 3: Struktur einer aufgeteilten (striped) virtuellen Platte Aufgeteilte virtuelle Platten (auch striped vdisk) bestehen aus zwei oder mehreren Einzelbestandteilen (Pieces). Dabei kann es sich um physische Partitionen oder weitere virtuelle Platten (üblicherweise eine Spiegelplatte) handeln. Relative Position und Größe können für jedes Piece der striped vdisk festgelegt werden. Aus Gründen der Performance sollten alle Bestandteile möglichst auf unterschiedlichen physischen Platten oder sogar unterschiedlichen SCSIKanälen liegen. Bei aufgeteilten virtuellen Platten werden die Blocknummern der virtuellen Platte in diejenigen der physischen Platten konvertiert. Daher können sequenzielle I/O-Vorgänge auf der virtuellen Platte in I/O-Vorgängen auf zwei oder mehr physischen Platten umgesetzt werden. Dies entspricht RAID-Level 0 (RAID0). Jedes der Pieces (in Bild 3, jede physische Platte) einer striped vdisk ist in Cluster unterteilt. Ein Cluster ist der größte Teil eines Piece, dessen Blöcke sequenziell indiziert sind. Cluster werden auf einem Piece hintereinander angeordnet. In Bild 3 ist beispielsweise jede physische Platte in sechs Cluster gegliedert. 18 U42128-J-Z100-4 Volume Manager (RCVM) Typen virtueller Platten Der Konvertierungsalgorithmus verarbeitet die Cluster der Reihe nach: Er beginnt mit dem Zugriff auf den ersten Clusters des ersten Piece (d. h. in , Cluster 1 der physischen Platte c3t2d1s0 in Bild 3), anschließend auf den ersten Cluster des zweiten Piece (Cluster 2 der Platte c3t2d2s0 in Bild 3) usw., bis der erste Cluster aller physischen Platten zugewiesen ist. Daraufhin erfolgt der Zugriff auf den zweiten Cluster für jedes Piece der virtuellen Platte (d. h., auf alle Cluster in stripe 2, hier also 5, 6, 7 und 8). Alle Pieces müssen dieselbe Größe haben und ein Mehrfaches der ClusterGröße sein. Wenn Sie eine maximale Datendurchsatzrate erzielen wollen, müssen Sie einige Punkte berücksichtigen: ● Die wichtigste Größe bei einer aufgeteilten virtuellen Platte ist die ClusterGröße. Sie muss so gewählt werden, dass sie den Anwendungen entspricht, die auf diese virtuelle Platte hauptsächlich zugreifen. ● Wenn Sie die Cluster-Größe zu groß wählen, so dass der größte Teil aller I/O-Vorgänge immer denselben Cluster nutzt, wird der eigentliche Vorteil eine striped vdisk zunichte gemacht. ● Sie müssen vermeiden, den Cluster zu klein zu definieren, um nicht die Verwaltungslast des Treibers der virtuellen Platte unnötig zu erhöhen. ● Um eine aufgeteilte virtuelle Platte optimal zu nutzen, sollten Sie mehrere Aufträge gleichzeitig ausführen. Sie können die I/O-Aufträge auf mehrere physische Platten verteilen, indem Sie eine entsprechende Cluster-Größe wählen. In diesem Fall sollte die Cluster-Größe mindestens der Größe des größten Blocks in der Anwendung, die auf die betreffende Platte zugreift, entsprechen. Wenn beispielsweise eine Anwendung Blöcke von bis zu 16 KB nutzt, müssen Sie die Cluster-Größe der aufgeteilten virtuellen Platte auf n x 16 KB einstellen, wobei n für eine ganze Zahl steht. Sie sollten eine Größe von 16 KB bis zu 1 MB wählen. Außerdem müssen Sie bereits zu einem frühen Zeitpunkt im Rahmen entsprechender Tests sicherstellen, dass Ihr System optimal partitioniert ist. U42128-J-Z100-4 19 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Typen virtueller Platten 2.3.4 Volume Manager (RCVM) Gespiegelte virtuelle Platten (RAID1) Bei gespiegelten virtuellen Platten werden alle Ausgabevorgänge gleichzeitig auf zwei oder mehr physischen Geräten ausgeführt. Zusätzlich zur Steigerung der Plattenperformance erhöhen Spiegelplatten deutlich die Sicherheit und Verfügbarkeit von Systemen. Die Ursprungsdaten werden in einer oder mehreren identischen Kopien gespeichert. Es ist unmöglich, die Originale von den Kopien zu unterscheiden. Bei Spiegelplatten sprechen wir daher nur von Bestandteilen (Pieces) einer Spiegelplatte und nicht von Masterl, Quelle oder Kopie. Falls ein Teil der Spiegelplatte ausfällt, kann das System weiterhin zuverlässig und ohne Unterbrechung arbeiten, da die Daten und ihre Kopien auf unterschiedlichen Platten gespeichert sind. Falls die Originale und Kopien auf Platten unterschiedlicher Controller gespeichert sind, können Benutzer ihre Arbeit sogar fortsetzen, wenn einer dieser Controller ausfällt. Im Falle gespiegelter virtueller Platten wird RAID-Level 1 im Betriebssystem implementiert. Wie die anderen Typen virtueller Platten bieten die Spiegelplatten dem Benutzer und allen Anwendungen vollständige Transparenz. 2.3.4.1 Struktur von Spiegelplatten Eine gespiegelte Platte, wie sie in Bild 4 gezeigt wird, kann aus zwei oder mehr Pieces bestehen, umfasst in der Praxis aber gewöhnlich maximal drei Pieces, die aus mehreren physischen Partitionen bestehen. Alle diese Pieces einer gespiegelten Platte müssen dieselbe Größe haben. Anders als bei verketteten und bei aufgeteilten (striped) virtuellen Platten, bei denen die Kapazität der virtuellen Platte der Summe der einzelnen Pieces entspricht, ist die Größe der gesamten Spiegelplatte gleich der Größe eines ihrer Pieces. 20 U42128-J-Z100-4 Volume Manager (RCVM) Typen virtueller Platten vdisk10 c4t1d1s0 c4t1d2s0 Spiegelplatte mit zwei Pieces vdisk11 c4t2d3s1 c4t2d2s1 c4t2d4s1 Spiegelplatte mit drei Pieces Bild 4: Struktur von Spiegelplatten 2.3.4.2 Funktionen von Spiegelplatten Die Berechtigung zum Schreiben auf eine Spiegelplatte beinhaltet gleichzeitig die Berechtigung zum Schreiben auf jedes der Pieces, aus denen die Platte zusammengesetzt ist. Hierdurch ist sichergestellt, dass alle Pieces identische Daten enthalten. Da der Benutzer auf alle Pieces schreiben darf, verlangsamen sich die Schreibvorgänge gegenüber physischen Platten geringfügig. Dies ist jedoch zu vernachlässigen, wenn sich die Pieces auf verschiedenen Platten unterschiedlicher Controller befinden, da die Schreibvorgänge parallel zueinander ausgeführt werden. Umgekehrt besteht bei Berechtigung zum Lesen einer Spiegelplatte Lesezugriff lediglich auf eines der Pieces. Da die Daten aller Pieces identisch sind, kann der Lesevorgang auf ein beliebiges dieser Pieces erfolgen. In der Praxis wird daher dasjenige Piece gewählt, das den schnellsten Lesezugriff bieten kann. Dies wird anhand der Anzahl der anstehenden I/O-Vorgänge für die zugrundeliegenden physischen Platten ermittelt. Die Platte mit der geringsten Zahl an Vorgängen in der Warteschlange wird dem Lesevorgang zugewiesen Sind alle Warteschlangen gleich lang, alterniert der Lesezugriff. U42128-J-Z100-4 21 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Volume Manager (RCVM) Typen virtueller Platten I Eine Ausnahme hiervon ist der sequenzielle Lesezugriff. Da in diesem Fall der Read Cache der Platte gegebenenfalls nicht ausreicht, wird nur eines der Pieces der Spiegelplatte gelesen. 2.3.4.3 Implementieren von Spiegelplatten Um komplexere Strukturen wie etwa gespiegelte, aufgeteilte virtuelle Platten zu erstellen, sollten Sie bei eventuellen Fehlern der Prozedur besondere Aufmerksamkeit widmen. So können Sie beispielsweise bei der Konfiguration sicherstellen, dass ein Fehler in einem der Pieces einer Spiegelplatte sich nur minimal auf die Sicherheit der gesamten Spiegelplatte auswirkt. Aufgeteilte (striped) virtuelle Platte (/dev/vd/vdisk2) Stripe 0 Gespiegelte Platte (/dev/vd/vdisk0) 470 MB Piece A 470 MB Piece B Pieces der physischen Platte Festplattenteil Stripe 1 Gespiegelte Platte (/dev/vd/vdisk1) 470 MB Piece C 470 MB Piece D Fehlerhaftes Piece Festplattenteil Bild 5: Korrekter Aufbau einer Spiegelplatte Bild 5 stellt die korrekte Weise der Konfiguration einer aufgeteilten (striped) Spiegelplatte dar. Zunächst wurden zwei Spiegelplatten konfiguriert und zu einer aufgeteilten virtuellen Platte zusammengefasst. Auf diese Weise werden RAID-Level 0 und RAID-Level 1 implementiert. 22 U42128-J-Z100-4 Volume Manager (RCVM) Typen virtueller Platten Durch diese Anordnung ergeben sich keinerlei Auswirkungen auf die Kapazität oder die Geschwindigkeit der virtuellen Platte. Sicherheit und Verfügbarkeit der Platte werden jedoch beträchtlich erhöht. Fällt eines der Pieces der Platte (hier Piece C) aus, wird lediglich die Spiegelplatte vdisk1 in den Status NOT-MIRRORED gesetzt. Die aufgeteilte virtuelle Platte bleibt weiterhin voll funktionsfähig. Selbst wenn in der Folge in Piece A oder B ein Fehler auftritt, ist dies für den Benutzerprozess nicht erkennbar. Erst wenn beide Pieces einer Spiegelplatte ausfallen, kann nicht mehr auf das betreffende Piece der aufgeteilten virtuellen Platte zugegriffen werden. Außerdem kann in der in Bild 5 dargestellten Konfiguration die Spiegelplatte schnell und problemlos wiederhergestellt werden. Sobald der Fehler behoben ist, muss ein Catch-Up-Prozess ausgeführt werden. In unserem Beispiel müssen lediglich 470 MB kopiert werden, da der Catch-Up-Prozess nur auf der Spiegelplatte vdisk1 läuft. 2.3.4.4 Zustände von Spiegelplatten Im Normfall enthalten alle Pieces einer Spiegelplatte exakt dieselben Daten. Fällt aus irgendeinem Grund eines dieser Pieces aus, können Sie davon ausgehen, dass es defekt ist. Da dieses Piece nun keine gültige Kopie der Spiegelplattendaten mehr enthält, kann es auch nicht mehr verwendet werden. Fällt ein Piece aus, wird der Zugang auf die Daten der übrigen, fehlerfreien Pieces der Spiegelplatte beschränkt. Solange noch ein fehlerfreies Piece vorhanden ist, bleibt die Spiegelplatte voll funktionsfähig. Um sicherzustellen, das die Datenintegrität eines Piece jederzeit überprüft werden kann, wird jedem Piece einer Spiegelplatte ein Status zugewiesen. Hierdurch unterscheidet sich die gespiegelte Platte von allen anderen Typen virtueller oder physischer Platten. Für die Pieces einer Spiegelplatte sind folgende vier Zustände definiert: online, disabled, enabled oder Master: ● online – Dies ist der normale Status eines Piece auf einer Spiegelplatte. Ein Piece enthält eine vollständige und gültige Kopie der Daten der Spiegelplatte und kann sowohl für Lese- als auch für Schreibvorgänge genutzt werden. Der Status online ist so lange gültig, bis I/O-Fehler in diesem Piece auftreten oder bis der Systemverwalter über ein entsprechendes Kommando einen anderen Status einstellt. Jeder Schreibvorgang auf der Spiegelplatte wird auf allen online befindlichen Pieces ausgeführt. Lesevorgänge werden jedoch nur auf einem Teil der Festplatte vorgenommen, der den Status online hat. U42128-J-Z100-4 23 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Typen virtueller Platten Volume Manager (RCVM) ● disabled – Tritt auf einem Piece im Status online ein nicht behebbarer I/O-Fehler auf, wird dieses automatisch in den Zustand disabled geschaltet. Danach werden keine weiteren I/O-Vorgänge auf diesem Piece mehr ausgeführt, da die Integrität der Daten hier nicht mehr gewährleistet werden kann. Das Piece verbleibt so lange im Status disabled, bis der Systemverwalter diesen Status manuell aufhebt. Normalerweise ist dies der Fall, wenn die Ursache für den Fehler erkannt und behoben ist. Bei der Erstkonfiguration erhalten alle Pieces der Spiegelplatte standardmäßig den Status disabled, da sie unmittelbar nach der Konfiguration noch keine gültigen Kopien der Daten enthalten. ● enabled – Wenn ein Piece einer Spiegelplatte, das sich im Status disabled befindet, wieder aktiviert werden soll, wird ihm der Status enabled zugewiesen. Ein solches Piece mit dem Status enabled ist für den Benutzer auswählbar, befindet sich jedoch nicht im Status online, solange nicht eine neue Kopie der Daten von der Spiegelplatte darauf erstellt wird. Das Kopieren erfolgt automatisch durch Aktivieren eines Systemprozesses, der die Daten von online-Piecees ausliest und auf die aktivierten Pieces kopiert. Dies ist auch dann möglich, wenn der Benutzer auf der Spiegelplatte gleichzeitig einen I/O-Vorgang ausführt. Sobald die Kopie erstellt ist, wird das aktivierte Piece wieder online gesetzt, da es nun garantiert eine identische Kopie der Spiegelplattendaten enthält. Alle Schreibvorgänge auf der Spiegelplatte werden auf allen Pieces mit Status online bzw. enabled ausgeführt. Gelesen werden können jedoch ausschließlich Pieces im Status online. ● Master – Wenn eine Spiegelplatte aufgrund eines Fehlers oder vom Systemverwalter in den Status DOWN gesetzt wurde, kann mit Hilfe der Option m des Kommandos dkmirror(1M) dasjenige Piece der Platte definiert werden, das bei der nächsten Konfiguration dieser Spiegelplatte als MasterPiece verwendet werden soll. Dieses Piece wird dann in den Status online gesetzt und fungiert als Datenquelle für den Catch-Up-Prozess. Ansonsten entspricht dieser Status dem Status online. In ähnlicher Weise ist auch für die virtuelle Spiegelplatte als Ganzes ein Status definiert. Je nach dem Status der einzelnen Pieces kann sich eine Spiegelplatte in einem der nachstehenden drei Zustände befinden: ● 24 MIRRORED – Eine Spiegelplatte wird als MIRRORED gekennzeichnet, wenn mindestens zwei ihrer Pieces online sind. In diesem Fall wirken sich Fehler in den einzelnen Pieces der Spiegelplatte für den Benutzer nicht aus. U42128-J-Z100-4 Volume Manager (RCVM) Typen virtueller Platten ● NOT-MIRRORED – Eine Spiegelplatte wird als NOT-MIRRORED gekennzeichnet, wenn nur eines ihrer Pieces online ist. Zwar kann die Platte weiterhin genutzt werden, die Daten sind aber nicht mehr redundant abgesichert. ● DOWN – Eine Spiegelplatte wird als DOWN gekennzeichnet, wenn keines ihrer Pieces online ist. Auf einer Spiegelplatte im Status DOWN können keine weiteren I/O-Vorgänge mehr ausgeführt werden. Die Statusänderung kann automatisch oder manuell erfolgen. Der Treiber der Spiegelplatte kann den Status eines Piece automatisch ändern, wenn in diesem Piece ein I/O-Fehler auftritt (von online zu disabled) oder wenn Daten vollständig kopiert wurden (von enabled zu online). Der Status eines Piece kann manuell vom Systemverwalter mit Hilfe des Kommandos dkmirror(1M) geändert werden. Mit Hilfe dieses Kommandos kann auch der aktuelle Status einer Spiegelplatte bzw. der einzelnen Pieces darauf abgefragt werden. Der Status jeder Spiegelplatte (MIRRORED, NOT-MIRRORED oder DOWN) sowie aller ihrer Pieces (enabled, disabled, online oder Master) wird auf einer virtuellen Platte des Typs statesave oder statsv gespeichert (siehe Abschnitt „Virtuelle statesave- und statsv-Platten“). Diese wird als StatesaveGerät bezeichnet. Ein Statesave-Gerät befindet sich immer auf mindestens einer physischen Platte, so dass die Statusinformationen permanent gespeichert sind. Daher wird das System beim Start immer mit demselben Status wieder aktiviert, in dem es sich beim Herunterfahren befand. Die auf dem Statesave-Gerät gespeicherten Informationen werden geändert, wenn der Status einer Spiegelplatte oder eines Piece wechselt (Zugriffsfehler, Ende des Catch-Up-Prozesses (siehe Abschnitt „Catch-Up-Prozess“) oder manuelle Änderung mit dkmirror(1M)). U42128-J-Z100-4 25 vdisk11 (MIRRORED) © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm Volume Manager (RCVM) Typen virtueller Platten Piece 0 Piece 1 Piece 2 c2t2d0s1 (online) c2t2d1s1 (online) c2t2d2s1 (online) Fehler in Piece 1 vdisk11 (MIRRORED) Piece 0 Piece 1 Piece 2 c2t2d0s1 (online) c2t2d1s1 (disabled) c2t2d2s1 (online) Fehler in Piece 0 vdisk11 (NOT-MIRRORED) Piece 0 Piece 1 Piece 2 c2t2d0s1 (disabled) c2t2d1s1 (disabled) c2t2d2s1 (online) Fehler in Piece 2 c2t2d1s1 (disabled) vdisk11 (DOWN) Piece 0 Piece 1 Piece 2 c2t2d0s1 (disabled) c2t2d1s1 (disabled) c2t2d2s1 (disabled) Bild 6: Verhalten einer Spiegelplatte bei Fehlern in einzelnen Pieces 26 U42128-J-Z100-4 Volume Manager (RCVM) 2.3.4.5 Typen virtueller Platten Catch-Up-Prozess Eine der wichtigsten Eigenschaften eines Spiegelplattentreibers ist die Fähigkeit, die einzelnen Pieces einer Spiegelplatte zu synchronisieren. Dies ist entweder beim Start (d. h. unmittelbar nach Konfiguration der Spiegelplatte) oder nach dem Wechsel eines Piece in den Status enabled erforderlich. Im Rahmen des Synchronisationsprozesses werden die Daten von online-Pieces auf Pieces im Status enabled kopiert. Sobald der Kopiervorgang beendet ist, werden die bisher im Status enabled befindlichen Pieces online geschaltet. Diesen Kopiervorgang bezeichnet man als Catch-Up-Prozess. Im Rahmen eines Catch-Up-Prozesses müssen gegebenenfalls sämtliche auf einem gespiegelten Piece enthaltene Daten kopiert werden. Wenn ein DRL zur Verfügung steht, genügt gegebenenfalls das Kopieren der Daten, die zwischen den Pieces nicht synchron sind. Während des Catch-Up- oder DRL-Prozesses können andere Prozesse auf die Spiegelplatte zugreifen. Lesevorgänge werden auf einem einzelnen online-Piece ausgeführt, Schreibvorgänge dagegen auf allen Pieces im Status online und im Status enabled. Das bedeutet, dass im Anschluss an den Catch-Up- oder DRL-Prozess alle Pieces identische Daten enthalten. Zu beachten ist jedoch, dass die Plattenperformance eingeschränkt sein kann, solange der Catch-Up- bzw. DRL-Prozess noch läuft. Sobald mindestens ein online-Piece (als Datenquelle für den Kopiervorgang) und mindestens ein enabled-Piece (als Ziel des Kopiervorgangs) vorhanden ist, wird automatisch ein Catch-Up-Prozess gestartet. Veranlasst wird dieser Prozess von dem Treiber der Spiegelplatte. Ist der Prozess beendet, wird der Status des Ziels von enabled in online geändert. U42128-J-Z100-4 27 vdisk11 (DOWN) © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm Volume Manager (RCVM) Typen virtueller Platten Piece 0 Piece 1 Piece 2 c2t2d0s1 (disabled) c2t2d1s1 (disabled) c2t2d2s1 (disabled) Manuelle Einstellung des Piece-Status Piece 0 ist online Piece 1 ist enabled (dkmirror -o0 -e1 /dev/vd/vdisk11) vdisk11 (NOT-MIRRORED, Catch-Up-Prozess läuft) Piece 0 Piece 1 Piece 2 c2t2d0s1 (online) c2t2d1s1 (enabled) c2t2d2s1 (disabled) Automatischer Catch-Up-Prozess (Lesen von Piece 0, Schreiben auf Piece 1) vdisk11 (MIRRORED) Piece 0 Piece 1 Piece 2 c2t2d0s1 (online) c2t2d1s1 (online) c2t2d2s1 (disabled) Bild 7: Verhalten einer Spiegelplatte bei Initialisierung des Piece-Status Nur eines der Pieces jeder Spiegelplatte kann manuell in den Status online versetzt werden. Die übrigen Pieces erreichen den online-Status über einen Catch-Up-Prozess. Würden zwei Pieces manuell online gesetzt, bestünde die Gefahr, dass in den verschiedenen Pieces der Spiegelplatte unbeabsichtigt unterschiedliche Daten konfiguriert werden. 28 U42128-J-Z100-4 Volume Manager (RCVM) Typen virtueller Platten Alle I/O-Vorgänge im Rahmen des Catch-Up-Prozesses werden ohne Pufferung ausgeführt. Der Prozess verläuft asynchron zu Benutzerein- und -ausgaben und ist völlig unabhängig von anderen auf dieser oder einer anderen Spiegelplatte ausgeführten I/O-Vorgängen. Der Catch-Up-Prozess kommuniziert mit einem speziellen System-Thread, dem Dämon-Thread mr_daemon thread. Der Catch-Up-Prozess ist erfolgreich beendet, wenn alle Pieces mit dem Status enabled entweder online sind oder (aufgrund eines fehlgeschlagenen Schreibvorgangs) den Status disabled haben. Er kann nicht erfolgreich ausgeführt werden, wenn er die Daten eines online-Piece nicht lesen oder ein enabled-Piece nicht ändern kann, denn dies bedeutet, dass für Lesevorgänge keine weiteren Pieces im Zustand online bzw. für Schreibvorgänge keine weiteren enabled-Pieces vorhanden sind. Im Rahmen des Catch-Up-Prozesses werden sämtliche Schreibvorgänge auf allen Pieces mit dem Status enabled ausgeführt. Wenn ein Schreibvorgang nicht ausgeführt werden kann, wird das betreffende Piece aus dem Status enabled in den Status disabled versetzt. Lesevorgänge werden vom CatchUp-Prozess nur auf einem einzigen online-Piece ausgeführt. Wenn die Ausführung eines Lesevorgangs nicht möglich ist, wird dieses Piece von online auf disabled gesetzt. Anschließend wird der Lesevorgang auf einem anderen Piece mit Statusonline erneut versucht. Sind keine weiteren online-Pieces mehr vorhanden, wird der Catch-Up-Prozess beendet. Tritt während einer Benutzerein- oder -ausgabe in einem Piece im Status online ein Fehler auf, wird dieses Piece in der Regel auf disabled gesetzt. Auf I/O-Fehler, die im Rahmen des Catch-Up-Prozesses auftreten, trifft dies jedoch nicht zu. Vielmehr verbleibt die Spiegelplatte, anstatt nach einem fehlgeschlagenen Lesevorgang im Catch-Up-Prozess den Status DOWN anzunehmen, im Zustand NOT-MIRRORED und wird der Catch-Up-Prozess abgebrochen. Das onlinePiece wird auf disabled gesetzt. Um dieses Piece der Spiegelplatte wieder in den Status online zu setzen, muss das Kommando dkmirror -o eingegeben werden. U42128-J-Z100-4 29 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Typen virtueller Platten 2.3.4.6 Volume Manager (RCVM) Dirty Region Log (DRL)-Prozess Der DRL-Prozess unterstützt das schnelle Resilvering von gespiegelten vdisks nach Ausfall eines Knotens oder Cluster. Dabei wird nur ein geringer Prozentsatz der Daten von der vdisk kopiert, um den Status der gespiegelten vdisk wiederherzustellen. Diese Informationen werden auf einem gemeinsam genutzten Gerät gespeichert, das für alle Cluster-Knoten zugänglich ist (siehe Abschnitt „Virtuelle DRL-Platte“). Hier sind einige Punkte zu beachten: ● Die DRL-Verarbeitung erfolgt nur, wenn das Statesave-Gerät und die DRLInformation nach dem Ausfall noch intakt sind, andernfalls wird ein vollständiger Catch-Up-Prozess ausgeführt. ● Im Rahmen der DRL-Verarbeitung werden lediglich online befindliche Pieces wiederhergestellt. Für die Wiederherstellung von aktivierten (enabled) Pieces ist ein vollständiger Catch-Up-Prozess erforderlich. ● Dieser Prozess deckt die Synchronisation deaktivierter Pieces auf einer vdisk nicht ab, wenn diese später aktiviert werden. Hierfür ist ein vollständiges Catch-Up erforderlich. Die DRL-Verarbeitung wird bei Ausfall eines Knotens in einem Cluster von den verbleibenden Knoten des betreffenden Cluster automatisch gestartet. Jeder dieser verbleibenden Knoten versucht, die online-Pieces der OPS-Spiegelplatten mit den Informationen aus dem gemeinsam genutzten Dirty Region Log zu synchronisieren. Sollte die DRL-fähige Spiegelplatte für den ausgefallenen Knoten auf keinem anderen Knoten des Cluster definiert sein, wird der DRLProzess ausgeführt, sobald der ausgefallene Knoten wieder betriebsbereit ist. Fällt ein Cluster, der nur aus einem einzigen Knoten besteht, oder ein kompletter Cluster aus, wird DRL nach dem Neustart der Systeme auf den Spiegelplatten ausgeführt. 2.3.4.7 Fehlerbehebung auf Spiegelplatten Tritt bei einem Piece einer Spiegelplatte ein Fehler auf, wird dieses Piece automatisch in den Status disabled gesetzt. Entsprechend werden darauf keine weiteren I/O-Vorgänge ausgeführt, bis der Systemverwalter dieses Piece wieder aktiviert (enabled). Diese einfache Regel gilt ohne jede Einschränkung, denn sie garantiert die Konsistenz sämtlicher auf allen online-Pieces gespeicherten Daten. Dabei erfolgt keine Unterscheidung zwischen kritischen Fehlern auf dem Plattenlaufwerk und einem einfachen, nicht behebbaren ECC (Error Correction Code, Fehlerkorrekturcode)-Fehler in einem einzelnen Sektor. 30 U42128-J-Z100-4 Volume Manager (RCVM) Typen virtueller Platten In der Praxis können die meisten Pieces, die in den Status disabled gesetzt wurden, nach Beseitigung des Fehlers wieder in den Status enabled wechseln.Fehler des Typs Header mismatch auf der Platte können durch Zuweisung anderer Sektoren behoben werden. Die meisten ECC-Fehler lassen sich beseitigen, indem der betroffene Sektor neu geschrieben wird. Häufig können defekte Plattenlaufwerke erfolgreich zurückgesetzt werden. Fehler in der Controller-Hardware, die Justage des Lese-/Schreibkopfes sowie andere Laufwerkfehler fallen üblicherweise nicht in die Zuständigkeit des Systemverwalters. Treten Fehler dieses Typs auf, muss das betreffende Piece der Spiegelplatte so lange im Status disabled verbleiben, bis es ausgetauscht wird. Zusätzliche Sicherheit bietet es, die Spiegelplatte von vornherein mit drei Pieces zu konfigurieren, wobei das dritte Piece als Reservelaufwerk dient und den Status disabled erhält. Dieses dritte Laufwerk mit dem Status disabled verursacht keine zusätzliche Systembelastung. Alle logischen Schreibvorgänge auf der Spiegelplatte werden lediglich in zwei physische Vorgänge umgesetzt. Fällt eines der anderen Laufwerke aus, wird das dritte Laufwerk zur Verfügung gestellt. Dieses kann problemlos in den Zustand enabled gesetzt werden. Sobald der automatische Catch-Up-Prozess abgeschlossen ist, hat die Spiegelplatte wieder den Status MIRRORED, und die Daten sind wieder effizient geschützt. Durch dieses Konzept wird auch die Erstellung von Backup-Kopien vereinfacht. Sie können einfach das zusätzliche Laufwerk in den Status enabled setzen und so den Catch-Up-Prozess in Gang bringen. Ist dieser Prozess abgeschlossen, versetzen Sie das Laufwerk einfach wieder zurück in den Status disabled. Hierdurch wird dieses Laufwerk deaktiviert, enthält jetzt aber eine vollständige und aktuelle Kopie sämtlicher Daten der Spiegelplatte. Diese Daten können jetzt gesichert werden, ohne dass sich dies negativ auf die Performance der Platte auswirkt. Verfügt die zusätzliche Platte über zwei Verbindungen zu zwei Systemen, kann sie auch für die Erstellung eines Backup des anderen Systems genutzt werden. 2.3.4.8 Arbeiten mit Spiegelplatten Ist die Spiegelplatte einmal konfiguriert und initialisiert, verursacht ihre Verwaltung nur noch minimalen Aufwand. Bei der Umschaltung in den Multi-UserModus veranlasst das System automatisch dkconfig(1M) aus den StartSkripts aller nicht gruppierten vdisks. Der Status der Spiegelplatte wird beibehalten, nachdem das System kontrolliert (und im Allgemeinen auch nicht kontrolliert) heruntergefahren und neu gestartet wurde. U42128-J-Z100-4 31 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Typen virtueller Platten Volume Manager (RCVM) I Bei Ausfall eines Systems (beispielsweise durch einen Stromausfall) rei- nitialisiert RCVM den Status der Spiegelplatte. Dazu wird der Catch-UpProzess automatisch gestartet. Fällt das System während des CatchUp-Prozesses aus, wird das betreffende Piece deaktiviert (disabled), so dass es manuell mit dem Kommando dkmirror(1M) aktiviert werden (enabled) muss. Hierdurch wird der Catch-Up-Prozess in Gang gesetzt. Für virtuelle Platten des Typs ops wird das Catch-Up durch einen der verbleibenden Cluster-Knoten gestartet. Ist auf keinem der anderen Knoten dieselbe virtuelle Spiegelplatte konfiguriert, wird der Catch-Up-Prozess bei der nächsten Konfiguration der betreffenden vdisk ausgeführt. Die Konfiguration der Spiegelplatte wird anhand der Datei /etc/dktab festgestellt und geht daher in den seltensten Fällen verloren. Spiegelplatten können so lange weiterbenutzt werden, bis keines der Pieces mehr den Status online hat. I Zu beachten ist, dass ein direkter Zugriff auf Partitionen, die als online- Pieces einer Spiegelplatte konfiguriert sind, unter keinen Umständen zulässig ist. Dies ist ähnlich wie bei einem eingehängten Dateisystem, in dessen Partitionen nicht direkt hineingeschrieben werden darf. 2.3.4.9 Meldungen des Spiegelplatten-Treibers Die nachstehenden Meldungen (Beispiele) werden vom Treiber der Spiegelplatte auf der Systemkonsole gezeigt. Diese Meldungen erfolgen, wenn während der Ausführung des Kommandos dkmirror(1M) ein Piece den Status wechselt, wenn ein I/O-Fehler behoben wird und wenn Pieces automatisch aufgrund von I/O-Fehlern in den Status disabled gesetzt werden: Mirror Disk initialization complete. Mirror Disk shutdown complete. Mirror vdisk0: piece 0 online. Mirror vdisk0: piece 1 enabled. Mirror vdisk7: piece 1 disabled. Mirror vdisk7: Mirror vdisk7: Mirror vdisk7: MIRRORED. Mirror vdisk7: piece 2 Write error at block 784. piece 2 is now disabled. 2 online pieces left – this Mirror Disk is still Recovered from the write error. Mirror vdisk7: piece 0 Read error at block 24. Mirror vdisk7: piece 0 is now disabled. 32 U42128-J-Z100-4 Volume Manager (RCVM) Typen virtueller Platten Mirror vdisk7: 1 online piece left – this Mirror Disk is now NOT-MIRRORED. Mirror vdisk7: Retrying the read on another piece. Läuft noch ein Catch-Up-Prozess, erhalten Sie ständig Informationen über die einzelnen Schritte des Prozesses. Nachstehend sind beispielhaft einige typische Meldungen aufgelistet: Mirror Mirror Mirror Mirror Mirror Mirror vdisk7: vdisk7: vdisk7: vdisk7: vdisk7: vdisk7: CATCH-UP starting – from piece(s) 0 1 to piece 2. No more enabled pieces to catchup to. No more online pieces to catchup from. CATCH-UP aborted. CATCH-UP attemped – piece 2. CATCH-UP failed – piece 2 is NOT online. 2.3.4.10 Spiegeln von root-Platten Die root-Platte (auch als Systemplatte bezeichnet) ist ein ganz besonders sensibler Bereich. Fällt die root-Platte aus, kommt das gesamte System zum Stillstand. Durch Spiegeln der root-Platte können Sie die Sicherheit und Verfügbarkeit des Gesamtsystem beträchtlich steigern. Allerdings ist das Spiegeln der root-Partition praktisch nur von Nutzen, wenn alle anderen Pieces dieser Platte ebenfalls gespiegelt werden. Dies wird erheblich vereinfacht, wenn Sie zwei identische Platten (d. h. mit gleicher Größe und Partitionierung) für die Spiegelung verwenden. Ist die root-Platte gespiegelt, müssen beim System-Boot zusätzliche Verwaltungsaufgaben erfüllt werden. Nachstehend wird der Boot-Prozess für ein System mit einer gespiegelten root-Platte erläutert. Wenn das System gestartet wird, wertet die Boot-Software die Konfigurationsdatei /etc/system aus. Die Einträge in dieser Datei werden als Parameter übergeben und beinhalten auch die Information, ob die root-Platte gegebenenfalls gespiegelt werden soll. Das Betriebssystem prüft die übergebenen Parameter und ruft gegebenenfalls die Volume Manager-Software auf, um die Spiegelung der root-Platte zu veranlassen. Zu diesem Zweck wird einer der gespiegelten Teile der gespiegelten root-Platte (beispielsweise /dev/dsk/c0t0d0s0) eingehängt, der von Open Boot Prompt (OBP) als Boot-Gerät genutzt wird. U42128-J-Z100-4 33 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Typen virtueller Platten Volume Manager (RCVM) Danach werden die Konfigurationsdateien für gespiegelte root-Platten, /mrconfig.1 und /mrconfig.2, ausgelesen. Die virtuellen Platten für die Pieces root, swap und usr einschließlich der zugehörigen statesave- bzw. statsv-vdisks werden konfiguriert. Danach kann das gerade eingehängte Dateisystem wieder ausgehängt und statt dessen das Dateisystem der gespiegelten root-Platte eingehängt werden. Anschließend stehen alle Optionen normaler gespiegelter Platten jetzt auch für die root-Platte zur Verfügung. Nähere Informationen hierzu enthält der Abschnitt „Konfigurieren virtueller Platten“. V Achtung Wird das Betriebssystem neu installiert, wird der Inhalt der Systemplatte überschrieben und gehen entsprechend auch die Informationen zur Spiegelung verloren. Daher müssen Sie nach einer Neuinstallation alle virtuellen Platten neu konfigurieren. Wenn Sie die root-Plattenspiegelung noch nicht wieder aktiviert haben, ist noch eine funktionsfähige Kopie des bisherigen Betriebssystems auf dem anderen Piece der gespiegelten root-Platte vorhanden. Bearbeiten Sie die Datei vfstab, um den Gerätepfad der Originalplatte einzubinden. Markieren Sie die Einträge für die virtuelle gespiegelte root-Platte mit Kommentarzeichen. (Siehe hierzu den Abschnitt „Deaktivierung der root-Spiegelung“). Nachdem Sie die Platte, die noch nicht neu installiert wurde, als Open Boot Prom (OBP)-Boot-Gerät definiert haben, können Sie die einzelnen Pieces dieser Kopie als Master-Pieces deklarieren und das bisherige Betriebssystem neu starten. Um von der zweiten Platte ein alternatives Boot ausführen zu können, muss die Platte als Boot-Gerät im OBP des Systems bekannt sein. Ändern Sie die BootParameter mit dem Kommando eeprom wie folgt: eeprom boot-device=”rcvm_p0 rcvm_p1” eeprom use-nvramrc?=true eeprom nvramrc=”devalias rcvm_p0 \ /pci@94,4000/scsi@2/disk@1,0:a \ devalias rcvm_p1 /pci@94,4000/scsi@2/disk@2,0:a” Ist rcvm_p0 (Piece 0) der ersten Platte nicht verfügbar, erfolgt das Boot über das zweite Piece. Solaris akzeptiert keine vdisk-Gerätenamen als Dump-Gerät. Bei Verwendung des Kommandos dumpadm muss als Dump-Gerät eines der Swap-Gerät-Pieces eingestellt sein. Wenn das Dump-Gerät aufgrund eines I/OFehlers nicht zur Verfügung steht, können Sie mit dumpadm auf das zweite Piece des Swap-Geräts umschalten. 34 U42128-J-Z100-4 Volume Manager (RCVM) 2.3.5 Typen virtueller Platten Virtuelle statesave- und statsv-Platten Statesave-Devices werden ausschließlich für die nichtflüchtige Speicherung der Statusinformationen gespiegelter Platten benutzt. Diese Geräte können aus einem, zwei oder noch mehr Pieces bestehen. Sie sind genauso strukturiert wie Spiegelplatten, d. h., alle Pieces müssen dieselbe Größe haben. Da die Daten, die auf einem Statesave-Gerät gespeichert werden, extrem wichtig für den Betrieb aller Spiegelplatten sind, sollten Sie dieses Gerät mit mindestens zwei Pieces konfigurieren. Virtuelle Platten dieses Typs benötigen nur relativ wenig Speicher. Ein Statesave-Gerät muss jedoch mindestens 64 KB haben. Die maximale Anzahl Einträge auf einem Statesave-Gerät beträgt 4986. In diesem Fall gelten alle Pieces sämtlicher Spiegelplatten einer bestimmten Gruppe sowie die Spiegelplatte selbst als jeweils ein Eintrag. Wenn Sie mehr Einträge benötigen, müssen Sie ein weiteres Statesave-Gerät (sowie eine neue Gruppe) einrichten. Bei der Konfigurierung von Statesave-Geräte wird zwischen statesave-Platten und statsv-Platten unterschieden, obwohl beide prinzipiell dasselbe Format und dieselbe Funktion haben Während der Konfiguration können virtuelle Platten in Gruppen unterteilt werden (siehe Abschnitt „Konfigurieren virtueller Platten“).Auf virtuellen Platten des Typs statesave werden Statusinformationen sämtlicher Spiegelplatten einer bestimmten Gruppe gespeichert, während auf statsv-Platten die entsprechenden Informationen für nicht in Gruppen eingeordnete Spiegelplatten abgelegt werden. Für jede Gruppe ist jeweils eine separate statesave-Platte erforderlich, für alle nicht in Gruppen eingeordneten Spiegelplatten zusammen eine einzige statsv-Platte. Virtuelle Platten im lokalen System, die immer zur Verfügung stehen müssen, sollten als nicht gruppierte (statsv) vdisks konfiguriert werden. Vdisks, die Multihosted-Geräte unterstützen, sollten je nach den Anwendungen, die auf die vdisk zugreifen, in verschiedenen Gruppen zusammengefasst werden. Auf diese Weise kann der Hochverfügbarkeits-Monitor (RMS) das Hochfahren/Herunterfahren der Gruppe unabhängig von den anderen Gruppen kontrollieren. Bevor Sie die erste Spiegelplatte konfigurieren können, muss ein StatesaveGerät konfiguriert sein. Auf diese Platten können ausschließlich SpiegelplattenTreiber zugreifen. Statesave-Devices stehen für den Normalbenutzer nicht zur Verfügung. U42128-J-Z100-4 35 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Typen virtueller Platten Volume Manager (RCVM) Statesave-Devices können sich in einem der folgenden Zustände befinden: ● ONLINE – mindestens ein Piece ist online. ● ENABLED – nur ein Piece ist enabled (der Status muss noch aktualisiert werden). ● DOWN – es sind keine Pieces online. Dieses Statesave-Gerät kann nicht benutzt werden. Weitere Spezifikationen: (in use) Das Statesave-Gerät wird derzeit zum Speichern der Statusinformationen der konfigurierten Spiegelplatte(n) benutzt. Alle Versuche, diese Platte zu dekonfigurieren, verlaufen erfolglos. Spezifikationen zu den einzelnen Pieces: online Das Piece enthält gültige Daten. disabled Das Piece kann nicht benutzt werden. Mögliche Ursachen: ● I/O error – Fehler bei einem I/O-Vorgang. ● open failed – ein Versuch, das Piece zu aktivieren, schlug fehl. ● manual – das Piece wurde mit dkmirror -d manuell deaktiviert. enabled Das Piece ist aktiviert und kann benutzt werden. Bei der nächsten Aktualisierung des Status werden Statusinformationen auch auf dieses Piece geschrieben. Verläuft dieser Schreibvorgang erfolgreich, wird das Piece in den Status online gesetzt. open Das Piece wurde erfolgreich geöffnet. Der Lese-/Schreibvorgang ist noch auszuführen. Verläuft der Lesevorgang erfolgreich, wird der Status auf enabled geändert. 36 U42128-J-Z100-4 Volume Manager (RCVM) 2.3.6 Typen virtueller Platten Virtuelle DRL-Platte DRL-Geräte werden ausschließlich für die Speicherung der DRL-Informationen von Spiegelplatten eingesetzt. Diese Geräte können aus zwei oder mehr Pieces bestehen. Alle Pieces der DRL-vdisk müssen physische Platten gleicher Größe sein. Da die auf diesen Geräten gespeicherten Daten äußerst wichtig für das schnelle Resilvering von Spiegelplatten sind, sollten Sie die Geräte mit mindestens 2 Pieces konfigurieren. Gruppierte vdisks sind DRL-fähig, wenn ein DRL-Gerät für die betreffende Gruppe definiert wurde. Das DRL-Gerät einer Gruppe muss konfiguriert werden, bevor Sie die Spiegelplatten in der Gruppe konfigurieren. In der Datei /kernel/drv/vd.conf können die maximale Anzahl der Knoten im Cluster, die DRL unterstützen, die Anzahl der Blöcke in DRL für jeden einzelnen Knoten sowie die Anzahl der parallelen Schreibvorgänge im DRL jedes Knoten konfiguriert werden. Nachstehend sind diese Parameter mit den Standardwerten angegeben: max_drl_nodes = 16 für OPS vdisks und max_drl_nodes = 1 für non-OPS vdisks drl_sublog_size = 127 parallel_drl_writes = 4 Der Parameter max_drl_nodes sollte auf die maximale Anzahl Knoten eingestellt werden, auf die der Cluster im Laufe der Zeit möglicherweise anwächst. Der Parameter max_drl_nodes kann auf einen Wert von 16 bis 64 gesetzt werden. Für den Parameter drl_sublog_size kann ein Wert im Bereich von 1 bis 2048 eingegeben werden. Bei größeren Werten verlängern sich die Zeiten für die DRL-Wiederherstellung. Bei kleineren Werten kann sich der Schreibdurchsatz verringern. Der Standardwert 127 bildet in den meisten Fällen den geeigneten Mittelweg und ergibt üblicherweise Wiederherstellungszeiten unter 10 Sekunden. Durch die Parameter max_drl_nodes und drl_sublog_size wird bestimmt, wie groß eine virtuelle DRL-Platte sein muss. Die Mindestgröße einer DRLvdisk beträgt 1+max_drl_nodes * (drl_sublog_size +1) Bei einer OPS-Konfiguration mit Standardwerten ist dies 2049. Bei einer Nicht-OPS-Konfiguration mit Standardwerten ist dies 129. U42128-J-Z100-4 37 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Typen virtueller Platten Volume Manager (RCVM) Ein DRL-Gerät kann einen der nachstehenden Zustände annehmen: ● MIRRORED – mindestens zwei Pieces sind online. ● ENABLED – nur ein Piece ist enabled (der Status muss noch aktualisiert werden). ● DOWN – es sind keine Pieces online. Dieses DRL-Gerät kann nicht benutzt werden. (in use) Das DRL-Gerät wird gerade für die Speicherung der DRL-Informationen der konfigurierten Spiegelplatte(n) benutzt. Alle Versuche, diese Platte zu dekonfigurieren, schlagen fehl. Spezifikationen zu den einzelnen Pieces: online Das Piece enthält gültige Daten. disabled Das Piece kann nicht benutzt werden. Mögliche Ursachen: enabled 2.3.7 ● I/O error – Fehler bei einem I/O-Vorgang. ● open failed – ein Versuch, das Piece zu aktivieren, schlug fehl. ● manual – das Piece wurde mit dkmirror -d manuell deaktiviert. Das Piece ist aktiviert und kann benutzt werden. Hinzufügen eines Knotens Eine DRL-vdisk kann nicht konfiguriert werden, solange Daten-Spiegelplatten der vdisk-Gruppe konfiguriert sind. In diesem Fall können DRL-Pieces lediglich über das Kommando dkmirror -e in den Status „Enabled" gesetzt werden, so dass sie nach der nächsten Ausführung des Kommandos dkconfig -c online gesetzt werden. 38 U42128-J-Z100-4 Volume Manager (RCVM) 2.4 Konfigurieren virtueller Platten Konfigurieren virtueller Platten Die folgenden Abschnitte liefern detaillierte Informationen dazu, wie die verschiedenen Typen virtueller Platten konfiguriert werden. Angegeben werden hier auch Grenzwerte und Rahmenbedingungen, die bei der Konfigurierung und Nutzung virtueller Platten erfüllt sein müssen, sowie schrittweise Anweisungen zur Konfigurierung der Platten. Prinzipiell ist die Konfigurationsprozedur für alle Arten von virtuellen Platten gleich. I Der erste Sektor einer Solaris-Platte enthält das Disk Label. Wenn vdisks von Beginn der Platte erstellt werden, muss der Benutzer darauf achten, dass dieses Disk Label nicht zerstört wird. Die Solaris-Dateisysteme nutzen den ersten Sektor nicht, so dass das Label erhalten bleibt. Ein Schreibvorgang im ersten Sektor des Roh-Geräts führt zur Zerstörung des Labels, so dass die Platte nach einem Neustart des Systems nicht mehr genutzt werden kann. Aufgrund dieser Tatsache wird der erste Sektor von Spiegelplatten, die mit Partitionen vom Beginn einer Platte definiert wurden, nicht auf andere Pieces kopiert (im Rahmen des Catch-Up-Prozesses. 2.4.1 Grenzwerte und Rahmenbedingungen Bei der Konfigurierung von virtuellen Platten müssen bestimmte Rahmenbedingungen erfüllt und Grenzwerte eingehalten werden. Dies bezieht sich insbesondere auf die Anzahl und Größe der Pieces einer virtuellen Platte sowie die Anbindung der virtuellen Platten. Theoretisch kann eine virtuelle Platte maximal eine Größe von 264 Bytes = 16 Ebyte haben. Die Größe der Dateisysteme unterliegt jedoch den folgenden Beschränkungen: ● Die maximale Größe eines Dateisystems auf einer vdisk ist begrenzt durch das Dateisystem. ● Die maximale Anzahl virteller Platten in einem System ist derzeit auf 1000 begrenzt. Dieser Wert ist in /kernel/drv/vd.conf (maxvdunit=1000) vordefiniert und kann vom Systemverwalter geändert werden. Er muss im Bereich 1÷65.535 liegen. ● Die Anzahl der Pieces einer virtuellen Platte ist auf 1024 begrenzt und kann nicht verändert werden. U42128-J-Z100-4 39 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Konfigurieren virtueller Platten Volume Manager (RCVM) ● Die Anzahl der Pieces bei aufgeteilten virtuellen Platten und bei verketteten virtuellen Platten ist auf 99 begrenzt; bei gespiegelten virtuellen Platten und virtuellen Platten vom Typ DRL, statesave und statsv ist die Anzahl der Pieces auf 8 begrenzt und kann nicht geändert werden. ● Virtuelle Platten können verschachtelt werden: So kann beispielsweise eine virtuelle Platte Bestandteil einer anderen virtuellen Platte sein. Die verschachtelte virtuelle Platte muss jedoch vor der übergeordneten virtuellen Platte konfiguriert werden. Außerdem können pro System maximal fünf Verschachtelungs-Levels definiert werden. Allerdings ist dies als rein theoretischer Wert zu betrachten. In vielen Fällen ist es nicht praktikabel mehr als drei Verschachtelungs-Levels zu haben. I Spiegelplatten können nur auf physischen Platten konfiguriert werden. ● Bei aufgeteilten (striped) virtuellen Platten müssen alle Pieces dieselbe Größe haben. Die Größe der Pieces wiederum muss durch die Stripe-Größe restlos teilbar sein. ● Alle Pieces einer gespiegelten Platte müssen dieselbe Größe haben. Die Größe der gesamten Spiegelplatte entspricht der Größe eines dieser Pieces. ● Für die root-Partition und den primären Swap-Bereich kann nur eine Art von virtueller Platte verwendet werden, nämlich eine gespiegelte root-Platte. Eine Spiegelplatte für das root-Dateisystem bzw. den primären SwapBereich darf keine weiteren virtuellen Platten enthalten. I Zusätzlich müssen alle anderen Swap-Bereiche auf Spiegelplatten angesiedelt sein, die physische Plattenpartitionen umfassen. ● Eine virtuelle Platte darf nicht als Bestandteil eines Statesave-Gerätes definiert werden. ● Bei aufgeteilten virtuellen Platten sollten kleine Stripe-Größen (unter 16 KB) vermieden werden. Hier haben sich Stripe- Größen von 16, 32 und 64 KB bewährt. Je nach Anwendung (beispielsweise ein einzelner Prozess, der sequenziell Lese- und Schreibvorgänge ausführt) sind auch größer bemessene Stripes (beispielsweise 1 MB) praktisch. 40 U42128-J-Z100-4 Volume Manager (RCVM) Konfigurieren virtueller Platten ● Eine Konfigurierung von vdisks, in der der Sektor 0 der zugrundeliegenden physischen Platte nicht dem Block 0 der vdisk entspricht, ist nicht zulässig. Wenn beispielsweise eine aufgeteilte vdisk, die aus der Slice 2 einer Partitionsplatte besteht, einen der Sektoren 0 anders als bei Sektor 0 der vdisk positionieren würde, wäre dies unzulässig. Eine Spiegelplatte jedoch, die aus denselben beiden physischen Platten besteht, wäre zulässig, da der Sektor 0 der physischen Platte und der Block 0 der virtuellen Platte identisch sind. Jeder Versuch, den Sektor 0 zu beschreiben, führt zu einer Fehlermeldung. ● Ein Statesave-Gerät für eine Gruppe kann bis zu 4986 Einträge enthalten. Jede Spiegelplatte der Gruppe sowie alle Pieces dieser Spiegelplatten gelten als jeweils ein Eintrag. Lokale vdisk-Gruppen, die während des Starts im Single-User-Modus verfügbar sein sollten, können konfiguriert werden, indem in das Skript /etc/rcS.d/S40vdisk eine entsprechende Konfigurationszeile eingefügt wird (zum Konfigurieren lokaler DRL-vdisks für /opt, ....). DRL-Devices müssen die Standardkonfiguration von 2049 Blöcken aufweisen. Details hierzu finden Sie im Abschnitt „Einfache (simple) virtuelle Platten“. I Wenn die Konfigurationsdaten einer Platte modifiziert werden, gehen die auf der betreffenden Platte gespeicherten Daten verloren. Ist eine aufgeteilte (striped) virtuelle Platte mit zwei Pieces konfiguriert und wird diese Definition in drei Pieces geändert, gehen alle auf dieser virtuellen Platte gespeicherten Daten verloren. Änderungen in den Dateien S65vdisk und S40vdisk gehen bei einer Update-Installation von SMAWvd verloren. I Damit RCVM ordnungsgemäß arbeitet, sind bestimmte Symbole aus der CF-Software erforderlich. RCVM lädt das Modul symsrv der CF-Software, wenn der Manager geladen wird. Um OPS-vdisks konfigurieren oder nutzen zu können, muss das Cluster Foundation Software Module geladen und der betreffende Knoten Mitglied eines Cluster sein. Die Informationen, die für die Berechnung der Größe von Pieces und Stripes einer virtuellen Platte, die physische Platten nutzt, benötigt werden, sind mit Hilfe des Kommandos format bzw. des Kommandos prtvtoc (Spalte Blk Count) abrufbar. U42128-J-Z100-4 41 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Konfigurieren virtueller Platten 2.4.2 Volume Manager (RCVM) Konfiguration Mit Ausnahme von gespiegelten root-Platten ist die Konfigurationsprozedur für alle Arten virtueller Platten gleich. I In einer Cluster-Umgebung müssen Sie die Systemzeit unbedingt synchronisieren. Benutzen Sie dazu das Kommando ntpdate. Nachstehend sind die Einzelschritte der Konfiguration erläutert: ● Bearbeiten der Konfigurationsdatei /etc/dktab ● Virtuelle Platten mit dkconfig(1M) konfigurieren Nur bei Spiegelplatten: ● Definieren des Status der virtuellen Spiegelplatten mit dkmirror(1M) Wenn ein Dateisystem auf der virtuellen Platte eingerichtet werden soll: ● Einrichten eines neuen Dateisystems mit den entsprechenden Systemkommandos, beispielsweise mkfs(1M) oder newfs(1M) ● Bearbeiten der Datei /etc/vfstab ● Neues Dateisystem mit dem Kommando mount(1M) einhängen 2.4.2.1 Bearbeiten der Konfigurationsdatei /etc/dktab Die Konfiguration sämtlicher virtuellen Platten im System ist in der Datei /etc/dktab definiert. Mit Hilfe dieser Datei verwaltet das Kommando dkconfig(1M) die virtuellen Platten. I Die Pflege dieser Datei ist Aufgabe des Systemverwalters. Ebenso wie bei /etc/vfstab muss der Zugriff auf diese Datei strikt kontrolliert werden, d. h., nur der Systemverwalter sollte über eine Schreibberechtigung verfügen. Der Systemverwalter kann diese Datei mit Hilfe eines Texteditors bearbeiten. Die einzelnen Felder der Datei sind durch Leerstellen oder Tabulatoren voneinander getrennt. Enthält die erste Spalte einer Zeile ein Nummernzeichen (#), wird diese Zeile als Kommentar interpretiert. Leerzeilen werden ignoriert. Die virtuellen Platten können in der Datei /etc/dktab in beliebiger Reihenfolge angegeben sein. Nur für verschachtelte virtuelle Platten gelten gewisse Einschränkungen. Letztere müssen beginnend mit dem niedrigsten Verschachte- 42 U42128-J-Z100-4 Volume Manager (RCVM) Konfigurieren virtueller Platten lungs-Levels definiert werden. Wenn Sie Spiegelplatten definieren, müssen Sie darauf achten, dass vor dieser Definition der entsprechende Eintrag für ein statesave-Gerät sowie optional ein DRL-Gerät steht. Die Pfadnamen in der Datei /etc/dktab verweisen auf blockorientierte Geräte. Alle Angaben von relativer Position und Länge erfolgen in Blöcken. Ein Block einer virtuellen Platte hat immer eine Länge von 512 Bytes, was der Sektorgröße der physischen Platte entspricht. In der Datei/etc/dktab müssen für jede virtuelle Platte zwei Arten von Konfigurationszeilen enthalten sein: Eine Deklarationszeile für die virtuelle Platte sowie n Definitionszeilen für die einzelnen Pieces dieser virtuellen Platte. Die Deklarationszeile beginnt immer in der ersten Spalte, vor den Definitionszeilen für die Pieces der virtuellen Platte steht jedoch ein Leerraum. Das nachstehende Beispiel zeigt einen Auszug aus der Datei /etc/dktab: # Concatenated virtual disk /dev/vd/vdisk0 concat 6 /dev/dsk/c2t2d0s1 /dev/dsk/c2t3d1s3 /dev/dsk/c2t2d0s4 0 1000 /dev/dsk/c2t2d0s4 1000 1000 /dev/vd/vdisk20 /dev/vd/vdisk21 # Striped virtual disk # (stripe size: 32 blocks) /dev/vd/vdisk1 stripe 4 32 /dev/dsk/c3t2d1s1 /dev/dsk/c3t2d2s1 /dev/dsk/c3t2d3s1 /dev/dsk/c3t2d4s1 # Three small simple virtual disks“ # (Size: 2400 blocks each) /dev/vd/vdisk2 simple /dev/dsk/c4t3d5s1 0 2400 /dev/vd/vdisk3 simple /dev/dsk/c4t3d5s1 2400 2400 /dev/vd/vdisk4 simple /dev/dsk/c4t3d5s1 4800 2400 Jede Deklarationszeile für eine virtuelle Platte besteht aus mindestens zwei Feldern, die den Namen des Geräteknotens und den Typ der virtuellen Platte angeben. Außer bei einfachen virtuellen Platten ist für alle virtuellen Platten ein drittes Feld erforderlich, in dem üblicherweise die Anzahl der auf dieser Platte vorhandenen Pieces angegeben ist. Bei aufgeteilten (striped) virtuellen Platten U42128-J-Z100-4 43 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Volume Manager (RCVM) Konfigurieren virtueller Platten muss in einem vierten Feld die Stripe-Größe in 512-Byte-Blöcken angegeben werden. Das nachstehende Beispiel zeigt Deklarationszeilen für verschiedene Arten von virtuellen Platten: /dev/vd/vdisk0 /dev/vd/vdisk1 /dev/vd/vdisk2 /dev/vd/vdisk3 /dev/vd/vdisk4 simple concat stripe mirror statsv 2 2 3 2 32 Virtuelle Platten können zu Gruppen zusammengefasst werden. Dies ist insbesondere für Spiegelplatten von Bedeutung. Ein System kann maximal eine statsv-Platte enthalten, auf der sämtliche Statusinformationen zu nicht in Gruppen geordneten Spiegelplatten enthalten sind. Alternativ können virtuelle Platten des Typs statesave benutzt werden, um die Statusinformationen zu den Spiegelplatten einer bestimmten Gruppe zu speichern. Virtuelle DRL-Platten enthalten Informationen für das schnelle Resilvering von Spiegelplatten einer bestimmten Gruppe. Durch das Gruppieren von Spiegelplatten gestaltet sich die Konfiguration und Verwaltung von Spiegelplatten beträchtlich flexibler. Bei der Definition einer Gruppe von Spiegelplatten müssen Sie sicherstellen, dass das Suffix group=n in der Deklaration einer virtuellen Platte des Typs statesave, des Typs DRL sowie aller Spiegelplatten dieser Gruppe enthalten ist. Dies wird im nachstehenden Beispiel einer Deklaration einer virtuellen Platte des Typs statesave, einer Platte des Typs DRL und zweier Spiegelplatten in der Gruppe group 0 illustriert: /dev/vd/vdisk0 statesave,group=0 2 /dev/dsk/c2t2d2s6 0 128 /dev/dsk/c2t2d3s6 0 128 /dev/vd/vdisk1 ,group=0 2 /dev/dsk/c2t2d4s6 0 2500 /dev/dsk/c2t2d5s6 0 2500 /dev/vd/vdisk3 mirror,group=0 2 /dev/dsk/c2t2d1s1 /dev/dsk/c2t2d12s1 /dev/vd/vdisk4 mirror,group=0 2 /dev/dsk/c2t2d14s1 /dev/dsk/c2t2d13s1 44 U42128-J-Z100-4 Volume Manager (RCVM) Konfigurieren virtueller Platten Das folgende Beispiel zeigt die Deklaration von nicht in Gruppen eingeordneten Spiegelplatten und der entsprechenden virtuellen Platte vom Typ statsv dar: /dev/vd/vdisk0 statsv /dev/dsk/c2t2d4s6 /dev/dsk/c2t2d5s6 2 0 0 128 128 /dev/vd/vdisk3 mirror /dev/dsk/c2t2d1s5 /dev/dsk/c2t2d14s5 2 /dev/vd/vdisk4 mirror /dev/dsk/c2t2d4s4 /dev/dsk/c2t2d14s4 2 Virtuelle Platten anderer Typen können ebenfalls in Gruppen zusammengefasst werden. Dies ist insbesondere dann vorteilhaft, wenn Sie Gruppen virtueller Platten gleichzeitig konfigurieren bzw. dekonfigurieren wollen. Lokale vdisk-Gruppen, die während des Starts im Single-User-Modus verfügbar sein sollten, können konfiguriert werden, indem in das Skript /etc/rcS.d/S40vdisk eine entsprechende Konfigurationszeile eingefügt wird (zum Konfigurieren lokaler DRL-vdisks für /opt etc.). I Beachten Sie, dass die virtuellen Platten einer Gruppe beim Systemstart nicht automatisch vom Start-Skript konfiguriert werden. Wollen Sie also beispielsweise, dass die Gruppe 10 automatisch konfiguriert wird, wenn Sie auf den Multi-User-Modus umstellen, fügen Sie in das startSkript /etc/rc2.d/S65vdisk am Ende der if-Anweisung im Abschnitt start die Zeile "/usr/bin/dkconfig -cg10" folgendermaßen ein: 'start') /usr/bin/dkconfig -cg10 ;; 'stop ') Mit Hilfe anderer Start-Skripts nach S65vdisk können auch spezielle vdiskGruppen konfiguriert werden. I Die Start-Skripts /etc/rc2.d/S65vdisk und /etc/rcS.d/S40vdisk werden zusammen mit dem SMAWvd-Paket geliefert. Alle Änderungen, die Sie an dieser Datei vornehmen, gehen verloren, wenn die Datei aktualisiert oder gelöscht wird. Änderungen in den Dateien S65vdisk und S40vdisk gehen bei einer Update-Installation von SMAWvd verloren. U42128-J-Z100-4 45 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Konfigurieren virtueller Platten 2.4.2.2 Volume Manager (RCVM) Virtuelle Platten in einer OPS-Umgebung konfigurieren In einer OPS-Umgebung kommen verteilte Spiegelplatten zum Einsatz. Die Definitionen der verteilten Spiegelplatten und der zugehörigen StatesaveDevices müssen auf allen Systemen identisch sein. Ihr Status wird auf den beteiligten Hostsystemen konsistent gehalten. Ist auf diesem Knoten CF nicht im Status UP, schlägt das Kommando dkconfig für OPS-Platten fehl. Die entsprechende Definition ist durch das Schlüsselwort ops gekennzeichnet, woran sich die Gruppennummer und die Anzahl n der nachfolgend definierten Spiegelplatten anschließen. Die folgenden N Zeilen geben die SCSI-Kanäle an, mit denen die Platten verbunden sind. Bei der ersten virtuellen Platte muss es sich um eine Platte des Typs statesave handeln, danach müssen eine optionale, virtuelle DRL-Platte oder gespiegelte virtuelle Platten folgen. Beispiel: /dev/vd/vdisk0 statesave,ops,group=0 /dev/dsk/c2t2d2s5 0 128 /dev/dsk/c2t2d3s5 0 128 /dev/vd/vdisk1 drl,ops,group=0 2 /dev/dsk/c2t2d1s1 0 2500 /dev/dsk/c2t2d4s1 0 2500 /dev/vd/vdisk2 mirror,ops,group=0 2 /dev/dsk/c2t2d2s1 /dev/dsk/c2t2d3s1 46 2 U42128-J-Z100-4 Volume Manager (RCVM) 2.4.2.3 Konfigurieren virtueller Platten Mit dkconfig(1M) und dkmirror(1M) konfigurieren Mit dem Kommando dkconfig(1M) kann der Prozess der Konfiguration virtueller Platten vollständig kontrolliert werden. Außerdem wird dieses Kommando dazu benutzt, die in der Konfigurationsdatei /etc/dktab eingefügten Definitionen zu aktivieren. dkconfig(1M) ruft Informationen zur Konfiguration der virtuellen Platten aus der Datei /etc/dktab ab, ähnlich wie das Kommando mount(1M) die Datei /etc/vfstab als Quelle für Informationen zu eingehängten Dateisystemen nutzt. Mit dkconfig(1M) werden die virtuellen Platten konfiguriert und wird eine Übersicht über die aktuelle Konfiguration virtueller Platten gezeigt. Entsprechend dürfen unter keinen Umständen die Definitionen der konfigurierten virtuellen Platten in /etc/dktab verändert werden, solange die betreffende virtuelle Platte konfiguriert und aktiv ist. Die Definitionen nicht konfigurierter virtueller Platten können jedoch jederzeit bearbeitet werden. Wenn Sie mehrere virtuelle Platten konfigurieren, überprüft dkconfig(1M) die Platten auf unbeabsichtigte Überschneidungen zwischen physischen Platten. Dies gilt jedoch nur für virtuelle Platten, die mit dem aktuellen dkconfig(1M)Aufruf konfiguriert wurden. Vor oder nach diesem Aufruf konfigurierte virtuelle Platten (beispielsweise einer anderen Gruppe) werden hierbei nicht berücksichtigt. Daher muss der Systemverwalter beim Definieren einer virtuellen Platte sicherstellen, dass die einzelnen Pieces dieser Platte sich nicht mit vorhandenen Dateisystemen, Datenbereichen oder anderen bereits konfigurierten virtuellen Platten überschneiden. Eine schon vorhandene konfigurierte vdisk vom Typ concat oder simple kann erweitert werden, indem man mit der Option reconfig von dkconfig ein neues Piece hinzufügt. Das neue Piece kann ein physisches Gerät oder eine andere virtuelle Platte sein. Optional kann die relative Position und die Größe des Piece angegeben werden. Die Datei /etc/dktab wird automatisch aktualisiert, damit sie die Definition des neuen Piece für die rekonfigurierte vdisk einschließt. Wird eine virtuelle Platte (unabhängig von ihrer Definition) einfach konfiguriert, besteht kein Risiko. Die vorhandenen Dateisysteme und Daten sind nur gefährdet, wenn die Platte aktiviert wird und tatsächlich Daten darauf geschrieben werden. Wenn Sie sehr schnell eventuelle Fehler in der Definition erkennen, können Sie die virtuelle Platte immer noch deaktivieren. Eine virtuelle Platte, die bereits konfiguriert ist und gerade benutzt wird, kann jedoch nicht dekonfiguriert werden. Versuche, eine gerade benutzte virtuelle Platte zu dekonfigurieren, führen zur Ausgabe der Fehlermeldung EBUSY (Gerät belegt). U42128-J-Z100-4 47 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Konfigurieren virtueller Platten Volume Manager (RCVM) Wenn auf einer oder mehreren der in /etc/dktab definierten virtuellen Platten ein Dateisystem enthalten ist, muss dkconfig(1M) vor fsck(1M) und mount(1M) ausgeführt werden, da eine virtuelle Platte erst nach der Konfiguration einsatzfähig ist. Dies erfolgt automatisch, wenn in den Multi-User-Modus umgeschaltet wird. In diesem Fall ruft das Start-Skript das Kommando dkconfig(1M) auf, um die virtuellen Platten entsprechend der Datei /etc/dktab zu konfigurieren. Für virtuelle Platten, die in Gruppen konfiguriert sind, gilt dies jedoch nicht. Wenn Sie die virtuellen Dateisysteme im Single-User-Modus manuell prüfen wollen, müssen Sie vor dem Aufruf von fsck(1M) in der Kommandozeile /etc/rc2.d/S65vdisk ausführen. Wenn bei Aufruf von fsck(1M) keine konfigurierten virtuellen Platten vorhanden sind, wird die Fehlermeldung ENXIO (Gerät oder Adresse nicht verfügbar) ausgegeben. Obwohl alle für virtuelle Platten in der Datei /etc/dktab definierten oder als Argument in dkconfig(1M) enthaltenen Pfadnamen blockorientierte Geräteeinträge sind, werden sowohl block- als auch zeichenorientierte Einträge unterstützt. Zu dem Kommando dkconfig(1M) steht eine Vielzahl von Optionen zur Verfügung. Nähere Informationen hierzu sind auf den Manual-Pages zu dkconfig(1M) zu finden. Nachstehend sind einige Beispiele aufgeführt, die die Verwendung dieses Kommandos demonstrieren: ● Konfigurieren aller in /etc/dktab definierten virtuellen Platten: # dkconfig -Ac ● Konfigurieren aller in /etc/dktab definierten OPS-Platten: # dkconfig -Oc ● Ausgeben einer kurzen Liste der Konfiguration sämtlicher virtueller Platten: # dkconfig -Al ● Ausgeben einer detaillierten (ausführlichen) Liste der Konfiguration aller virtuellen Platten: # dkconfig -Alv ● Ausgabe einer detaillierten (ausführlichen) Beschreibung der virtuellen Platte vdisk2: # dkconfig -lv /dev/vd/vdisk2 ● Ausgabe einer kurzen Beschreibung der ersten vier virtuellen Platten: # dkconfig -l /dev/vd/vdisk[0-3] 48 U42128-J-Z100-4 Volume Manager (RCVM) ● Konfigurieren virtueller Platten Konfigurieren aller virtuellen Platten der Gruppe 1: # dkconfig -cg1 ● Rekonfigurieren einer einfachen, verketteten oder gespiegelten virtuellen Platte durch Hinzufügen eines neuen Piece: # dkconfig -r piece=pcename{:offset:length} /dev/vd/vdisk2 ● Dekonfigurieren aller virtuellen Platten: # dkconfig -Au ● Dekonfigurieren aller OPS-Platten: # dkconfig -Ou Anhand der I/O-Statistiken, die mit der Kommandooption -lv gezeigt werden, können Sie die Verteilung von I/O-Vorgängen auf die verschiedenen physischen Platten feststellen. Insbesondere bei aufgeteilten (striped) virtuellen Platten kann auf Grundlage dieser Informationen die optimale Einstellung sichergestellt werden. Bei einer ungleichmäßigen Verteilung der verschiedenen Vorgängen auf die einzelnen Pieces der virtuellen Platte muss entweder das Dateisystem oder die virtuelle Platte selbst neu konfiguriert werden. I Sie können auch die Standardwerkzeuge iostat und vmstat von Solaris benutzen, um die statistischen Daten der RCVM-Platten zu betrachten. I Beachten Sie, dass bei Ausführung von /etc/rc2.d/S65vdisk stop Informationen zu den bis dahin verfügbaren konfigurierten vdisks gespeichert werden. Diese vdisks werden erneut konfiguriert, wenn /etc/rc2.d/S65vdisk start ohne Neustart des Systems ausgeführt wird. Damit ist der Konfigurationsvorgang für alle virtuellen Platten mit Ausnahme der gespiegelten Platten abgeschlossen. Bei der Erstkonfiguration von Spiegelplatten sind einige zusätzliche Verwaltungsaufgaben auszuführen. Nach der Erstkonfiguration mit dkconfig(1M) haben alle Pieces einer Spiegelplatte den Status disabled.Damit befindet sich die gesamte Spiegelplatte im Zustand DOWN, so dass sie nicht für Dateisysteme oder für die Speicherung von Daten genutzt werden kann. Entsprechend muss der Systemverwalter bei einer Neukonfiguration von Spiegelplatten die Spiegelplatte manuell in den Status MIRRORED setzen. Hierzu wird das Kommando dkmirror(1M) benutzt. U42128-J-Z100-4 49 Volume Manager (RCVM) Die Spiegelplatte muss wie nachstehend beschrieben initialisiert werden (die hier angegebenen Kommandos sind jedoch lediglich Beispiele): 1. Das folgende Kommando setzt ein Piece einer Spiegelplatte in den Zustand enabled: © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm Konfigurieren virtueller Platten # dkmirror -en virtuelle_platte n steht hier für die Nummer des Spiegelplatten-Piece (die Zählung beginnt bei 0). An Stelle von virtuelle_platte müssen Sie den Pfadnamen der Spiegelplatte eingeben. Bei einer Spiegelplatte mit zwei Pieces würde das Kommando also lauten: # dkmirror -e0 -e1 /dev/vd/vdisk8 Werden mehrere Spiegelplatten definiert, kann mit nachstehendem Kommando auch eine Gruppe von Platten auf enabled gesetzt werden: # dkmirror -agN Hier steht N für die Nummer der Spiegelplattengruppe. Das nächste Kommando dient dazu, den Status aller Spiegelplatten in sämtlichen Gruppen auf enabled zu ändern: # dkmirror -aA 2. Anschließend muss eines der Pieces der Spiegelplatte online gesetzt werden. Dieses Piece fungiert dann als Datenquelle für den anschließend automatisch ausgeführten Catch-Up-Prozess. Das heißt, dass die Daten dieses Piece auf alle anderen Pieces im Zustand enabled übertragen werden. Dies gilt sogar, wenn die Spiegelplatte noch keine gültigen Daten enthält. Mit der Option -C des Kommandos dkmirror(1M) kann ein Piece auch ohne Ausführung des Catch-Up-Prozesses in den Status online gesetzt werden. Dieses manuelle online-Setzen ist jedoch nur für eines der Pieces einer Spiegelplatte möglich und erfolgt mit nachstehendem Kommando: # dkmirror -on virtuelle_platte Auch hier steht n für die Nummer des Piece auf der betreffenden Platte und virtuelle_platte für den Geräteknoten der Spiegelplatte. Das Kommando zu unserem obigen Beispiel würde folgendermaßen lauten: # dkmirror -o0 /dev/vd/vdisk8 50 U42128-J-Z100-4 Volume Manager (RCVM) Konfigurieren virtueller Platten Die einzelnen Pieces einer Spiegelplatte können außerdem direkt von disabled auf online gesetzt werden. Damit lassen sich die Schritte 1 und 2 folgendermaßen zusammenfassen: # dkmirror -o0 -e1 /dev/vd/vdisk8 3. Sobald eines der Pieces der Spiegelplatte online geschaltet ist, startet das System automatisch den Catch-Up-Prozess. Informationen zum Zustand der Spiegelplatte und ihrer einzelnen Pieces können darüber hinaus mit dem Kommando dkmirror(1M) abgerufen werden. Nach Ausführung von Schritt 1 ergibt sich die folgende Ausgabe: # dkmirror -lv /dev/vd/vdisk8 Mirror disk /dev/vd/vdisk8 DOWN piece 0 /dev/dsk/c2t2d1s1 enabled piece 1 /dev/dsk/c2t2d2s1 enabled (catch-up required) (catch-up required) Sobald sich eines der Pieces der Spiegelplatte im Zustand online befindet (Schritt 2), wird der Catch-Up-Prozess gestartet: # dkmirror -lv /dev/vd/vdisk8 Mirror disk /dev/vd/vdisk8 NOT-MIRRORED (catch-up: 35%) piece 0 /dev/dsk/c2t2d1s1 online (catch-up source) piece 1 /dev/dsk/c2t2d2s6 enabled (catch-up in progress) Ist der Catch-Up-Prozess erfolgreich beendet, befinden sich alle Pieces online und hat die Spiegelplatte insgesamt den Status MIRRORED: # dkmirror -lv /dev/vd/vdisk8 Mirror disk /dev/vd/vdisk8 MIRRORED piece 0 /dev/dsk/c2t2d1s1 online piece 1 /dev/dsk/c2t2d2s1 online Die Angabe N% besagt, dass der Catch-Up-Prozess noch läuft und zu N Prozent abgeschlossen ist. Mit # dkmirror -dn virtuelle_platte können Sie das Piece n einer Spiegelplatte deaktivieren. Dies gilt auch, wenn dieses Piece das letzte verfügbare online-Piece dieser Spiegelplatte ist. Wenn Sie gezwungen sind, mit Hilfe des Kommandos dkmirror die Pieces einer Spiegelplatte bei normalem Betrieb zu deaktivieren, müssen Sie zusätzlich die Option -N spezifizieren. Hierdurch wird verhindert, dass das letzte verfügbare Piece im Zustand online auf der Spiegelplatte deaktiviert wird. U42128-J-Z100-4 51 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Volume Manager (RCVM) Konfigurieren virtueller Platten Mit der Option -mn wird das Piece n einer Spiegelplatte zum Master-Piece deklariert. Wird die betreffende Spiegelplatte das nächste Mal konfiguriert, wird automatisch ein Catch-Up-Prozess gestartet, in dem die Daten von diesem Piece auf die übrigen Pieces kopiert werden. Über die Option -m wird nach einem Neustart eine gespiegelte root-Konfiguration aktiviert. Nähere Informationen zur Verwendung des Kommandos dkmirror(1M) finden Sie auf der entsprechenden Manual-Page. 2.4.3 Beispielkonfiguration Dieser Abschnitt enthält eine Beispielkonfiguration, die sämtliche erforderlichen Schritte für die Konfigurierung virtueller Platten zeigt: 1. Erstellen Sie alle Einträge in der Datei /etc/dktab wie folgt: /dev/vd/vdisk1 statsv 2 /dev/dsk/c2t2d1s5 /dev/dsk/c2t2d2s5 /dev/vd/vdisk2 mirror 2 /dev/dsk/c2t2d3s1 /dev/dsk/c2t2d4s1 /dev/vd/vdisk3 concat 4 /dev/dsk/c2t2d1s1 /dev/dsk/c2t2d4s4 /dev/dsk/c2t2d3s1 /dev/dsk/c2t2d3s4 /dev/vd/vdisk4 simple /dev/dsk/c2t2d3s3 0 2400 /dev/vd/vdisk5 simple /dev/dsk/c2t2d3s3 2400 2400 /dev/vd/vdisk6 simple /dev/dsk/c2t2d3s3 4800 2400 /dev/vd/vdisk8 mirror 3 /dev/dsk/c2t2d2s3 0 20480 /dev/dsk/c2t2d3s3 7200 20480 /dev/dsk/c2t2d4s3 0 20480 /dev/vd/vdisk10 statesave, group=10 /dev/dsk/c2t2d30s5 /dev/dsk/c2t2d60s5 /dev/vd/vdisk11 drl, group=10 2 /dev/dsk/c2t2d30s4 /dev/dsk/c2t2d60s4 /dev/vd/vdisk0 mirror, group=10 2 /dev/dsk/c2t2d30s6 /dev/dsk/c2t2d60s6 52 2 U42128-J-Z100-4 Volume Manager (RCVM) Konfigurieren virtueller Platten 2. Konfigurieren Sie sämtliche virtuellen Platten wie folgt: # dkconfig -Ac 3. Prüfen Sie die Konfigurationsdaten wie folgt: # dkconfig -Al Neues Dateisystem erstellen und einhängen Die in den nachstehenden Abschnitten beschriebenen Konfigurationsschritte müssen nur ausgeführt werden, wenn auf der virtuellen Platte ein Dateisystem eingerichtet werden muss. Da es sich bei vdisk8 um eine Spiegelplatte handelt, müssen Sie zunächst eines der Pieces dieser Platte in den Status online setzen. In dem vorliegenden Beispiel erhalten die übrigen beiden Pieces den Status enabled, so dass ein Catch-Up-Prozess veranlasst wird: # dkmirror -o0 -e1 -e2 /dev/vd/vdisk8 Mit dem Kommando mkfs(1M) werden die neuen Dateisysteme vxfs erstellt. Ein zeichenorientierter Geräte-Eintrag und die Größe des Dateisystems müssen wie folgt als Parameter spezifiziert werden: # mkfs -Fvxfs /dev/vd/rvdisk8 10240 Nachdem das Dateisystem initialisiert ist, sollten Sie das neue Dateisystem in die Datei /etc/vfstab eintragen. Wenn sich eines der Dateisysteme /usr, /var, /opt oder /home auf einer virtuellen Platte befindet, müssen Sie dafür sorgen, dass als fsck-Level der Wert 0 erscheint: /dev/vd/vdisk8 /dev/vd/rvdisk8 /usr vxfs 0 yes rw Für andere Dateisysteme sieht eine Deklarationszeile in dieser Datei folgendermaßen aus: /dev/vd/vdisk8 /dev/vd/rvdisk8 /u8 vxfs 1 yes rw Um das Dateisystem nutzen zu können, müssen Sie es mit Hilfe des Kommandos mount(1M) einhängen. Beispiel: # mount /u8 I Das Verzeichnis /u8 muss bereits vorhanden sein. Andernfalls wird eine Fehlermeldung ausgegeben. U42128-J-Z100-4 53 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Online-Rekonfiguration einer Spiegelplatte Volume Manager (RCVM) Existiert dieses Verzeichnis noch nicht, können Sie es mit folgendem Kommando einrichten: # mkdir /u8 Wiederholen Sie anschließend den Einhängeprozess. Alternativ zu einem vxfs-Dateisystem können Sie auch ein ufs-Dateisystem einrichten. Verwenden Sie hierzu das Kommando newfs(1M). Nähere Informationen zu den Kommandos newfs(1M), mkfs(1M), fsck(1M) und mount(1M) enthalten die zugehörigen Manual-Pages. 2.5 Online-Rekonfiguration einer Spiegelplatte Mithilfe der Online-Rekonfiguration einer Spiegelplatte kann die Konfiguration einer Spiegelplatte mit nur einem definierten Piece sowie das Hinzufügen eines Pieces zu bzw. die Entfernung eines Pieces von einer konfigurierten Spiegelplatte online vorgenommen werden. Statesave und drl-Platten sind per definitionem vdisk-Spiegelplatten mit besonderen Eigenschaften. Darum bezieht sich der Begriff "mirror" oder "Spiegel" auf Platten des Typs MIRROR, STATESAVE und DRL mit dem oder ohne das Attribut OPS. Diese Erweiterung wird auch für Root Mirror unterstützt. 2.5.1 Spiegelplatte mit einem definierten Piece konfigurieren Sie können vdisk-Platten des Typs mirror/statesave/drl mit nur einem Piece konfigurieren. Das Piece kann als jedes beliebige der 8 gespiegelten Pieces definiert werden. Die Anzahl gespiegelter Pieces ist auf maximal 8 begrenzt. Wenn ein Piece nicht definiert ist, wird in der Datei /etc/dktab das Schlüsselwort NOTCONFIGURED benutzt, um es als nicht definiert und nicht konfiguriert zu kennzeichnen. 54 U42128-J-Z100-4 Volume Manager (RCVM) Online-Rekonfiguration einer Spiegelplatte Beispiel: 1. Das folgende Beispiel bezieht sich auf eine Spiegel-vdisk mit nur einem Piece: /dev/vd/vdisk0 statesave,ops,group=0 /dev/dsk/c3t123d2s1 0 32 /dev/vd/vdisk1 drl,ops,group=0 1 /dev/dsk/c3t123d4s1 0 /dev/vd/vdisk2 mirror,ops,group=0 /dev/dsk/c3t123d10s1 1 1024 1 2. Beispiel für die Verwendung des Schlüsselwortes NOTCONFIGURED: Wenn eine Spiegelplatte definiert werden soll, bei der die Definition eines Pieces (physische Beschreibung) zum Zeitpunkt der Konfiguration bei einem beliebigen Paar nicht bekannt ist, können Sie das Schlüsselwort NOTCONFIGURED verwenden, um das betreffende Piece entsprechend zu kennzeichnen. Das Piece kann dann rekonfiguriert werden, indem der Spiegelplatte ein neues Piece hinzugefügt wird. Im folgenden Beispiel sind piece 0 und piece 1 nicht definiert und werden nicht konfiguriert: /dev/vd/vdisk0 statesave,ops,group=0 /dev/dsk/c3t123d2s1 0 NOTCONFIGURED /dev/dsk/c3t123d4s1 0 /dev/vd/vdisk1 mirror,ops,group=0 NOTCONFIGURED /dev/dsk/c3t123d10s1 /dev/dsk/c3t123d12s1 U42128-J-Z100-4 3 32 32 3 55 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Online-Rekonfiguration einer Spiegelplatte 2.5.2 Volume Manager (RCVM) Neues Spiegel-Piece zu einer konfigurierten Spiegelplatte hinzufügen Mit RCVM können Sie einer konfigurierten Spiegelplatte ein neues Piece online hinzufügen. Es werden maximal 8 gespiegelte Pieces unterstützt. Es können also nicht mehr als 8 Pieces hinzugefügt werden. Ein Gerät wird der Spiegelkonfiguration als das als nicht konfigurierte Gerät hinzugefügt, sofern ein solches vorhanden ist. Andernfalls wird das neue Piece an die bereits konfigurierten gespiegelten Pieces angehängt. Die Syntax des Kommandos, mit dem ein gespiegeltes Piece hinzugefügt wird, sieht wie folgt aus: # dkconfig -r piece=devname{:offset:length} vdisk# wobei devname der Name des neuen Piece-Gerätes ist und offset und length dessen relative Position und Länge angeben. Relative Position und Länge sind optional. Die /etc/dktab wird automatisch aktualisiert, damit sie die Definition des neuen Piece für die rekonfigurierte gespiegelte vdisk einschließt. Bearbeiten Sie /etc/dktab bei einer Spiegel-vdisk nicht manuelle, die mit der Option -r rekonfiguriert wird. Wenn die Platte, die rekonfiguriert wird, auf mehreren Clusterknoten definiert ist, muss die Reconfiguration auf allen Clusterknoten durchgeführt werden. Nach einer erfolgreichen Rekonfiguration, wird das neue gespiegelte Piece zunächst deaktiviert. Setzen Sie den Status des neuen gespiegelten Pieces mithilfe des Kommandos dkmirror fest. Führen Sie das Kommando dkmirror -e aus, um das neue Piece zu aktivieren (Näheres finden Sie in Abschnitt „Mit dkconfig(1M) und dkmirror(1M) konfigurieren“) und automatisch ein umfassendes Catch-up des RCVM-Moduls anzustoßen. I Bei einer OPS-Spiegelplatte müssen die neuen Pieces auf allen Knoten der Spiegelung hinzugefügt werden, bei denen die Spiegelung konfiguriert wurde, bevor der Status DISABLE des neuen Pieces geändert wurde. Benutzen Sie dkconfig -r, um den Status des statesavePieces von DISABLE in OPEN zu ändern, da statesave nicht über preserved statesave verfügt. Die nächste Lese-/Schreiboperation von bzw. zu diesem Piece ändert dessen Status in aktiviert und online. Es ist daher nicht erforderlich, bei einer statesave-Platte das Kommando dkmirror auszuführen. I Weitere Einzelheiten über den vollen Funktionsumfang von dkconfig und über die relevanten Fehlermeldungen finden Sie in der RCVM OnlineDokumentation. 56 U42128-J-Z100-4 Volume Manager (RCVM) Online-Rekonfiguration einer Spiegelplatte Gehen Sie beispielsweise wie folgt vor, um der Spiegelplatte vdisk1 ein neues Piece hinzuzufügen: 1. Rufen Sie die Spiegelplatte vdisk1 und den Status ihrer jeweiligen Pieces auf. Das Kommando dkmirror -lv vdisk1 zeigt, dass piece 0 nicht konfiguriert ist: Mirror disk /dev/vd/vdisk1: NOTCONFIGURED piece 1 /dev/dsk/c3t123d4s1 piece 2 /dev/dsk/c3t123d6s1 MIRRORED online online 2. Fügen Sie der Spiegelplatte vdisk1 das neue Piece wie folgt hinzu: dkconfig -r piece=/dev/dsk/c3t123d7s1 vdisk1 3. Rufen Sie den Status der gespiegelten Pieces wie folgt auf: dkmirror -lv vdisk1 Mirror piece piece piece disk /dev/vd/vdisk1: 0 /dev/dsk/c3t123d7s1 1 /dev/dsk/c3t123d4s1 2 /dev/dsk/c3t123d6s1 MIRRORED disabled (default) online online dkmirror -lv vdisk1 zeigt an, dass piece 0 nicht konfiguriert ist. 4. Aktivieren Sie das neue Piece wie folgt: dkmirror -e 0 vdisk1 2.5.3 Piece von einer konfigurierten Spiegelplatte entfernen Ein deaktiviertes gespiegeltes Piece kann von einer konfigurierten Spiegelplatte entfernt werden, ohne dass die betreffende Platte zuvor dekonfiguriert werden muss. I/O-Vorgänge von und zur Spiegel-vdisk werden nicht angehalten (Suspended), während das Piece entfernt wird. Die Spiegelung bleibt bei allen verbleibenden Pieces verfügbar und voll funktionsfähig. Der Status eines Pieces, das entfernt werden soll, muss mit dkmirror -d piece# mirror-volume auf DISABLE gesetzt werden. Nachdem der Status auf DISABLE gesetzt wurde, kann das Piece mithilfe des folgenden Kommandos entfernt werden: # dkconfig -d piece# mirror-volume U42128-J-Z100-4 57 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Online-Rekonfiguration einer Spiegelplatte Volume Manager (RCVM) Damit wird auf dem Konten, auf dem das Kommando ausgeführt wird, der Piece-Index bei piece# von der konfigurierten Spiegelung entfernt. Bei OPSSpiegelplatten muss das Kommando dkconfig -d auf allen Knoten ausgeführt werden, auf denen die Spiegelplatte konfiguriert ist. Wenn ein Piece entfernt wird, so wird auch die Spiegeldefinition in der Datenbankdatei /etc/dktab von RCVM entsprechend geändert. Bearbeiten Sie die Datei /etc/dktab der Spiegelung, die rekonfiguriert wird, nicht manual. Sie können sämtliche konfigurierten gespiegelten Pieces mit Ausnahme des letzten verbleibenden Pieces entfernen. Das letzte Piece einer konfigurierten Spiegelung kann nur entfernt werden, indem die Spiegelung mit dkconfig -u dekonfiguriert wird. Wenn das Piece, das aus der konfigurierten Spiegelung entfernt werden soll, nicht das höchste Piece ist, wird die Spiegeldefinition des betreffenden Pieces in der Datei /etc/dktab mit NOTCONFIGURED gekennzeichnet. Handelt es sich um das höchste Piece, so wird seine Definition aus der Spiegeldefinition entfernt. I Weitere Einzelheiten über den vollen Funktionsumfang von dkconfig und über die relevanten Fehlermeldungen finden Sie in der RCVM OnlineDokumentation. Gehen Sie beispielsweise wie folgt vor, um das Piece 0 der Spiegel-vdisk1 zu entfernen: 1. Deaktivieren Sie das Piece wie folgt: # dkmirror -d 0 vdisk1 2. Entfernen Sie das Piece wie folgt: # dkconfig -d 0 vdisk1 3. Rufen Sie den Status der gespiegelten Pieces auf. Das Kommando dkmirror -lv vdisk1 zeigt an, dass piece 0 nicht konfiguriert ist: Mirror disk /dev/vd/vdisk1: NOTCONFIGURED piece 1 /dev/dsk/c3t123d4s1 piece 2 /dev/dsk/c3t123d6s1 2.5.4 MIRRORED online online Root Mirror RCVM unterstützt nun auch eine online Konfiguration von Mroot. Eine online Konfiguration von Mroot verläuft genauso wie die einer normalen Spiegelplatte. Allerdings aktualisiert die Rekonfiguration einer Mroot-Platte die Datei vd.conf mit den neuen Konfigurationsdaten der Spiegelplatte. 58 U42128-J-Z100-4 Volume Manager (RCVM) 2.6 Label-basierte Konsistenzprüfung Label-basierte Konsistenzprüfung Alle Versionen von vdisk bieten (gegebenenfalls nach Installation des aktuellen Patches) neben dem ursprünglichen Default-Verfahren eine neue Version der statesave-Konsistenzprüfung, die auf den Datenträgernamen der Platten basiert. Vdisk führt eine statesave-Konsistenzprüfung durch, um sicherzustellen, dass die Spezifikationen für die gespiegelte vdisk auf den verschiedenen Knoten übereinstimmen. Dieser Abgleich erstreckt sich auf die Anzahl der Spiegel-Pieces, relative Position und Länge der Pieces sowie das physische Gerät, das den Pieces zugrundeliegt. Erkennt vdisk, dass die Konfiguration nicht hundertprozentig übereinstimmt, werden sämtliche Pieces einer gespiegelten Platte deaktiviert. In den früheren vdisk-Versionen wurde für die Feststellung, ob die physischen Geräte übereinstimmen, die Gerätenummer der Pieces einer Spiegel-Platte verwendet. Da Solaris jedoch nicht so konfiguriert werden kann, dass gewährleistet ist, dass die Gerätenummer einer physischen Platte auf den verschiedenen Knoten in einem Cluster identisch ist, kann es unter bestimmten Umständen, beispielsweise beim Austausch eines Controllers oder bei einem hardwarebasierten Failover, dazu kommen, dass sich die Gerätenummer eines physischen Piece nach dem Neustart eines Cluster-Knotens geändert hat. In diesem Fall würde vdisk fälschlicherweise eine nicht übereinstimmende Konfiguration erkennen und damit die Pieces einer Spiegelplatte deaktivieren. Mit der neuen statesave-Konsistenzprüfung in vdisk werden die DatenträgerLabel der Platte herangezogen, um diese Problematik zu umgehen. Statt der Gerätenummer dient jetzt der achtstellige Datenträgername im Header der Platte zur Identifikation einer physischen Platte. Damit wird garantiert auf jedem Knoten dasselbe Ergebnis erzielt. Damit vdisk erkennen kann, dass auf verschiedenen Knoten unterschiedliche physische Platten als dasselbe Spiegel-Piece spezifiziert wurden, muss jede physische Platte einen eindeutigen Datenträgernamen haben. Datenträgernamen können in vdisk auf zweifache Weise zugewiesen werden: ● Zuordnung durch den Benutzer ● Automatische Zuordnung Erfolgt die Zuweisung durch den Benutzer, dann muss der Benutzer jeder in der Datei /etc/dktab aufgeführten Platte ein eindeutiges Datenträger-Label zuweisen. Für die Definition der Labels kann das Systemdienstprogramm format verwendet werden. Die Zuweisung des Datenträger-Label muss erfolgen, bevor die Platte mit Hilfe von vdisk konfiguriert wird. U42128-J-Z100-4 59 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Label-basierte Konsistenzprüfung Volume Manager (RCVM) Bei der automatischen Zuweisung prüft vdisk, ob ein nicht initialisiertes Datenträger-Label vorhanden ist (d. h., nur Nullen bzw. nur Leerstellen). Wurde das Label noch nicht definiert, erstellt vdisk einen Namen für den Datenträger auf Grundlage des Hostnamens des betreffenden Knotens und der aktuellen Uhrzeit und definiert das Label automatisch. Hierbei ist zu beachten, dass vdisk Label nicht vergleichen kann, die zu unterschiedlichen Zeiten im Cluster erstellt wurden und daher gegebenenfalls zwei übereinstimmende Label existieren können. Dieses Risiko ist jedoch äußerst gering. Existieren zwei identische Label, kann vdisk die Nutzung der Platten mit den übereinstimmenden Labels zwar zulassen, aber gegebenenfalls nicht mehr alle Unstimmigkeiten in der Konfiguration erkennen. 2.6.1 Besonderheiten bei Installation und Aktualisierung Damit kontinuierliche Aktualisierungen unterstützt werden, greift vdisk standardmäßig auf die derzeitige Konsistenzprüfung anhand der Gerätenummern zurück. Ist vdisk auf einem neuen System installiert und entscheidet sich der Benutzer für die benutzerdefinierte oder die automatische Zuweisung von Labels, kann er mit Hilfe von dkmigrate und durch Ausführung von dkmigrate -u bzw. dkmigrate -a vdisk permanent konfigurieren, bevor er vdisks einrichtet. Näheres hierzu enthält die Manual-Page zum Kommando dkmigrate. Wird vdisk auf einem vorhandenen System aktualisiert, kann der Benutzer dennoch auf eines der Label-basierten Konsistenzprüfungsschemata umstellen. Zu beachten ist, dass diese Umstellung nicht mehr rückgängig zu machen ist. Um auf die Label-basierte Prüfung zu migrieren, müssen Sie folgende Schritte ausführen: 1. Prüfen Sie, ob die Datei /etc/dktab auf allen Knoten korrekt ist. 2. Führen Sie nach Installation des neuen vdisk-Pakets auf jedem Knoten im Cluster das Kommando dkmigrate -n aus. Zu beachten ist, dass nach Ausführung dieses Kommandos die Datei /etc/dktab nicht mehr ohne weiteres geändert werden kann, bevor Sie Schritt 5 ausgeführt haben. 3. Überprüfen Sie, ob alle Spiegel-vdisks konfiguriert wurden. 4. Wenn die Datei /etc/dktab die nicht unterstützte Option nocheck enthält, muss diese entfernt werden. 60 U42128-J-Z100-4 Volume Manager (RCVM) Besonderheiten bei gespiegelten root-Platten 5. Soll die benutzerdefinierte Label-Zuweisung gewählt werden, vergeben Sie mit dem Dienstprogramm format für alle in /etc/dktab aufgelisteten Platten einen Namen und führen Sie anschließend auf allen Knoten das Kommando dkmigrate -u aus. Bei automatischer Label-Zuweisung ist auf allen Knoten folgendes Kommando auszuführen. # dkmigrate -a 2.6.2 Besonderheiten beim Betrieb Beachten Sie: Wenn die Label-basierte Konsistenzprüfung aktiviert ist, bewirkt eine Änderung des Datenträger-Labels einer vdisk nach der Konfiguration, dass die Konfiguration als nicht mehr konsistent angesehen wird. Wird eine solche Nichtübereinstimmung erkannt, werden alle betroffenen Spiegel-Pieces deaktiviert. Um eine vorhandene Platte auszutauschen bzw. eine neue Platte hinzuzufügen, muss für das Aktivieren von Spiegel-Pieces, die auf die neue Platte zurückgreifen, das Kommando dkmirror mit der Option -S ausgeführt werden. Über diese Option wird vdisk angewiesen, dass eine neue Platte mit einem anderen Datenträger-Label installiert wurde. Wurde user-labeling eingestellt, muss das Datenträger-Label eingestellt werden, bevor dkmirror ausgeführt werden kann. Bei automatischer Label-Zuweisung und einem nicht initialisierten Platten-Label übernimmt vdisk die Benennung der Platte selbständig. 2.7 Besonderheiten bei gespiegelten rootPlatten Sollen virtuelle Platten dazu benutzt werden, die root-Partition, die Partition usr und den primären Swap-Bereich zu spiegeln, müssen weitere Rahmenbedingungen erfüllt sein. Dies ist darauf zurückzuführen, dass die auf der root-Platte gespeicherten Daten für die Konfiguration benötigt werden. RCVM bietet jedoch auch die Möglichkeit, diese Partitionen als Spiegelplatten zu konfigurieren. Auf diese Weise können die Sicherheit und die Verfügbarkeit des Gesamtsystems deutlich gesteigert werden. Dennoch ist die Konfigurationsprozedur für die root-Partition, die Partition usr und den Swap-Bereich komplexer als bei anderen Spiegelplatten. U42128-J-Z100-4 61 Volume Manager (RCVM) /dev/vd/vdisk6 © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm Besonderheiten bei gespiegelten root-Platten /dev/vd/vdisk0 /dev/vd/vdisk3 /dev/vd/vdisk1 /dev/vd/vdisk4 / / swap swap /opt /opt /usr /usr /var /var ... ... Bild 8: Beispielkonfiguration einer gespiegelten root-Platte Die Spiegelung der root-Partition, der usr-Partition und des Swap-Bereichs ist nur möglich, wenn alle Pieces der root-Platte ebenfalls gespiegelt werden. Nur dann kann das System unterbrechungsfrei weiterarbeiten, wenn ein Piece der root-Platte ausfällt. Gespiegelte root-Platten werden mit denselben Kommandos konfiguriert und verwaltet wie normale Spiegelplatten auch, jedoch sind in einigen Fällen spezielle Parameter erforderlich. Andere Partitionen wie etwa /var, /opt und /home werden wie normale Spiegelplatten gespiegelt. Sobald das Betriebssystem von einer gespiegelten root-Platte aus gestartet wurde, ist die Plattenkonfiguration nicht mehr modifizierbar. Eine manuelle Deaktivierung sämtlicher Pieces dieser virtuellen Platte ist nicht zulässig. Mindestens eines der Pieces muss immer online sein, da andernfalls das gesamte System ausfallen würde. Für die root-, die usr-Partition und den primären Swap-Bereich muss in die Datei /etc/dktab ein entsprechender Eintrag eingefügt werden. Diese Einträge sind praktisch identisch mit denen einer Spiegelplatte. Sie enthalten jedoch zusätzlich im Feld mit der Typangabe den Subtyp root, usr bzw. swap. Anschließend müssen mit dem Kommando dkconfig -wR die Dateien /mrconfig.1 und /mrconfig.2 erstellt werden. Diese sind für das SystemBoot erforderlich. Sie basieren auf Einträgen in der Datei /etc/dktab. 62 U42128-J-Z100-4 Volume Manager (RCVM) Besonderheiten bei gespiegelten root-Platten Die Einträge für das root-Dateisystem, das /usr-Dateisystem, den primären Swap-Bereich und alle sonstigen Partitionen der root-Platte müssen in der Datei /etc/vfstab modifiziert werden. In dieser Datei werden alle Einträge für physische Platten durch die virtuellen Platten ersetzt. Abschließend muss das physische Piece, das jetzt die korrekten Daten enthält, für die Spiegelplatten definiert werden. Dieses Piece bildet die Datenquelle, von der in einem Catch-Up-Prozess beim nächsten System-Boot die Daten geladen werden, so dass sichergestellt ist, dass alle Pieces der gespiegelten root-Platte gültige Daten enthalten. Hierzu wird das Kommando dkmirror -mn verwendet, in dem n für die Nummer des Piece mit den gültigen Daten steht. Nach dem Neustart des Systems und Beendigung des automatischen Catch-Up-Prozesses sind alle Partitionen der root-Platte gespiegelt. 2.7.1 Beispiel einer gespiegelten root-Platte Das folgende Beispiel illustriert die Spiegelung sämtlicher Partitionen einer root-Platte. Die root-Platte trägt die Bezeichnung /dev/dsk/c0t0d0s0, die Spiegelplatte die Bezeichnung /dev/dsk/c0t1d0s0. Die Partitionstabellen der beiden Platten sind identisch. Prüfen Sie mit Hilfe des Kommandos prtvtoc, ob noch nicht genutzte Partitionen vorhanden sind, die zwecks Speicherung von Statusinformationen als virtuelle Platten des Typs statsv definiert werden können. Sind keine nicht benutzten Partitionen mehr verfügbar, definieren Sie statsv anhand einer relativen Positionsangabe am Ende des SwapBereichs. In den nachfolgenden Schritten ist die Verkleinerung des SwapBereichs näher beschrieben. Um die Partitionstabelle der Spiegelplatte entsprechend der Partitionstabelle der Root-Platte einzurichten, sind folgende Kommandos einzugeben: prtvtoc /dev/dsk/c0t1d0s2 | fmthard -s - /dev/rdsk/c1t1d0s2 Überprüfen Sie das Ergebnis mit Hilfe von prtvtoc /dev/dsk/c1t1d0s2 und vergleichen Sie es mit der Ausgabe des Kommandos prtvtoc /dev/dsk/c0t2d0s2. V Achtung Wenn Sie den Swap-Bereich für das statsv-Gerät verwenden, darf diese Partition nicht auch als Dump-Gerät für Solaris verwendet werden. Andernfalls könnten die vstatsv-Informationen zerstört werden wenn ein umfangreicher Dump erstellt wird. Verwenden Sie dumpadm um das Dump-Gerät einer anderen physischen Partition zuzuweisen. U42128-J-Z100-4 63 Volume Manager (RCVM) 1. Um die root-Platte für die Spiegelung vorzubereiten, führen Sie das nachstehende Kommando aus, um die Struktur der aktuellen root-Plattenpartition festzustellen: # prtvtoc /dev/dsk/c0t0d0s0 /dev/dsk/c0t0d0s0 partition map © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm Besonderheiten bei gespiegelten root-Platten Dimensions: 512 bytes/sector 420 sectors/track 5 tracks/cylinder 2100 sectors/cylinder 8489 cylinders 8487 accessible cylinders Flags: 1: unmountable 10: read-only Unallocated space: First Sector Sector Count 6295800 260400 17665200 157500 Partition Directory 0 2 1 4 2 5 3 7 4 3 5 0 6 4 7 8 Tag 00 00 00 00 01 00 00 00 Last Sector 6556199 17822699 Flags First Sector 0 1050000 0 3147900 13108200 5245800 15206100 6556200 1050000 2097900 17822700 2097900 2097900 1050000 2459100 6552000 Sector Count Last Sector 1049999 3147899 17822699 5245799 15206099 6295799 17665199 13108199 Mount / /var /opt /usr /export/home In diesem Beispiel: root, swap, /usr, /var.In diesem Beispiel müssen /opt und /export/home gespiegelt werden, um eine vollständige Spiegelung der root-Platte zu erzielen. Beachten Sie außerdem, dass Slice 1 nicht benutzt wird und daher für die Speicherung der Statusinformationen für die gespiegelten Platten verfügbar ist. Diese Slice ist größer als erforderlich. Benötigt werden mindestens 16 KB. 64 U42128-J-Z100-4 Volume Manager (RCVM) Besonderheiten bei gespiegelten root-Platten In dem folgenden Beispiel für das Layout einer root-Platte sind keine nicht benutzten Partitionen enthalten: # prtvtoc /dev/dsk/c0t0d0s0 /dev/dsk/c0t0d0s0 partition map Dimensions: 512 bytes/sector 420 sectors/track 5 tracks/cylinder 2100 sectors/cylinder 8489 cylinders 8487 accessible cylinders Flags: 1: unmountable 10: read-only Unallocated space: First Sector Sector Count 6295800 260400 17665200 157500 Partition Directory 0 2 1 4 2 5 3 7 4 3 5 0 6 4 7 8 Tag 00 00 00 00 01 00 00 00 Last Sector 6556199 17822699 Flags 0 1050000 0 3147900 13108200 5245800 15206100 6556200 First Sector Sector Count 1050000 2097900 17822700 2097900 2097900 1050000 2459100 6552000 Last Sector 1049999 3147899 17822699 5245799 15206099 6295799 17665199 13108199 Mount / /usr/openwin /var /opt /usr /export/home In diesem Fall müssen wir die Swap-Partition in zwei vdisks, eine für „statsv“ und eine für „swap“, untergliedern, da für die Speicherung der Statusinformationen keine freien Partitionen zur Verfügung stehen. U42128-J-Z100-4 65 Volume Manager (RCVM) 2. Die Datei /etc/vfstab muss bearbeitet werden. Alte Einträge (diese alten Einträge sollten Sie speichern, indem Sie in Spalte 1 das Kommentarzeichen “#”eintragen): #/dev/dsk/c0t0d0s4 #/dev/dsk/c0t0d0s0 no #/dev/dsk/c0t0d0s6 no #/dev/dsk/c0t0d0s3 no #/dev/dsk/c0t0d0s7 2 yes#/dev/dsk/c0t0d0s5 yes #/dev/dsk/c0t0d0s1 2 yes - © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm Besonderheiten bei gespiegelten root-Platten - - swap - no /dev/rdsk/c0t0d0s0 / ufs 1 /dev/rdsk/c0t0d0s6 /usr ufs 1 /dev/rdsk/c0t0d0s3 /var ufs 1 /dev/rdsk/c0t0d0s7 /export/home ufs /dev/rdsk/c0t0d0s5 /opt ufs 2 /dev/rdsk/c0t0d0s1 /usr/openwin ufs Neue Einträge: /dev/vd/vdisk4 no /dev/vd/vdisk0 no /dev/vd/vdisk6 no /dev/vd/vdisk3 no /dev/vd/vdisk7 2 yes/dev/vd/vdisk5 yes /dev/vd/vdisk1 2 yes- - - swap - /dev/vd/rvdisk0 / ufs 1 /dev/vd/rvdisk6 /usr ufs 1 /dev/vd/rvdisk3 /var ufs 1 /dev/vd/rvdisk7 /export/home ufs /dev/vd/rvdisk5 /opt 2 /dev/vd/rvdisk1 /usr/openwin ufs ufs In dem vorstehenden Beispiel handelt es sich bei /usr/openwin um eine eingehängte Partition. Im Falle, dass Slice 1 nicht benutzt wird, ist dieser Eintrag nicht vorhanden. 66 U42128-J-Z100-4 Volume Manager (RCVM) Besonderheiten bei gespiegelten root-Platten 3. Anschließend muss die Datei /etc/dktab erstellt oder bearbeitet werden. In dem nachstehenden Beispiel für die Datei /etc/dktab kann eine der Slices (in diesem Fall s1) der root-Platte für die Speicherung von Statusinformationen genutzt werden: /dev/vd/vdisk15 statsv /dev/dsk/c0t0d0s1 /dev/dsk/c0t1d0s1 2 /dev/vd/vdisk0 mirror,root /dev/dsk/c0t0d0s0 /dev/dsk/c0t1d0s0 2 /dev/vd/vdisk4 mirror,swap /dev/dsk/c0t0d0s4 /dev/dsk/c0t1d0s4 2 /dev/vd/vdisk6 mirror,usr /dev/dsk/c0t0d0s6 /dev/dsk/c0t1d0s6 # Entry for /var /dev/vd/vdisk3 mirror /dev/dsk/c0t0d0s3 /dev/dsk/c0t1d0s3 # Entry for /opt /dev/vd/vdisk5 mirror /dev/dsk/c0t0d0s5 /dev/dsk/c0t1d0s5 # Entry for /export/home /dev/vd/vdisk7 mirror /dev/dsk/c0t0d0s7 /dev/dsk/c0t1d0s7 U42128-J-Z100-4 2 2 2 2 67 Volume Manager (RCVM) Sind keine freien Partitionen vorhanden, die für die statsv-Informationen genutzt werden können, teilen wir die swap-Partition in zwei vdisks, jeweils eine für "statsv" und eine für "swap". In diesem Fall enthält die Datei /etc/dktab in etwa folgende Einträge: /dev/vd/vdisk15 statsv /dev/dsk/c0t0d0s4 /dev/dsk/c0t1d0s4 © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm Besonderheiten bei gespiegelten root-Platten 2097772 2097772 /dev/vd/vdisk0 mirror,root /dev/dsk/c0t0d0s0 /dev/dsk/c0t1d0s0 2 /dev/vd/vdisk4 mirror,swap /dev/dsk/c0t0d0s4 /dev/dsk/c0t1d0s4 k /dev/vd/vdisk6 mirror,usr /dev/dsk/c0t0d0s6 /dev/dsk/c0t1d0s6 2 # Entry for /var /dev/vd/vdisk3 mirror /dev/dsk/c0t0d0s3 /dev/dsk/c0t1d0s3 # Entry for /opt /dev/vd/vdisk5 mirror /dev/dsk/c0t0d0s5 /dev/dsk/c0t1d0s5 # Entry for /export/home /dev/vd/vdisk7 mirror /dev/dsk/c0t0d0s7 /dev/dsk/c0t1d0s7 # Entry for /usr/openwin /dev/vd/vdisk1 mirror /dev/dsk/c0t0d0s1 /dev/dsk/c0t1d0s1 68 2 0 0 128 128 2097771 2097771 2 2 2 2 2 U42128-J-Z100-4 Volume Manager (RCVM) Besonderheiten bei gespiegelten root-Platten 4. Die Konfiguration der gespiegelten root-, /usr- und Swap-Platte muss mit dem nachstehenden Kommando in die Dateien /mrconfig.1 und /mrconfig.2 eingetragen werden: # dkconfig -wR 5. Danach werden alle nicht gruppierten virtuellen Platten wie folgt konfiguriert: # dkconfig -vwac 6. Der Status der neuen Spiegelplatten wird folgendermaßen initialisiert: # for i in 0 1 3 4 5 6 7> do > dkmirror -d0 -d1 /dev/vd/vdisk$i > dkmirror -m0 /dev/vd/vdisk$i > done V Achtung Haben Sie die falsche Spiegelplatte als Master-Piece spezifiziert, besteht die Gefahr, dass alle Daten verloren gehen. 7. Um von der zweiten Platte ein alternatives Boot ausführen zu können, muss die Platte als Boot-Gerät im OBP des Systems bekannt sein. Ändern Sie die Boot-Parameter mit dem Kommando eeprom wie folgt: eeprom boot-device=rcvm_p0 rcvm_p1” eeprom use-nvramrc?=true eeprom nvramrc=”devalias rcvm_p0 \ /pci@94,4000/scsi@2/disk@1,0:a \ devalias rcvm_p1 /pci@94,4000/scsi@2/disk@2,0:a” Bei Verwendung des Kommandos dumpadm muss als Dump-Gerät eines der Swap-Gerät-Pieces eingestellt sein. Wenn das Dump-Gerät aufgrund eines I/O-Fehlers nicht zur Verfügung steht, können Sie mit dumpadm auf das zweite Piece des Swap-Geräts umschalten. V Achtung In einer Konfiguration in der ein Teil des Swap-Geräts als statsvPartition verwendet wird, verwenden Sie dumpadm um das DumpGerät einer anderen physischen Partition zuzuordnen; andernfalls könnte die statsv Information zerstört werden. Ist rcvm_p0 (Piece 0) der ersten Platte nicht verfügbar, erfolgt das Boot über das zweite Piece. U42128-J-Z100-4 69 Volume Manager (RCVM) 8. Abschließend muss das System mit # init 6 neu gestartet werden. Nach dem Start des Systems wird für alle Spiegelplatten automatisch der Catch-Up-Prozess veranlasst. V Achtung © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm Besonderheiten bei gespiegelten root-Platten Bei der Konfigurierung einer gespiegelten root-Platte bestehen folgende potenzielle Fehlerquellen: 1. Starten Sie den Catch-Up-Prozess keinesfalls, bevor das System neu gestartet wurde. 2. Überzeugen Sie sich, dass Sie das richtige Master-Piece angegeben haben. I Achten Sie unbedingt darauf, nach der Konfigurierung Ihrer vdisk das System mit dem Kommando init 6 neu zu starten. Mit dem SolarisKommando reboot werden die Skripts für die ordnungsgemäße Dekonfiguration der Spiegelplatten nicht ausgeführt, so dass gegebenenfalls ein vollständiges Catch-Up erforderlich ist. 2.7.2 Deaktivierung der root-Spiegelung Dieser Abschnitt geht auf die Deaktivierung und Wiederaktivierung der Spiegelung ein. 2.7.2.1 Deaktivierung Wenn Sie die Spiegelung eines Systems, das mit einer gespiegelten root-Platte arbeitet, deaktivieren wollen, gehen Sie folgendermaßen vor: 1. Kopieren Sie die Datei /etc/vfstab: # cp /etc/vfstab /etc/vfstab.bak Kopieren Sie die Datei /etc/dktab: # cp /etc/dktab /etc/dktab.bak 2. Ändern Sie die Datei /etc/vfstab: Alte Einträge: #/dev/dsk/c0t0d0s4 no #/dev/dsk/c0t0d0s0 1 no - 70 /dev/rdsk/c0t0d0s0 / swap ufs U42128-J-Z100-4 Volume Manager (RCVM) Besonderheiten bei gespiegelten root-Platten #/dev/dsk/c0t0d0s6 /dev/rdsk/c0t0d0s6 /usr 1 no #/dev/dsk/c0t0d0s3 /dev/rdsk/c0t0d0s3 /var 1 no #/dev/dsk/c0t0d0s7 /dev/rdsk/c0t0d0s7 /export/home 2 yes #/dev/dsk/c0t0d0s5 /dev/rdsk/c0t0d0s5 /opt 2 yes #/dev/dsk/c0t0d0s1 /dev/rdsk/c0t0d0s1 /usr/openwin 2 yes /dev/vd/vdisk4 no /dev/vd/vdisk0 /dev/vd/rvdisk0 / 1 no /dev/vd/vdisk6 /dev/vd/rvdisk6 /usr 1 no /dev/vd/vdisk3 /dev/vd/rvdisk3 /var 1 no /dev/vd/vdisk7 /dev/vd/rvdisk7 /export/home 2 yes /dev/vd/vdisk5 /dev/vd/rvdisk5 /opt 2 yes -/dev/vd/vdisk1 /dev/vd/rvdisk1 /usr/openwin ufs 2 yes - ufs ufs ufs ufs ufs swap ufs ufs ufs ufs ufs Neue Einträge: /dev/dsk/c0t0d0s4 no /dev/dsk/c0t0d0s0 1 no /dev/dsk/c0t0d0s6 1 no /dev/dsk/c0t0d0s3 1 no /dev/dsk/c0t0d0s7 2 yes /dev/dsk/c0t0d0s5 2 yes /dev/dsk/c0t0d0s1 2 yes #/dev/vd/vdisk4 no #/dev/vd/vdisk0 1 no #/dev/vd/vdisk6 1 no #/dev/vd/vdisk3 1 no #/dev/vd/vdisk7 U42128-J-Z100-4 - - swap /dev/rdsk/c0t0d0s0 / ufs /dev/rdsk/c0t0d0s6 /usr ufs /dev/rdsk/c0t0d0s3 /var ufs /dev/rdsk/c0t0d0s7 /export/home ufs /dev/rdsk/c0t0d0s5 /opt ufs /dev/rdsk/c0t0d0s1 /usr/openwin ufs - - swap /dev/vd/rvdisk0 / ufs /dev/vd/rvdisk6 /usr ufs /dev/vd/rvdisk3 /var ufs /dev/vd/rvdisk7 /export/home ufs 71 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Besonderheiten bei gespiegelten root-Platten 2 yes #/dev/vd/vdisk5 2 yes #/dev/vd/vdisk1 2 yes - Volume Manager (RCVM) /dev/vd/rvdisk5 /opt ufs /dev/vd/rvdisk1 /usr/openwin ufs Wie Sie sehen, wurden die Kommentarzeichen # in der ersten Spalte der Original-Zeilen gelöscht und statt dessen die Zeilen für die virtuellen Platten mit Kommentarzeichen markiert. 3. Ändern Sie die Datei /etc/dktab, indem Sie in die erste Spalte jeder Zeile das Kommentarzeichen # eintragen: # # # # # # # # # # # # # # # ## # # # /dev/vd/vdisk15 statsv /dev/dsk/c0t0d0s1 /dev/dsk/c0t1d0s1 2 /dev/vd/vdisk0 mirror,root /dev/dsk/c0t0d0s0 /dev/dsk/c0t1d0s0 2 /dev/vd/vdisk4 mirror,swap /dev/dsk/c0t0d0s4 /dev/dsk/c0t1d0s4 2 /dev/vd/vdisk6 mirror,usr /dev/dsk/c0t0d0s6 /dev/dsk/c0t1d0s6 2 Entry for /var /dev/vd/vdisk3 mirror /dev/dsk/c0t0d0s3 /dev/dsk/c0t1d0s3 ## Entry for /opt # /dev/vd/vdisk5 mirror # /dev/dsk/c0t0d0s5 # /dev/dsk/c0t1d0s5 ## Entry for /export/home # /dev/vd/vdisk7 mirror # /dev/dsk/c0t0d0s7 # /dev/dsk/c0t1d0s7 72 2 2 2 U42128-J-Z100-4 Volume Manager (RCVM) Besonderheiten bei gespiegelten root-Platten 4. Ändern Sie vd.conf wie folgt: use_mroot=0 5. Löschen Sie folgende Zeilen aus der Datei /etc/system: forceload: drv/pseudo forceload: drv/sd rootdev:/pseudo/vd@0:vdisk0 6. Starten Sie das System mit folgendem Kommando neu: # init 6 2.7.2.2 Aktivierung Gehen Sie zum Aktivieren der Spiegelung folgendermaßen vor: 1. Kopieren Sie die gespeicherten Dateien /etc/dktab.bak und /etc/vfstab.bak zurück wie folgt: # cp /etc/dktab.bak /etc/dktab# cp /etc/vfstab.bak /etc/vfstab 2. Gehen Sie anschließend folgendermaßen vor: # # # > > > > dkconfig -wRn dkconfig -vwac for i in 0 1 3 4 5 6 7 do dkmirror -d0 -d1 /dev/vd/vdisk$i dkmirror -m0 /dev/vd/vdisk$i done 3. Starten Sie das System neu (# init 6 oder # init 5). Nachdem alle Spiegelplatten im Rahmen des Catch-Up-Prozesses aktualisiert wurden, steht wieder die volle Funktionalität der Spiegelplatte zur Verfügung. U42128-J-Z100-4 73 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Select vdisks 2.8 Volume Manager (RCVM) Select vdisks Dieser Abschnitt erläutert die Eigenschaften von select vdisks, die Hardware, die Konfiguration von select vdisks sowie die Arbeit mit select vdisks. 2.8.1 Eigenschaften von select vdisks Dieser Typ virtueller Platten ist auf SRDF-Konfigurationen von EMC Symmetrix Raid-Boxen zugeschnitten. Eine select vdisk ist eine Spiegelplatte mit besonderen Eigenschaften. Sie hat mehrere Pieces (gewöhnlich zwei). Es kann immer nur auf jeweils ein Piece zugegriffen werden. Das wäre im Fall von SRDF die R1-Seite. Im Falle einer Umschaltung durch SRDF kann das andere Piece mit dem Kommando dkmirror aktiviert werden. Das bis dahin aktive Piece wird zugleich deaktiviert. 2.8.2 Hardware Desaster-Konfiguration mit zwei Knoten und zwei EMC Symmetrix Speichersystemen, die mit SDRF (teilweise) gespiegelt werden. 2.8.3 Konfiguration von select vdisks Neue Syntax für den Eintrag /etc/dktab: /dev/vd/vdisk26 statesave 2 /dev/dsk/c5t0d1s1 /dev/dsk/c5t0d2s1 /dev/vd/vdisk27 select 2 /dev/dsk/c5t0d1s2 /dev/dsk/c5t0d2s2 Man kann auch Gruppen definieren: select,group=127 Diese vdisks können mit dkconfig konfiguriert werden. I Für die spezielle Gruppe muss eine statesave-vdisk existieren. Wenn keine Gruppe angegeben wird, muss eine statsv-Platte definiert werden. 74 U42128-J-Z100-4 Volume Manager (RCVM) 2.8.4 ● Select vdisks Arbeiten mit select vdisks Die vdisks können mit dkconfig gezeigt werden: # dkconfig -lvg127 /dev/vd/vdisk26 512 blocks 'Statesave(OLR)' in 2 pieces piece 0 /dev/dsk/c5t0d1s1[0...35551231] 7 io piece 1 /dev/dsk/c5t0d2s1[0...35551231] 3 io /dev/vd/vdisk27 35551232 blocks 'Select' in 2 pieces piece 0 /dev/dsk/c5t0d1s2[0...35551231] 0 io piece 1 /dev/dsk/c5t0d2s2[0...35551231] 0 io I Sie können auch die Standardwerkzeuge iostat und vmstat von Solaris benutzen, um die statistischen Daten der RCVM-Platten zu betrachten. ● Mit Hilfe von dkmirror kann man kontrollieren, welches Piece gerade aktiviert ist: # dkmirror -lvg127 Statesave disk /dev/vd/vdisk26: ONLINE (in use) piece 0 /dev/dsk/c5t0d1s1 online piece 1 /dev/dsk/c5t0d2s1 online Select disk /dev/vd/vdisk27: ACTIVE piece 0 /dev/dsk/c5t0d1s2 online piece 1 /dev/dsk/c5t0d2s2 disabled (default) ● dkmirror -M piecenumber vdiskname deaktiviert zuerst alle Pieces und versetzt dann das angegebene Piece in den Zustand online. Dies ist nur möglich, wenn die select vdisk zwar konfiguriert, jedoch nicht in Gebrauch ist. ● Die Information, welches Piece aktiviert ist, überlebt einen Neustart. Daher ist ein Statesave-Gerät erforderlich. ● Ein E/A-Fehler beim aktivierten Piece führt nicht zur Deaktivierung des Piece, aber der E/A-Fehler wird an den Aufrufer gemeldet. ● dkmirror -e für eine select vdisk wird abgewiesen und eine Fehlermeldung wird ausgegeben, weil die Zustände enabled und catchup nicht für select vdisks definiert sind. U42128-J-Z100-4 75 3 File Share (RCFS) Dieses Kapitel beschreibt PRIMECLUSTER File Share. Dank dieses optionalen Cluster Foundation-Service kann ein Dateisystem von allen oder mehreren Knoten in einem Cluster gemeinsam genutzt werden. In diesem Abschnitt werden folgende Themen behandelt: ● Der Abschnitt „RCFS-Komponenten“ beschreibt, welche Komponenten für eine RCFS-Konfiguration erforderlich sind. ● Der Abschnitt „Unterschiede zwischen RCFS und NFS“ beschreibt die Vorteile, die RCFS bietet. ● Der Abschnitt „RCFS-Gerätenamen und Major/Minor Device Numbers“ beschreibt, wie identische Gerätenamen und übereinstimmende Major/Minor Device Numbers im gesamten Cluster sichergestellt werden können. ● Im Abschnitt „Knotengruppen“ ist beschrieben, wie Gruppen von Knoten für den RCFS-Server und die RCFS-Clients erstellt werden. ● Der Abschnitt „RCFS-Dateisysteme einhängen“ beschreibt die Funktionsweise des mount-Kommandos in RCFS. ● Im Abschnitt „Automatisches Failover des RCFS-Dateisystem-Servers“ ist erläutert, wie RCFS bei Ausfall eines Servers reagiert. ● Im Abschnitt „RCFS-Dateisysteme aushängen“ ist beschrieben, wie RCFS auf dem RCFS-Server und den RCFS-Clients ausgehängt wird. ● Der Abschnitt „Beispiel für RCFS-Eintrag in /etc/vfstab“ beschreibt, wie das Einhängen von RCFS nach einem Neustart automatisiert werden kann. ● Der Abschnitt „RCFS-Kommandos“ beschreibt RCFS-Verwaltungsbefehle, die im CLI verfügbar sind. U42128-J-Z100-4 77 3.1 RCFS-Komponenten Cluster-Interconnect © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm File Share (RCFS) RCFS-Komponenten Knoten A Primärer RCFS-Server + RCFS-Client Knoten B Knoten C Knoten D RCFS-BackupServer + RCFS-Client RCFS-Client RCFS-Client Storage Area Network Externer PlattenSpeicher Bild 9: Typische RCFS-Konfiguration Wie in Bild 9 gezeigt, besteht eine File Share (RCFS)-Konfiguration aus folgenden Komponenten: ● Cluster-Interconnect ● RCFS-Server-Knoten ● RCFS-Client-Knoten ● Einem externen, für mehrere Hostrechner zugänglichen Plattenspeichergerät Die RCFS-Server-Knoten können über ein Storage Area Network (SAN) auf das externe Plattenspeichergerät zugreifen. Auf diesen Knoten wird das physische Dateisystem eingehängt, das anschließend den RCFS-Client-Knoten über das Cluster-Interconnect logisch zur Verfügung gestellt wird. Da das physische Dateisystem immer nur an einem RCFS-Server eingehängt werden kann, muss das mount-Kommando von RCFS an demjenigen Knoten ausgeführt werden, der als primary server node fungiert. Sowohl auf den RCFS-Client-Knoten als auch auf den RCFS-Server-Knoten wird das logische Dateisystem an demselben Mount-Punkt eingehängt. Die Hochverfügbarkeit von Dateien ist durch redundante Absicherung des Cluster-Interconnect und einen Backup-Server gewährleistet. 78 U42128-J-Z100-4 File Share (RCFS) Unterschiede zwischen RCFS und NFS Der RCFS-Dienst bietet die gesamte Semantik des POSIX-Dateisystems sowie Hochverfügbarkeit und parallelen Zugriff auf ein Dateisystem. Diese RCFSFreigabe bietet eine überprüfte Unterstützung von UFS auf Solaris 9 OE und Solaris 10 OE. RCFS gewährleistet problemlose Verwaltung: ● Knotengruppen werden für Server- und Client-Gruppen genutzt. ● Knotengruppen sind einfach angeordnete Knotenlisten, die mit ngadmin(1M) erstellt werden. ● Im Cluster existiert eine konsistente und permanente Ansicht dieser Gruppen. ● Server-Einhängevorgang sendet Meldungen an Clients. ● An den Clients erfolgt das Einhängen automatisch. ● Keine speziellen Konfigurationsdateien erforderlich (Datei vfstab auf dem Server-Knoten wird benutzt). ● Aushängen auf dem Server bewirkt Aushängen auf allen Knoten. ● Clients können separat ausgehängt werden (beispielsweise durch Herunterfahren mit shutdown). ● Clients können manuell eingehängt werden, sofern nach einem Aushängevorgang erforderlich. 3.2 Unterschiede zwischen RCFS und NFS An dieser Stelle ist auf die unterschiedliche Semantik eines Clusters verglichen mit einem Netzwerk hinzuweisen. In einem Netzwerk gibt es keine aktuelle Mitgliedschaft. Ohne dies kann jedoch ein Netzwerk-Dateisystem nicht immer Reaktionen bereitstellen, wie dies bei einem lokalen Dateisystem der Fall ist. Insbesondere kann NFS keine global einheitliche Ansicht der Daten garantieren. Dateiserver in einem Netzwerk können lediglich in eingeschränktem Umfang Zustandsdaten zu den angeschlossenen Clients pflegen. Dies führt zu einem gewissen Verwaltungsaufwand beispielsweise durch eine separate Open-Service-Close-Sequenz für jede remote Client-Anwendung. RCFS dagegen kann Statusinformationen zu den angeschlossenen Clients pflegen und auf deren aktuelle Daten zugreifen. U42128-J-Z100-4 79 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 RCFS-Gerätenamen und Major/Minor Device Numbers File Share (RCFS) 3.3 RCFS-Gerätenamen und Major/Minor Device Numbers I Auf allen Knoten im Cluster müssen sowohl die Gerätenamen als auch die Major/Minor Device Numbers der Speichergeräte identisch sein. Dies ist beispielsweise mit Hilfe von RCVM zu erreichen, indem in die Datei /etc/name_to_major für den Treiber vd ein eindeutiger Eintrag eingefügt wird. Die Minor Device Numbers für vdisks wird anhand von Benennungskonventionen generiert (wenn der Name vdisk123 lautet, wird die Minor Device Number 123 vergeben). Zum Ändern der Datei /etc/name_to_major ersetzen Sie am Ende der Datei den Eintrag major_number, wobei major_number für die ausgewählte, von RCVM zu benutzende Major Device Number steht: vd major_number Die major_number darf noch auf KEINEM der Knoten im Cluster verwendet werden. Um die Änderungen in der Datei /etc/name_to_major in Kraft zu setzen, müssen Sie das System mit init 6 oder shutdown neu starten. I Verwenden Sie keinesfalls das Kommando reboot. Beim Kommando reboot werden die rc-Skripts nicht ausgeführt, so dass Ihr System in den LEFTCLUSTER-Zustand wechselt. Die Änderung der major_number muss erfolgen, bevor mit der Installation des RCVM begonnen wird (fügen Sie vd eindeutige_major_number in /etc/name_to_major ein). Ist der RCVM bereits installiert, führen Sie pkgrm SMAWvd aus. Achten Sie dabei darauf, dass die Dateien /dev/vd/config und die vdisk-Gerätenamen /dev/vd/vdiskn und /dev/vdisk/rdiskn gelöscht werden. Nach Ausführung von pkgadd sollten die Gerätenamen wieder mit geänderter Major Device Number zur Verfügung stehen. 3.4 Knotengruppen Wie in Bild 9 dargestellt gibt es zwei Arten von RCFS-Knoten: Server-Knoten und Client-Knoten. Zur Identifizierung eines solchen Knotens als Serverund/oder Client-Knoten dient in RCFS das Kommando ngadmin(1M). Mit dem Kommando ngadmin(1M) wird eine Tabelle mit Namen von Knotengruppen und den entsprechenden Gruppenmitgliedern verwaltet. Dabei sind die Informatio- 80 U42128-J-Z100-4 File Share (RCFS) RCFS-Dateisysteme einhängen nen, welcher Knoten Mitglied welcher Knotengruppe ist, im gesamten Cluster konsistent. Nähere Einzelheiten zu Knotengruppen enthält die Manual-Page zu ngadmin(1M). Zum Erstellen einer Knotengruppe geben Sie nachstehendes Kommando ein: # ngadmin -c servernodes nodeA nodeB # ngadmin -c clientnodes nodeA nodeB nodeC nodeD wobei servernodes der Name einer Knotengruppe ist, „nodeA“ und „nodeB“ Mitglieder einer Knotengruppe bezeichnen,... clientnodes der Name einer zweiten Knotengruppe mit den Mitgliedern nodeA, nodeB, nodeC und nodeD ist. Zum Austauschen einer Knotengruppenkonfiguration geben Sie folgende Kommandos ein: # ngadmin -c servernodes nodeC nodeD # ngadmin -r servernodes nodeA nodeB Hierdurch werden die ursprünglichen Mitglieder nodeC und nodeD der Knotengruppe servernodes aus der Gruppe gelöscht und die neuen Mitglieder nodeA und nodeB der Knotengruppe servernodes hinzugefügt. Die folgenden Knotengruppen sind vordefiniert: %all – alle funktionsfähigen Knoten, alle werden automatisch eingehängt %nodename – Knoten auf dem das Kommando zum Einhängen ausgeführt wird %noautomount – alle funktionsfähigen Knoten, keiner wird automatisch eingehängt 3.5 RCFS-Dateisysteme einhängen RCFS-Dateisysteme können UFS als physisches Dateisystem (Physical File System, PFS) verwenden. Die RCFS-Dateisysteme werden dadurch eingehängt, dass Sie ein mount(1M)-Kommando auf demjenigen Knoten ausführen, der als Server für das Dateisystem eingesetzt werden soll. Sobald auf diesem Server das physische Dateisystem eingehängt und RCFS darauf aufgesetzt wurde, wird die Einhängeinformation an alle übrigen Knoten im System verteilt. Nachdem die übrigen Knoten im System diese Informationen erhalten haben, wird auf denjenigen Knoten, die als Client-Knoten des Dateisystems fungieren sollen, das Dateisystem automatisch als RCFS-Client-Dateisystem eingehängt. I Wenn Sie für den Server-Einhängevorgang die vordefinierte Client-Knotengruppe %noautomount angeben, wird der automatische Client-Einhängevorgang nicht durchgeführt. U42128-J-Z100-4 81 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 RCFS-Dateisysteme einhängen File Share (RCFS) In Fällen, in denen an einem Client-Knoten ein RCFS-Dateisystem ausgehängt wurde und dort wieder eingehängt werden muss, bewirkt ein auf diesem Client ausgeführtes mount(1M)-Kommando, dass das Dateisystem eingehängt und wieder als RCFS-Client-Dateisystem genutzt wird. Dieses automatische Einhängen auf den Clients erfolgt immer auf demselben Mount-Punkt-Pfad, der auch für den Server gilt. Beim Mounten der Clients mit der Befehlszeile, muss derselbe Mount-Punkt-Pfad wie beim Server verwendet werden. I Benutzen Sie das folgende Kommando, um eine Datei manuell einzu- hängen, wenn %noautomount gesetzt ist oder wenn das Dateisystem auf dem Client manuell ausgehängt wurde: # mount -F rcfs server_nodegroupname:server_mount_point mount_point Zum Einhängen der in Bild 9 dargestellten RCFS-Konfiguration auf dem Knoten „nodeA“ ist folgendes Kommando einzugeben: # mount -F rcfs -opfs=ufs,svr=servernodes,cli=clientnodes /dev/dsk/c1t122d1s0 /database In diesem mount-Kommando besagt -F rcfs, dass dieses Dateisystem als File Share eingehängt werden soll. Die einzelnen Optionen werden nach dem Parameter -o angegeben. In obigem Beispielkommando steht pfs=ufs für das physische Dateisystem (pfs) UFS. Knoten, die über einen physischen Zugang zu dem externen Plattenspeicher verfügen, sind Mitglieder der durch die Option svr=servernodes spezifizierten Knotengruppe. Wenn diese Option nicht spezifiziert wird, wird die vordefinierte Knotengruppe, die nur den Knoten umfasst, auf dem das Kommando mount(1M) ausgeführt wurde (%nodename), implizit als der server_nodegroupname verwendet. Ähnlich werden die Knoten, die als Clients fungieren werden und an denen das Einhängen automatisch erfolgt, mit der Option cli=clientnodes angegeben. Wenn alle Knoten als Clients mit automatischem Einhängen dienen sollen, kann die Option cli=clientnodes entfallen. – Wenn diese Option nicht angegeben wird, dann wird die vordefinierte Knotengruppe, die alle Knoten im System enthält, die sich aktuell im Zustand UP befinden, (%all) implizit als Client-Knotengruppe verwendet. – Die vordefinierte Knotengruppe %noautomount enthält alle Knoten im System, die sich aktuell im Zustand UP befinden, doch erfolgt das Einhängen an den Clients nicht automatisch, wenn sie als Client-Knotengruppe verwendet wird. 82 U42128-J-Z100-4 File Share (RCFS)Automatisches Failover des RCFS-Dateisystem-Servers Mit /dev/dsk/c1t122d1s0 wird das spezifische Gerät für das physische Gerät definiert.Bei /database handelt es sich um den Mount-Punkt, an dem das RCFS-Gerät an allen Knoten eingehängt wird. Der Eintrag /etc/mnttab eines eingehängten RCFS-Dateisystems gibt an, ob der lokale Knoten ein Server- oder Client-Knoten ist: ● Auf dem Server-Knoten zeigt die Gerätekomponente im Eintrag mnttab das Block-Gerät (block special device) des physischen Dateisystems. ● Auf dem Client-Knoten hat die Gerätekomponente im Eintrag mnttab die Gestalt server_node_group:server_mount_point. Die Komponente der Einhänge-Optionen des Eintrags mnttab enthält eine Status-Option, die den aktuellen Zustand des RCFS-Dateisystems angibt: 2 = AVAILABLE, 3 = SERVER_DOWN, 5 = FAILOVER_FAILED. I Beachten Sie, dass die Reihenfolge in der Server-Knotengruppe ver- wendet wird, um die Reihenfolge für das Einhängen von Failovers festzulegen. Das Kommando zum Einhängen des RCFS-Dateisystems muss auf dem ersten Server-Knoten in der Knotengruppe „servernodes“ (d. h. dem primären Server für dieses RCFS-Dateisystem) eingegeben werden. I Der primäre Server (bzw. der Failover-Server nach Einhängen des Failovers) ist ein impliziter RCFS-Client für das eingehängte RCFS-Dateisystem (sogenannter client at server). 3.6 Automatisches Failover des RCFSDateisystem-Servers Bei Ausfall eines Server-Knotens erfolgt automatisch ein Failover, so dass der in der Server-Knotengruppe auf den ausgefallenen Knoten folgende Knoten zum Failover-Server wird. Dieser neue Server-Knoten führt automatisch fsck(1M) aus, hängt sich implizit in das Dateisystem ein und resynchronisiert den Status des Dateisystems mit den Client-Knoten. Bei Ausfall des ServerKnotens blockieren die Client-Knoten alle Operationen, die einen Server benötigen so lange, bis das Dateisystem auf einem neuen Server eingehängt ist und die Client-Knoten ihren jeweiligen Zustand mit dem Server synchronisiert haben. U42128-J-Z100-4 83 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 RCFS-Dateisysteme aushängen 3.7 File Share (RCFS) RCFS-Dateisysteme aushängen Wenn das Kommando umount(1M) zum Aushängen eines RCFS-Dateisystems auf dem RCFS-Dateisystem-Server ausgeführt wird, wird automatisch auf allen Client-Knoten das Dateisystem ausgehängt, bevor dies auf dem Server selbst geschieht. Hierfür muss der Server gesperrt werden und auf Meldungen der einzelnen Clients warten, dass das Aushängen des Dateisystems erfolgreich vorbereitet wurde oder dass auf dem betreffenden Client das Dateisystem nicht ausgehängt werden kann (weil es beispielsweise gerade genutzt wird). Kommt von allen Clients die Rückmeldung, dass das Dateisystem ausgehängt werden kann, wird es auf Server und Clients ausgehängt. Meldet einer der Clients, dass das Aushängen nicht möglich ist, kann dies weder auf dem Server noch auf einem der übrigen Clients erfolgen, d. h., das Aushängekommando schlägt fehl. Clients, auf denen das Dateisystem nicht ausgehängt werden kann, senden eine entsprechende Warnmeldung an die Konsole und protokollieren einen Fehler. Wenn Sie das Kommando umount(1M) auf einem Client-Knoten verwenden, um ein RCFS-Dateisystem auszuhängen, so wird das Dateisystem nur auf diesem Client-Knoten ausgehängt. 3.8 Beispiel für RCFS-Eintrag in /etc/vfstab Die einfachste Möglichkeit, für identische Gerätenamen in einem Cluster zu sorgen, bietet die Verwendung eines Datenträger-Managers wie etwa RCVM. Dabei können die Namen der zugrundeliegenden physischen Platten auf den verschiedenen Server-Knoten durchaus unterschiedlich sein (aufgrund der unterschiedlichen Controller-Konfiguration), jedoch werden sie in der vdiskKonfiguration jeweils einem logischen Gerät eindeutig zugeordnet, das über einen eindeutigen logischen Gerätenamen angesprochen werden kann. 84 U42128-J-Z100-4 File Share (RCFS) RCFS-Kommandos Um dafür zu sorgen, dass ein RCFS-Dateisystem in einem Cluster permanent verfügbar ist, müssen Sie auf dem primären Server-Knoten in /etc/vfstab einen Eintrag wie nachstehend dargestellt einfügen: #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/vd/vdisk0 /dev/vd/rvdisk0 /database_ufs rcfs 2 yes pfs= ufs, svr=servernodes,cli=clientnodes /dev/vd/vdisk1 /dev/vd/rvdisk1 /database_ufs_2 rcfs 2 yes pfs=ufs,svr=servernodes,cli=clientnodes 3.9 RCFS-Kommandos Dieser Abschnitt beschreibt RCFS-Verwaltungsbefehle, die im CLI verfügbar sind. 3.9.1 rcfs_fumount Mit dem Kommando rcfs_fumount kann auf allen Clients, auf denen das angegebene RCFS-Dateisystem eingehängt ist, das Aushängen erzwungen werden, so dass alle zu diesem Zeitpunkt geblockten Dateisystemvorgänge fehlschlagen. Dabei darf für das Dateisystem kein aktueller Server vorhanden sein und müssen alle möglicherweise als Ersatz-Server bei einem Failover in Frage kommenden Server ausgefallen sein, damit das Aushängen der Clients erfolgreich erzwungen werden kann. Alle Server müssen sich im Zustand DOWN befinden bzw. alle Failover-Versuche müssen fehlgeschlagen sein. I rcfs_fumount ändert den Status der Client-Knoten dergestalt, dass das Dateisystem ausgehängt werden muss, bevor es wieder zur Verfügung gestellt werden kann. Wenn das Kommando fehlschlägt, sollte der Systemverwalter die angegebenen Operationen durchführen, um die Arbeitsverzeichnisse der Prozesse zu löschen oder zu ändern, die den Fehlschlag verursacht haben. U42128-J-Z100-4 85 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 RCFS-Kommandos File Share (RCFS) rcfs_fumount mount_point I rcfs_fumount ist nicht dafür vorgesehen, ein Aushängen beim Auftreten der Meldung file system busy zu erzwingen. I rcfs_fumount schlägt auf einem oder mehreren Knoten fehl, wenn dort noch Prozesse ablaufen, die auf das Dateisystem zugreifen. Verursacht wird dieses Problem häufig von Prozessen, die ein Arbeitsverzeichnis auf dem Ziel-Dateisystem haben. Wenn derartige Prozesse erkannt werden, erscheinen auf der Konsole und in der Datei /var/adm/messages Meldungen ähnlich der Folgenden: Notice: pid nnnn has working directory in /mount_point Notice: Forced unmount of /mount_point failed 3.9.2 rcfs_list Wenn das Kommando mount(1M) ohne weitere Optionen eingegeben wird, wird eine Liste aller eingehängten Dateisysteme ausgegeben, für die in der Datei mnttab Einträge enthalten sind. Die Datei mnttab enthält ausschließlich Einträge für Dateisysteme, die auf dem Knoten eingehängt sind, auf dem die Datei gespeichert ist. Entsprechend ergeben die mit dem Kommando mount(1M) abgerufenen Informationen zu eingehängten Dateisystemen keine generelle Übersicht über die insgesamt eingehängten RCFS-Dateisysteme (d. h., die Ausgabe des Kommandos mount(1M) zeigt keinerlei Informationen zu RCFS-Dateisystemen, die für Knotengruppen eingehängt wurden, in denen der Knoten, auf dem das Kommando ausgeführt wurde, nicht enthalten ist. Ebenso zeigt die Ausgabe keinerlei Informationen zu Clients, auf denen das Kommando mount(1 M) ausgeführt und das RCFS-Dateisystem aufgrund von Fehlerbedingungen nicht eingehängt werden konnte). Ziel war jedoch, den Benutzern umfangreichere Informationen zu den eingehängten RCFS-Dateisystemen bereitzustellen, daher wurde rcfs_list in RCFS aufgenommen, das zusätzliche Informationen liefert. rcfs_list [-c][-e][-u] [-m mntpt] [-n nodename] 86 U42128-J-Z100-4 File Share (RCFS) RCFS-Kommandos Für das Kommando rcfs_list können folgende Optionen spezifiziert werden: -c Liste alle Client-Mount-Vorgänge auf (beinhaltet -e und -u). -e Liste Client-Mount-Vorgänge für alle Clients auf, an denen beim letzten Mount-Versuch Fehler aufgetreten sind. -u Liste Client-Mount-Vorgänge für alle Clients auf, an denen Dateisysteme ausgehängt wurden. -m mntpt Hier werden nur Mount-Vorgänge ausgegeben, für die mntpt als Mount-Punkt definiert ist. -n nodename Liste ausschließlich die Mount-Vorgänge auf den betreffenden Knoten. Information zu Server-Einhängevorgängen: Die Ausgabe des Kommandos rcfs_list enthält immer nachstehende Informationen für alle bzw. die ausgewählten (siehe Optionen -n und -m) RCFS-Server-Einhängevorgänge im System: special Die spezifische Gerätedatei, die eingehängt ist. servernode Der Name des Knotens, der derzeit als Server für das Dateisystem dient. mntpt Der Mount-Punkt, an dem das Dateisystem eingehängt ist. svrng Die Server-Knotengruppe für das Dateisystem (cf. mount_rcfs(1M)). clont Die Client-Knotengruppe für das Dateisystem (cf. mount_rcfs(1M)). state Der Zustand des Dateisystem-Mount-Vorgangs (AVAILABLE, SERVER_DOWN, FAILOVER_STARTED, FAILOVER_FAILED, UNMOUNT_STARTED). fstype Der Dateisystem-Typ für das PFS (ufs). U42128-J-Z100-4 87 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 RCFS-Kommandos File Share (RCFS) mntoptions Die Zeilenoption des Kommandos mount für das physische Dateisystem, die beim Mounten des Servers benutzt wurden. time Datum und Uhrzeit der letzten Zustandsänderung für das Mounten des Dateisystems. errormsg Eine Fehlermeldung, wenn die Zustandsangabe auf eine Störung hinweist. Information zu Client-Einhängevorgängen: Wenn für das Kommando rcfs_list die Optionen -c, -e bzw. -u angegeben wurden, werden für die ausgewählten RCFS-Client-Einhängevorgänge im System folgende Informationen gezeigt. special Die spezifische Gerätedatei, die eingehängt ist. clientnode Der Name des Client-Knotens. mntpt Der Mount-Punkt, an dem das Dateisystem eingehängt ist. state Der Zustand des Client-Mount-Vorgangs (MOUNTED, UNMOUNTED, MOUNT_FAILED, CLIENT_DISABLED). time Datum und Uhrzeit der letzten Zustandsänderung für das Mounten des Dateisystems. errormsg Eine Fehlermeldung, wenn die Zustandsangabe auf eine Störung hinweist. I Das Kommando rcfs_list nutzt Ressourcen, die während der Switchover- bzw. Failover-Verarbeitung gesperrt sind. Entsprechend wird das Kommando rcfs_list erst ausgeführt, wenn diese gesperrten Ressourcen zur Verfügung stehen. 88 U42128-J-Z100-4 File Share (RCFS) 3.9.3 RCFS-Kommandos rcfs_switch Das Kommando rcfs_switch hat zwei Funktionen, je nach dem aktuellen Zustand des angegebenen Mount-Punkts für das rcfs-Dateisystem: rcfs_switch mount_point [target_node] switchover: Wenn sich das angegebene rcfs-Dateisystem im Zustand AVAILABLE befindet, wird mit dem Kommando rcfs_switch der Server-Mount-Vorgang (cf. mount_rcfs(1M)) für das eingehängte rcfs-Dateisystem, das durch mount_point spezifiziert ist, von dem aktuellen Server auf den definierten neuen Server target_node umgeschaltet. Wurde kein target_node angegeben, gilt der lokale Knoten als neuer Server. Entspricht der angegebene target_node dem aktuellen Server, wird nichts veranlasst. failover: Wenn der aktuelle Zustand des angegebenen rcfs-Dateisystems SERVER_DOWN oder FAILOVER_FAILED lautet, veranlasst das Kommando rcfs_switch ein Failover des eingehängten rcfsDateisystems, das durch mount_point spezifiziert ist, auf den target_node. Wenn kein target_node angegeben wurde, gilt der lokale Knoten als Failover-Server. I Die Dateisystem-Puffer auf allen Knoten müssen synchron bereinigt werden, bevor das rcfs-Dateisystem umgeschaltet werden kann. Die für das Bereinigen der Puffer erforderliche Zeit ist abhängig von der Menge der asynchron eingetragenen Daten. Um die Umschaltzeit möglichst kurz zu halten, sollte das rcfs-Dateisystem nicht bei hoher Systembelastung umgeschaltet werden. I Wenn das rcfs-Dateisystem mit einer bestimmten Server-Knoten- gruppe eingehängt wird (cf. mount_rcfs(1M)), muss der target_node ebenfalls Mitglied der betreffenden Server-Knotengruppe sein. Das Kommando rcfs_switch arbeitet synchron zum zugewiesenen Server target_node und wartet ab, bis der neue Server den Zustand des rcfs-Dateisystems entweder auf AVAILABLE oder auf FAILOVER_FAILED umschaltet. Wenn die Umschalt- oder Failover-Anforderung des angegebenen rcfs-Dateisystems fehlschlägt, in den Zustand FAILOVER_FAILED schaltet und kein Failover-Server in der zugehörigen Server-Knoten-Gruppe festgelegt ist (cf. mount_rcfs(1M)), kann das rcfs-Dateisystem durch eine weitere FailoverAnforderung reaktiviert oder mit Hilfe des Kommandos rcfs_fumount(1M) ausgehängt werden. U42128-J-Z100-4 89 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 RCFS-Kommandos File Share (RCFS) Scheitert die Switchover- bzw. Failover-Anforderung für das angegebene rcfDateisystem und wechselt in den Zustand FAILOVER_FAILED und es ist kein Failover-Server in der zugehörigen Server-Knotengruppe angegeben (s. „mount_rcfs“ auf Seite 92), dann kann das rcf-Dateisystem durch eine weitere Failover-Anforderung reaktiviert oder mit Hilfe des Kommandos rcfs_umount(1M) ausgehängt werden. 90 U42128-J-Z100-4 4 Manual-Pages Dieses Kapitel enthält eine Liste der online verfügbaren Manual-Pages für CCBR, CF, CFS, CIP, CPAT, den Monitoring-Agenten, PAS, RCVM, PCS, Resource Database, RMS, RMS Wizards, SCON, SF, SIS, und Web-Based Admin View. Mit folgendem Kommando können Sie eine Manual-Page aufrufen: $ man man_page_name 4.1 CCBR Systemverwaltung cfbackup Cluster-Konfigurationsdaten für einen PRIMECLUSTER Knoten speichern cfrestore Gespeicherte Cluster-Konfigurationsdaten für einen PRIMECLUSTER Knoten wiederherstellen 4.2 CF Systemverwaltung cfconfig Knoten für einen PRIMECLUSTER Cluster konfigurieren oder aus der Konfiguration entfernen cfrecon Die von einem PRIMECLUSTER-Knoten verwendeten Cluster-Interconnects dynamisch rekonfigurieren cfregd Dämon für die CF-Registersynchronisation cfset Einträge der Datei /etc/default/cluster.config im CF-Modul anwenden oder ändern U42128-J-Z100-4 91 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-manpages.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Manual-Pages CFS cftool Knotenkommunikationsstatus für einen Knoten oder den Cluster drucken rcqconfig Quorum konfigurieren oder starten rcqquery Quorum-Status für den Cluster ermitteln 4.3 CFS fsck_rcfs Konsistenz des Dateisystems kontrollieren und interaktive Reparatur mount_rcfs RCFS-Dateisysteme einhängen rcfs_fumount Eingehängtes RCFS-Dateisystem erzwungen aushängen rcfs_list Status der eingehängten RCFS-Dateisysteme auflisten rcfs_switch Manuelles Switchover oder Failover eines RCFS-Dateisystems ngadmin Dienstprogramm für die Verwaltung von Knotengruppen cfsmntd Dämon zum Einhängen des RCFS 4.4 CIP Systemverwaltung cipconfig CIP 2.0 starten bzw. beenden ciptool CIP-Informationen zu lokalen und entfernten Knoten im Cluster abrufen 92 U42128-J-Z100-4 Manual-Pages CPAT Dateiformat cip.cf Format der CIP-Konfigurationsdatei 4.5 CPAT Systemverwaltung cluster_uninstall Entfernen der PRIMECLUSTER-Software vom System 4.6 Monitoring-Agent Systemverwaltung clrcimonctl RCI-Monitor-Agent-Dämon starten, anhalten oder neu starten und Präsenz des Dämons zeigen cldevparam Ändert oder zeigt die einstellbaren Parameter des RCI/RCCU-Monitoring-Agenten clrccumonctl Konsolen-Monitor-Agent-Dämon starten, anhalten oder neu starten und Präsenz des Dämons zeigen clrccusetup Registriert, ändert, löscht oder zeigt Konsoleninformation. 4.7 PAS Systemverwaltung mipcstat MIPC-Statistik clmstat CLM-Statistik U42128-J-Z100-4 93 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-manpages.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Manual-Pages RCVM 4.8 RCVM I (Nicht in allen Ländern erhältlich) Systemverwaltung dkconfig Dienstprogramm für die Konfiguration virtueller Platten dkmigrate Dienstprogramm für die Migration virtueller Platten vdisk Treiber für virtuelle Platten dkmirror Dienstprogramm für die Verwaltung von Spiegelplatten Dateiformat dktab Konfigurationsdatei für virtuelle Platten 4.9 PCS Systemverwaltung pcstool Verändert PCS-Konfigurationen auf der Befehlszeile pcscui Zeichenorientierte Schnittstelle für PCS pcs_reinstall Hilfsprogramm für die Re-integration von PCS mit abhängigen Produkten 94 U42128-J-Z100-4 Manual-Pages 4.10 Ressourcendatenbank Ressourcendatenbank I Fügen Sie /etc/opt/FJSVcluster/man zur Umgebungsvariablen MANPATH hinzu, um eine Manual-Page der Ressourcendatenbank zu zeigen Systemverwaltung clautoconfig Automatische Ressourcenregistrierung ausführen clbackuprdb Ressourcendatenbank speichern clexec Remote-Kommando ausführen cldeldevice Mit der automatischen Ressourcenregistrierung registrierte Ressource löschen clinitreset Ressourcendatenbank rücksetzen clrestorerdb Ressourcendatenbank wiederherstellen clsetparam Betriebsumgebung der Ressourcendatenbank zeigen und ändern clsetup Ressourcendatenbank einrichten clstartrsc Ressourcendatenbank aktivieren clstoprsc Ressourcen deaktivieren clsyncfile Eine Datei zwischen Cluster-Knoten verteilen Benutzerkommando clgettree Baumstruktur der Ressourcendatenbank zeigen U42128-J-Z100-4 95 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-manpages.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Manual-Pages RMS 4.11 RMS Systemverwaltung hvassert Status einer RMS-Ressource feststellen hvcm RMS-Konfigurationsmonitor starten hvconfig RMS-Konfigurationsdatei zeigen oder speichern hvdisp Informationen zu RMS-Ressourcen zeigen hvdist RMS-Konfigurationsdateien verteilen hvdump Debugging-Informationen zu RMS zusammenstellen hvgdmake Kundenspezifischen RMS-Detektor kompilieren hvlogclean RMS-Log-Dateien bereinigen hvrclev Run-Level ändern, in dem RMS gestartet wird hvreset Aktuelle Aktivitäten unterbrechen und den Graphen userApplication neu starten hvsetenv RMS rc start oder AutoStartUp manipulieren hvshut RMS herunterfahren hvswitch RMS-Benutzeranwendung auf anderen Rechner umschalten hvthrottle Verhindern, dass mehrere RMS-Skripts gleichzeitig ausgeführt werden hvutil Verfügbarkeit einer RMS-Ressource festlegen 96 U42128-J-Z100-4 Manual-Pages RMS Wizards Dateiformate hvenv.local Lokale Konfigurationsdatei für RMS-Umgebung 4.12 RMS Wizards RMS Wizards und RMS Application Wizards RMS Wizards sind als html-Seiten in dem SMAWRhvdo-Paket auf der CDROM dokumentiert. Nach Installation dieses Pakets steht diese Dokumentation im folgenden Verzeichnis zur Verfügung: /usr/opt/reliant/htdocs.solaris/wizards.en 4.13 SCON scon Software der Cluster-Konsole starten 4.14 SF Systemverwaltung rcsd Shutdown-Dämon der Shutdown Facility sdtool Schnittstellen-Tool für den Shutdown-Dämon Dateiformate rcsd.cfg Konfigurationsdatei des Shutdown-Dämons SA_rccu.cfg Konfigurationsdatei des RCCU-Shutdown-Agenten SA_ipmi.cfg Konfigurationsdatei für den Shutdown-Agenten Intelligent Platform Management Interface SA_rccu.cfg Konfigurationsdatei des RCCU-Shutdown-Agenten U42128-J-Z100-4 97 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-manpages.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Manual-Pages SIS SA_rps.cfg Konfigurationsdatei für einen Remote-Power-Switch-Shutdown-Agenten SA_scon.cfg Konfigurationsdatei für den SCON-Shutdown-Agenten SA_sspint.cfg Konfigurationsdatei für den Sun E10000 Shutdown-Agenten SA_sunF.cfg Konfigurationsdatei für den sunF System-Controller-Shutdown-Agenten SA_wtinps.cfg Konfigurationsdatei für den WTI-NPS-Shutdown-Agenten 4.15 SIS Systemverwaltung dtcpadmin SIS-Verwaltungsdienstprogramm starten dtcpd SIS-Dämon für die Konfigurierung von VIPs starten dtcpstat Statusinformationen zu SIS 4.16 Web-Based Admin View Systemverwaltung fjsvwvbs Web-Based Admin View beenden fjsvwvcnf Web-Server für Web-Based Admin View starten, anhalten oder neu starten wvCntl Web-Based Admin View starten, beenden oder Debugging-Informationen abrufen 98 U42128-J-Z100-4 Manual-Pages Web-Based Admin View wvGetparam Umgebungsvariablen für Web-Based Admin View zeigen wvSetparam Umgebungsvariablen für Web-Based Admin View setzen wvstat Betriebszustand von Web-Based Admin View zeigen U42128-J-Z100-4 99 5 Anhang – Systemparameter Dieser Anhang befasst sich mit der Einstellung der RCFS Systemparameter. Die in Solaris voreingestellte Stapelgröße muss erhöht werden. Bei Solaris 8 OE und Solaris 9 OE handelt es sich dabei um den Parameter lwp_default_stacksize. Bei Solaris 10 OE ist es der Parameter default_stacksize. Wenn RCFS installiert ist, werden die entsprechenden Werte in der Datei /etc/system geändert. RCFS lädt nicht und gibt ein Diagnoseverfahren aus, wenn die Stapelgröße des Kerns unzureichend ist. Die Werte in der Datei /etc/system werden erst nach dem erneuten Booten des Systems wirksam. Näheres über das Ändern der Kernparameter und deren Bedeutung finden Sie im Handbuch System Administration Guide der Solaris Administrator Collection. U42128-J-Z100-4 101 © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\kernelparams.fm Abkürzungen AC Access Client API Application Program Interface bm Basismonitor CCBR Cluster Configuration Backup/Restore CDL Configuration Definition Language CF Cluster Foundation oder Cluster Framework CIM Cluster Integrity Monitor CIP Cluster Interconnect Protocol CLI Kommandoschnittstelle CLM Cluster-Manager CRM Cluster-Ressourcen-Management ENS Event Notification Services GDS Global Disk Services U42128-J-Z100-4 103 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Abbreviations.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Abkürzungen GFS Global File Services GLS Global Link Services GUI Grafische Bedienoberfläche HA Hochverfügbarkeit ICF Internode Communication Facility I/O Input/Output JOIN Cluster Join Services Modul LAN Lokales Netzwerk MDS Metadatenserver MIB Management Information Base MIPC Mesh Interprocessor Communication NIC Netzwerkschnittstelle NSM Node State Monitor OSD Operating System Dependent (CF) 104 U42128-J-Z100-4 Abkürzungen PAS Parallel Application Services PCS PRIMECLUSTER Configuration Services RCCU Remote Console Control Unit RCFS PRIMECLUSTER File Share RCI Remote Cabinet Interface RCVM PRIMECLUSTER Volume Manager RMS Reliant Monitor Services SA Shutdown-Agent SAN Storage Area Network SCON Single Console Software SD Shutdown-Dämon SF Shutdown Facility SIS Scalable Internet Services VIP Virtual Interface Provider U42128-J-Z100-4 105 © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Abbreviations.fm Fachwörter Einträge in diesem Glossar, die spezielle PRIMECLUSTER Produkte betreffen, werden durch die folgende Notation gekennzeichnet: ● (CF) – Cluster Foundation ● (PCS) – PRIMECLUSTER Configuration Services ● (RMS) – Reliant Monitor Services ● (RCVM) – Volume Manager (nicht in allen Ländern verfügbar) ● (SIS) – Scalable Internet Services Es kann sein, dass einige dieser Produkte in Ihrem Cluster nicht installiert sind. Weitere Informationen erhalten Sie von Ihrem PRIMECLUSTER-Vertriebspartner. AC Siehe Access Client. Access Client Das GFS-Kern-Modul auf jedem Knoten, das mit dem Meta Data Server kommuniziert und den gleichzeitigen Zugriff auf ein gemeinsam genutztes Dateisystem erlaubt. Administrations-LAN Ein optionales, privates lokales Netzwerk (LAN), das zur Erteilung von Verwaltungskommandos an die Knoten im Cluster verwendet wird. Ein zusätzlicher Sicherheits-Level entsteht dadurch, dass normale Benutzer keinen Zugriff auf das Administrations-LAN haben. In PRIMECLUSTER Konfigurationen befinden sich die Systemkonsole und die Cluster-Konsole im Administrations-LAN, sofern vorhanden. Siehe auch Öffentliches LAN. U42128-J-Z100-4 107 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Fachwörter Aktivieren einer Konfiguration (RMS) Vorbereitung einer RMS-Konfiguration, die auf einem Server laufen soll. Dies umfasst zwei wichtige Aktionen: Zunächst wird die Konfiguration auf dem Host generiert, auf dem die Konfiguration erstellt bzw. bearbeitet wurde. Anschließend wird die Konfiguration an alle Knoten verteilt, die von dieser Konfiguration betroffen sind. Der Benutzer kann eine Konfiguration mit Hilfe von PCS, den Wizard Tools oder der Kommandoschnittstelle aktivieren. Siehe auch Generieren einer Konfiguration (RMS), Verteilen einer Konfiguration (RMS). Anwendung (RMS) Im RMS-Kontext handelt es sich bei einem Anwendungsobjekt um eine besondere Ressource, mit deren Hilfe andere Ressourcen logisch gruppiert werden. Im Allgemeinen repräsentiert es eine echte Anwendung oder ein Anwendungspaket in einer Hochverfügbarkeits-Konfiguration. Anwendungsschablone (RMS) Eine vordefinierte Gruppe von Werten, die für die Objektdefinition zur Verfügung stehen und von PCS, den RMS Wizard Tools oder dem PCS Wizard Kit für die Erzeugung von Objektdefinitionen für einen bestimmten Anwendungstyp verwendet werden. API Siehe Application Program Interface. Application Program Interface Eine gemeinsame Schnittstelle zwischen einem Dienst-Provider und der Anwendung, von der dieser Dienst verwendet wird. Attribut (RMS) Teil einer Objektdefinition, der festlegt, wie der Basis-Monitor im normalen Betrieb bei einem bestimmten Objekttyp agiert und reagiert. 108 U42128-J-Z100-4 Fachwörter Aufgeteilte virtuelle Platte (striped virtual disk) (RCVM) Aufgeteilte virtuelle Platten bestehen aus zwei oder mehr Bereichen. Dabei kann es sich um physische Partitionen oder weitere virtuelle Platten (üblicherweise eine Spiegelplatte) handeln. Sequenzielle I/O-Vorgänge auf der virtuellen Platte können in I/O-Vorgängen auf zwei oder mehr physischen Platten umgesetzt werden. Dies entspricht RAID-Level 0 (RAID0). Siehe auch Verkettete virtuelle Platte (concatenated virtual disk) (RCVM), Gespiegelte virtuelle Platte (RCVM), Einfache virtuelle Platte (RCVM), Virtuelle Platte. Automatisches Switchover (RMS) Der Prozess, durch den RMS die Steuerung einer userApplication automatisch auf einen anderen Rechner umschaltet, wenn bestimmte Bedingungen erkannt werden. Siehe auch , Failover (RMS, SIS), Manuelles Switchover (RMS), Switchover (RMS), Symmetrisches Switchover (RMS). Backup und Restore der Cluster-Konfiguration CCBR stellt ein einfaches Verfahren zum Sichern der aktuellen PRIMECLUSTER Konfigurationsdaten auf einem Cluster-Knoten bereit. Außerdem bietet es ein Verfahren zum Wiederherstellen der Konfigurationsdaten. Basis-Cluster-Foundation (CF) Dieses PRIMECLUSTER Modul ist auf das zugrunde liegende Betriebssystem aufgesetzt und stellt interne Schnittstellen für die CF-Funktionen (Cluster Foundation) zur Verfügung, die von den PRIMECLUSTER Diensten in der darüber liegenden Schicht verwendet werden. Siehe auch Cluster Foundation (CF). Basismonitor (RMS) Das RMS-Modul, das die Verfügbarkeit von Ressourcen sichert. Der Basismonitor wird von Dämonen und Detektoren unterstützt. Jeder überwachte Rechner verfügt über eine eigene Kopie des Basismonitors. U42128-J-Z100-4 109 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Fachwörter Cache Fusion Die verbesserte Schnittstelle für die Kommunikation zwischen Prozessen in Oracle 9i, mit deren Hilfe logische Blöcke auf dem Datenträger (Puffer) im lokalen Arbeitsspeicher jedes Knotens zwischengespeichert werden können. Dadurch muss ein Block bei einer erforderlichen Aktualisierung nicht auf der Festplatte gespeichert werden, sondern kann durch Übermittlung einer Nachricht über den Interconnect auf einen anderen Knoten kopiert werden. Auf diese Weise wird der Aufwand durch physische Eingabe und Ausgabe vermieden. CCBR Siehe Backup und Restore der Cluster-Konfiguration. CF Siehe Cluster Foundation (CF). CF-Knotenname (CF) Der Name des CF-Cluster-Knotens, der konfiguriert wird, wenn ein CFCluster angelegt wird. Cluster Eine Gruppe von Computern, die durch Zusammenarbeit eine einzige Datenverarbeitungsquelle bilden. Das bedeutet, dass in einem Cluster eine verteilte Form von paralleler Datenverarbeitung ausgeführt wird. Siehe auch RMS-Konfiguration (RMS). Cluster Admin Ein Java-basiertes, betriebssystemunabhängiges Management-Tool für PRIMECLUSTERProdukte wie CF, SIS, RMS und PCS. Auf Cluster Admin kann von der Web-Based Admin View-Schnittstelle zugegriffen werden. Siehe auch Cluster Foundation (CF), Scalable Internet Services (SIS), Reliant Monitor Services (RMS), PRIMECLUSTER Configuration Services (PCS), Web-Based Admin View. Cluster Foundation (CF) Die Gruppe von PRIMECLUSTER Modulen, die Basisdienste für die Cluster-Kommunikation zur Verfügung stellt. Siehe auch Basis-Cluster-Foundation (CF). 110 U42128-J-Z100-4 Fachwörter Cluster-Interconnect (CF) Die Gruppe privater Netzwerkverbindungen, die ausschließlich für die PRIMECLUSTER Kommunikation verwendet wird. Cluster Join Services (CF) Durch dieses PRIMECLUSTER Modul werden neue Cluster gebildet und Knoten hinzugefügt. Cluster-Konsole Die Workstation, auf der die von RMS überwachten Rechner zentral verwaltet werden. Die Single-Console-Software, SCON, läuft auf der Cluster-Konsole. Configuration Definition Language (PCS) Die Syntax für PCS-Konfigurationsschablonen. Siehe auch PRIMECLUSTER Configuration Services (PCS). Dämon Ständig im Hintergrund aktiver Prozess, der wiederholt eine bestimmte Funktion ausführt. Datenbankknoten (SIS) Knoten, die die Konfigurations- und Statistikdaten sowie die dynamischen Daten in einer SIS-Konfiguration verwalten. Siehe auch Gateway-Knoten (SIS), Dienstknoten (SIS), Scalable Internet Services (SIS). Detektor (RMS) Ein Prozess, der den Zustand eines bestimmten Objekttyps überwacht und Änderungen des Ressourcenzustands an den RMS-Basismonitor meldet. DHCP Dynamic Host Control Protocol. Eine Standardmethode für die Informationsübermittlung an den Host beim Systemstart. Sie wird hauptsächlich für die dynamische Zuweisung der IP-Adresse und Netzmaske des Hosts verwendet. Es sind jedoch auch viele andere Parameter möglich, wie Domänen-Namen, DNS-Server und Zeitserver. U42128-J-Z100-4 111 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Fachwörter Dienstknoten (SIS) Dienstknoten stellen mindestens einen TCP-Dienst zur Verfügung (beispielsweise FTP, Telnet und HTTP) und nehmen die durch Gateway-Knoten weitergeleiteten Client-Anforderungen entgegen. Siehe auch Datenbankknoten (SIS), Gateway-Knoten (SIS), Scalable Internet Services (SIS). DOWN (CF) Ein Knotenzustand, durch den gezeigt wird, dass der Knoten nicht verfügbar ist (als Down gekennzeichnet). Ein LEFTCLUSTER-Knoten muss als DOWN gekennzeichnet werden, bevor er wieder in einen Cluster eingefügt werden kann. Siehe auch UP (CF), LEFTCLUSTER (CF), Knotenzustand (CF). Einfache virtuelle Platte (RCVM) Einfache virtuelle Platten definieren entweder einen Bereich innerhalb einer Partition einer physischen Platte oder eine vollständige Partition. Siehe auch Verkettete virtuelle Platte (concatenated virtual disk) (RCVM), Gespiegelte virtuelle Platte (RCVM), Aufgeteilte virtuelle Platte (striped virtual disk) (RCVM), Virtuelle Platte. Einhängepunkt Siehe Mount-Punkt. Eltern-Objekt (RMS) Ein Objekt in der RMS-Konfigurationsdatei bzw. im Systemgraphen, für das mindestens ein Kind-Objekt vorhanden ist. Siehe auch Kind (RMS), Konfigurationsdatei (RMS), Leaf-Objekt (RMS), Systemgraph (RMS). Enhanced Lock Manager (ELM) (CF) Eine einfache, reaktionsstarke Sperrenverwaltung mit hoher Leistungsfähigkeit, die speziell für die Bereitstellung eines äußerst zuverlässigen Lebensmeldungsmitteilungsmechanismus für PRIMECLUSTER Module entwickelt wurde. ENS (CF) Siehe Event Notification Services (CF). 112 U42128-J-Z100-4 Fachwörter Event Notification Services (CF) Dieses PRIMECLUSTER Modul stellt eine Möglichkeit zur Verteilung detaillierter Ereignismeldungen zur Verfügung. Failover (RMS, SIS) Durch diesen Prozess wird bei SIS ein ausgefallener Knoten auf einen Backup-Knoten umgeschaltet. Bei RMS wird dieser Vorgang als Switchover bezeichnet. Siehe auch Automatisches Switchover (RMS), Manuelles Switchover (RMS), Switchover (RMS), Symmetrisches Switchover (RMS). Fehlererkennung (RMS) Der Vorgang des Erkennens eines Fehlers. Dazu gehören bei RMS das Veranlassen eines Log-Eintrags, das Senden einer Nachricht an eine Log-Datei bzw. eine geeignete Fehlerbehebung. Gateway-Knoten (SIS) Gateway-Knoten verfügen über eine externe Netzwerkschnittstelle. Alle eintreffenden Pakete werden von diesem Knoten empfangen und an den ausgewählten Dienstknoten weitergeleitet, abhängig vom SchedulingAlgorithmus für diesen Dienst. Siehe auch Dienstknoten (SIS), Datenbankknoten (SIS), Scalable Internet Services (SIS). GDS Siehe Global Disk Services. Gemeinsam verwendete Ressource Eine Ressource, beispielsweise ein Plattenlaufwerk, auf die mehrere Knoten zugreifen können. Siehe auch Private Ressource (RMS), Ressource (RMS). Generieren einer Konfiguration (RMS) Der Vorgang des Erzeugens einer einzelnen Konfigurationsdatei, die an alle Knoten in der Konfiguration verteilt und zu einem späteren Zeitpunkt aktiviert werden kann. Dies geschieht normalerweise automatisch, wenn die Konfiguration durch PCS, die Wizard Tools oder das CLI aktiviert wird. Siehe auch Aktivieren einer Konfiguration (RMS), Verteilen einer Konfiguration (RMS). U42128-J-Z100-4 113 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Fachwörter Generischer Typ (RMS) Ein Objekttyp mit generischen Eigenschaften. Mit einem generischen Typ wird RMS kundenspezifisch zum Überwachen von Ressourcen angepasst, die keinem der mitgelieferten Objekttypen zugewiesen werden können. Siehe auch Objekttyp (RMS). Gespiegelte Bereiche (RCVM) Die physischen Bestandteile, aus denen eine gespiegelte virtuelle Platte zusammengesetzt ist. Zu diesen Bestandteilen zählen Spiegelplatten und Datenplatten. Siehe auch Gespiegelte Platten (RCVM). Gespiegelte Platten (RCVM) Eine Gruppe von Platten, die identische Daten enthalten. Bei Ausfall einer Platte bleiben die übrigen Platten der Gruppe weiterhin verfügbar, wodurch eine Unterbrechung der Datenverfügbarkeit vermieden wird. Siehe auch Gespiegelte Bereiche (RCVM). Gespiegelte virtuelle Platte (RCVM) Gespiegelte virtuelle Platten bestehen aus zwei oder mehr physischen Geräten. Alle Ausgabevorgänge werden gleichzeitig auf diesen Geräten ausgeführt Siehe auch Verkettete virtuelle Platte (concatenated virtual disk) (RCVM), Einfache virtuelle Platte (RCVM), Aufgeteilte virtuelle Platte (striped virtual disk) (RCVM), Virtuelle Platte. GFS Siehe Global File Services. Global Disk Services Dieses optionale Produkt stellt Datenträger-Verwaltungsfunktionen bereit, durch die die Verfügbarkeit und Verwaltbarkeit von Informationen auf der Festplatteneinheit des Storage Area Network (SAN) verbessert werden. Global File Services Dieses optionale Produkt ermöglicht den direkten, parallelen Zugriff auf das Dateisystem einer gemeinsam genutzten Speichereinheit von zwei oder mehr Knoten in einem Cluster. 114 U42128-J-Z100-4 Fachwörter Global Link Services Dieses optionale PRIMECLUSTER Modul liefert Lösungen für hochverfügbare Netzwerke durch Multiplizierung einer Route in einem Netzwerk. GLS Siehe Global Link Services. Grafische Bedienoberfläche Eine Computeroberfläche mit Fenstern, Icons, Symbolleisten und Pulldown-Menüs, die einfacher zu bedienen ist als die KommandozeilenSchnittstelle. Graph (RMS) Siehe Systemgraph (RMS). GUI Siehe Grafische Bedienoberfläche. Hochverfügbarkeit Eine Philosophie des Systemdesigns bei der redundante Ressourcen verwendet werden, um Single Points of Failure zu vermeiden. Siehe auch Reliant Monitor Services (RMS). Interconnect (CF) Siehe Cluster-Interconnect (CF). Internet-Protocol-Adresse Eine numerische Adresse, die Computern oder Anwendungen zugewiesen werden kann. Siehe auch IP-Aliasing. Internode Communications Facility Dieses Modul ist die Netzwerktransportschicht für die gesamte PRIMECLUSTER Kommunikation zwischen den Knoten. Es stellt mittels betriebssystemabhängigen Codes die Schnittstelle zum E/A-Subsystem dar und garantiert die Zustellung von Nachrichten, die sich in der Warteschlange befinden, an den Zielknoten in korrekter Reihenfolge, sofern der Zielknoten nicht ausfällt. IP-Adresse Siehe Internet-Protocol-Adresse. U42128-J-Z100-4 115 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Fachwörter IP-Aliasing Mit diesem Verfahren können einer Netzwerkschnittstelle mehrere IPAdressen (Alias-Adressen) zugeordnet werden. Mit Hilfe von IP-Aliasing kann der Benutzer auch dann mit derselben IP-Adresse kommunizieren, wenn die Anwendung auf einem anderen Knoten ausgeführt wird. Siehe auch Internet-Protocol-Adresse. JOIN (CF) Siehe Cluster Join Services (CF). Kind (RMS) Eine in der Konfigurationsdatei definierte Ressource, die über mindestens ein Eltern-Objekt verfügt. Ein Kind kann über mehrere Eltern verfügen, und es kann entweder selbst Kinder haben (so dass es selbst auch zum Eltern-Objekt wird) oder keine Kinder haben (so dass es zum LeafObjekt wird). Siehe auch Ressource (RMS), Objekt (RMS), Eltern-Objekt (RMS). Knoten Ein Rechner in einem Cluster. Knotenzustand (CF) Jeder Knoten in einem Cluster verfügt lokal über Informationen zum Zustand aller anderen Knoten im Cluster. Der Zustand jedes Knotens im Cluster muss entweder UP, DOWN oder LEFTCLUSTER sein. Siehe auch UP (CF), DOWN (CF), LEFTCLUSTER (CF). Konfigurationsdatei (RMS) Im RMS-Kontext die einzelne Datei, in der die überwachten Ressourcen definiert und die gegenseitigen Abhängigkeitsbeziehungen eingerichtet werden. Der voreingestellte Name dieser Datei lautet config.us. Konsole Siehe Cluster-Konsole. Kundenspezifischer Detektor (RMS) Siehe Detektor (RMS). Kundenspezifischer Typ (RMS) Siehe Generischer Typ (RMS). 116 U42128-J-Z100-4 Fachwörter Leaf-Objekt (RMS) Ein Objekt am unteren Ende des Systemgraphen. Diese Objektdefinition steht am Anfang der Konfigurationsdatei. Ein Leaf-Objekt hat keine Kinder. LEFTCLUSTER (CF) Ein Knotenzustand, der zeigt, dass der betreffende Knoten nicht mit anderen Knoten im Cluster kommunizieren kann. Das bedeutet, dass der Knoten den Cluster verlassen hat. Der temporäre Zustand LEFTCLUSTER dient der Vermeidung von Problemen, die durch eine Netzwerk-Partionierung entstehen können. Siehe auch UP (CF), DOWN (CF), Netzwerk-Partitionierung (CF), Knotenzustand (CF). Link (RMS) Bezeichnet eine Eltern- bzw. Kindbeziehung zwischen bestimmten Ressourcen. Log-Datei Die Datei, in der signifikante Systemereignisse oder Meldungen aufgezeichnet werden. Die ASCC-Control- und -Satelliten-Dämonen erstellen auf jedem Knoten, auf dem sie ausgeführt werden, Log-Dateien. Die Wizard Tools, PCS, der RMS Basis-Monitor und die RMS-Detektoren erstellen ebenfalls jeweils eigene Log-Dateien. Lokales Netzwerk Siehe Öffentliches LAN. Lokaler Knoten Der Rechner, von dem aus ein Kommando bzw. Prozess eingeleitet wird. Siehe auch Remote-Rechner, Knoten. Management Information Base Eine hierarchische Datenbank mit Informationen zum lokalen Netzwerkgerät. Die Datenbank wird von Netzwerkverwaltungssoftware, z. B. einem SNMP-Agenten, gepflegt. Siehe auch Simple Network Management Protocol. U42128-J-Z100-4 117 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Fachwörter Manuelles Switchover (RMS) Der RMS-Prozess, mit dem ein Systemverwalter die Steuerung einer userApplication auf einen anderen Knoten umschaltet. Siehe auch Automatisches Switchover (RMS), Failover (RMS, SIS), Switchover (RMS), Symmetrisches Switchover (RMS). MDS Siehe Metadatenserver. Meldung Eine Gruppe von Daten, die ein Softwareprozess an einen anderen Prozess, ein Gerät oder eine Datei überträgt. Metadatenserver Ein GFS-Dämon, der die Steuerinformationen oder Metadaten eines Dateisystems zentral verwaltet. MIB Siehe Management Information Base. Mount-Punkt Der Punkt innerhalb der Verzeichnisstruktur, an dem ein Dateisystem eingefügt wird. Multihosting Mehrere Controller, die gleichzeitig auf eine Gruppe von Plattenlaufwerken zugreifen. Nachrichtenwarteschlange Ein bestimmter Speicherbereich, der für die Ablage von Nachrichten reserviert ist, damit diese in der Reihenfolge ihres Eingangs verarbeitet werden können. Natives Betriebssystem Der Teil eines Betriebssystems, der kontinuierlich aktiv ist und Systemaufrufe in Aktivitäten umsetzt. 118 U42128-J-Z100-4 Fachwörter Netzwerk-Partitionierung (CF) Diese Bedingung liegt vor, wenn zwei oder mehrere Knoten in einem Cluster nicht über das Interconnect kommunizieren können. Bei laufenden Anwendungen können die Knoten jedoch noch auf gemeinsam genutzten Geräten lesen und schreiben, wodurch die Datenintegrität gefährdet wird. Objekt (RMS) Darstellung einer physischen oder virtuellen Ressource in der RMS-Konfigurationsdatei oder einem Systemgraphen. Siehe auch Leaf-Objekt (RMS), Objektdefinition (RMS), Objekttyp (RMS). Objektdefinition (RMS) Ein Eintrag in der Konfigurationsdatei, der eine vom RMS zu überwachende Ressource identifiziert. Die in der Definition enthaltenen Attribute legen die Eigenschaften der entsprechenden Ressource fest. Siehe auch Attribut (RMS), Objekttyp (RMS). Objekttyp (RMS) Eine Kategorie ähnlicher Ressourcen, die als Gruppe überwacht werden, beispielsweise Plattenlaufwerke. Jeder Objekttyp verfügt über bestimmte Eigenschaften bzw. Attribute, die Überwachungsvorgänge oder andere Aktionen einschränken oder festlegen. Wenn eine Ressource einem bestimmten Objekttyp zugeordnet ist, werden die diesem Objekttyp zugeordneten Attribute auf die Ressource angewendet. Siehe auch Generischer Typ (RMS). Öffentliches LAN Das lokale Netzwerk (LAN), über das normale Anwender auf ein System zugreifen. Siehe auch Administrations-LAN. Online-Wartung Die Möglichkeit, Geräte hinzuzufügen, zu löschen, zu ersetzen oder wiederherzustellen, ohne den Knoten herunterfahren oder ausschalten zu müssen. U42128-J-Z100-4 119 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Fachwörter Operating System Dependent (CF) Dieses betriebssystemabhängige Modul stellt eine Schnittstelle zwischen dem lokalen Betriebssystem und der abstrakten, betriebssystemunabhängigen Schnittstelle bereit, auf der alle PRIMECLUSTER Module basieren. Oracle Real Application Clusters (RAC) Oracle Parallel Server ermöglicht allen Benutzern und Anwendungen in einer Cluster- oder MPP-Plattform (Massively Parallel Processing) den Zugriff auf alle Daten in einer Datenbank. Früher unter dem Namen Oracle Parallel Server (OPS) bekannt. OSD (CF) Siehe Operating System Dependent (CF). PCS Siehe PRIMECLUSTER Configuration Services (PCS). PCS Wizard Kit (PCS) RMS-Konfigurationsprodukte, die für bestimmte Anwendungen entworfen wurden. Jede Komponente des PCS Wizard Kit umfasst kundenspezifische Voreinstellungen, Unteranwendungen, Detektoren und Skripte. Diese Application Wizards passen auch die PCS-Schnittstelle an, damit sie Steuerelemente für die zusätzlichen Eigenschaften zur Verfügung stellen können. Siehe auch PCS, Reliant Monitor Services (RMS). Primärer Knoten (RMS) Der voreingestellte Knoten, auf dem eine Benutzeranwendung beim Starten von RMS online gebracht wird. Hierbei handelt es sich immer um den Knotennamen des ersten Kindes, das in der Objektdefinition der userApplication aufgelistet ist. PRIMECLUSTER Configuration Services (PCS) Die graphische Konfigurationsoberfläche für PRIMECLUSTER Produkte. PCS verwendet Standardschablonen, die in der Configuration Definition Language (CDL) geschrieben wurden, um eine benutzerfreundliche Konfigurationsumgebung für Produkte wie RMS bereitzustellen. Die Standardschablonen können verändert oder ersetzt werden, um eine kundenspezifische Schnittstelle für bestimmte Anwendungen oder Installationen zu erhalten. 120 U42128-J-Z100-4 Fachwörter PRIMECLUSTER Services (CF) Dienstmodule, die Dienste und interne Schnittstellen für Cluster-Anwendungen zur Verfügung stellen. Private Netzwerk-Adresse Unter privaten Netzwerkadressen versteht man einen reservierten Bereich von IP-Adressen, die durch Internet Corporation for Assigned Names and Numbers (ICANN) festgelegt sind. Moderne Switches und Router verhindern, dass diese Adressen an das Internet weitergeleitet werden, so dass zwei oder mehr Unternehmen intern dieselbe private Adresse verwenden können, ohne dass Konflikte oder Sicherheitsrisiken entstehen. Private Ressource (RMS) Eine Ressource, auf die nur ein einzelner Knoten zugreifen kann und die für andere RMS-Rechner nicht erreichbar ist. Siehe auch Ressource (RMS), Gemeinsam verwendete Ressource. Redundanz Die Fähigkeit einer Komponente, die Ressourcenlast einer anderen, physisch ähnlichen Komponente zu übernehmen, falls die ursprüngliche Komponente ausfällt oder heruntergefahren wird. Gängige Beispiele sind RAID-Hardware und/oder RAID-Software zum Replizieren der auf sekundären Speichergeräten gespeicherten Dateien, mehrere Netzwerkverbindungen zur Bereitstellung alternativer Datenwege sowie mehrere Knoten, die dynamisch umgestellt werden können, so dass wichtige Dienste in einem Cluster immer aufrecht erhalten bleiben. Reliant Monitor Services (RMS) Das Paket, das Hochverfügbarkeit der vom Benutzer angegebenen Ressourcen durch die Bereitstellung von Überwachungs- und Umschaltungsmöglichkeiten auf Linux- und Solaris-Plattformen sichert. Remote-Rechner Ein Rechner, auf den über eine Telekommunikationsleitung oder ein LAN zugegriffen wird. Siehe auch Lokaler Knoten, Knoten. U42128-J-Z100-4 121 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Fachwörter Ressource (RMS) Ein Hardware- oder Softwareelement (privat oder gemeinsam verwendet), das eine Funktion bereitstellt, beispielsweise eine gespiegelte Platte, gespiegelte Plattenbereiche oder ein Datenbankserver. Eine lokale Ressource wird nur vom lokalen Rechner überwacht. Siehe auch Private Ressource (RMS), Gemeinsam verwendete Ressource. Ressourcen-Definition (RMS) Siehe Objektdefinition (RMS). Ressourcen-Label (RMS) Der Name der Ressource, wie er im Systemgraphen gezeigt wird. Ressourcen-Zustand (RMS) Aktueller Zustand einer Ressource. RMS Siehe Reliant Monitor Services (RMS). RMS-Kommandos (RMS) Kommandos, mit denen RMS-Ressourcen von der Kommandozeile aus verwaltet werden können. RMS-Konfiguration (RMS) Eine Konfiguration mit zwei oder mehr Rechnern, die auf gemeinsame Ressourcen zugreifen können. Jeder Knoten verfügt über eine eigene Kopie des Betriebssystems und der RMS-Software sowie über eigene Anwendungen. RMS Wizard Kit (RMS) RMS-Konfigurierungsprodukte, die für bestimmte Anwendungen entworfen wurden. Jede Komponente des Wizard Kit umfasst kundenspezifische Standardeinstellungen, Unteranwendungen, Detektoren und Skripte. Diese Application Wizards passen auch die RMS-Wizard-ToolsSchnittstelle an, damit sie Steuerelemente für die zusätzlichen Eigenschaften zur Verfügung stellen können. Siehe auch RMS Wizard Tools (RMS), Reliant Monitor Services (RMS). 122 U42128-J-Z100-4 Fachwörter RMS Wizard Tools (RMS) Ein Softwarepaket mit verschiedenen Konfigurierungs- und Verwaltungstools, mit dem Anwendungen in einer RMS-Konfiguration erstellt und verwaltet werden können. Siehe auch RMS Wizard Kit (RMS), Reliant Monitor Services (RMS). SAN Siehe Storage Area Network. Scalable Internet Services (SIS) Das Paket, das die Datenverkehrbelastung gleichmäßig über ClusterKnoten verteilt und dabei für jede Verbindung die normalen Client-/Serversitzungen aufrecht erhält. Schablone Siehe Anwendungsschablone (RMS). Schlüsselwort Ein Wort, das in einer Programmiersprache eine bestimmte Bedeutung hat. In der RMS-Konfigurationsdatei identifiziert das Schlüsselwort object beispielsweise die Art der anschließenden Definition. SCON Siehe Cluster-Konsole. SF Siehe Shutdown Facility. Shutdown Facility Die PRIMECLUSTER Schnittstelle, die das Herunterfahren von ClusterKnoten verwaltet. SF wird während Failover-Vorgängen automatisch aufgerufen. SF benachrichtigt außerdem andere PRIMECLUSTER Produkte darüber, dass der Knoten erfolgreich heruntergefahren wurde, so dass die Recovery-Vorgänge gestartet werden können U42128-J-Z100-4 123 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Fachwörter Simple Network Management Protocol Eine Reihe von Protokollen, durch die der Informationsaustausch zwischen verwalteten Netzwerkgeräten erleichtert wird. Die Protokolle werden von Software-Agenten implementiert, die sich in den Geräten befinden. Jeder Agent kann in Reaktion auf SNMP-Anforderungen von anderen Geräten im Netzwerk Daten aus der lokalen Management Information Base (MIB) lesen und dorthin schreiben. Siehe auch Management Information Base. SIS Siehe Scalable Internet Services (SIS). Skalierbarkeit Die Fähigkeit eines Computersystems, auf ein Ansteigen der Systemlast dynamisch zu reagieren. Dies ist insbesondere bei Internet-Anwendungen äußerst wichtig, da die ständig zunehmende Nutzung des Internet die Skalierbarkeit unentbehrlich macht. Skript (RMS) Ein Shell-Programm, das der Basismonitor bei einer Zustandsänderung einer Ressource ausführt. Das Skript kann eine Änderung des Zustands einer Ressource bewirken. SNMP Siehe Simple Network Management Protocol. Storage Area Network Das Hochgeschwindigkeits-Netzwerk, das mehrere (externe) Speichereinheiten miteinander und mit mehreren Rechnern verbindet. Diese Verbindungen bestehen üblicherweise aus Glasfaserkabeln. Switchover (RMS) Der Vorgang, bei dem RMS die Steuerung einer userApplication von einem überwachten Rechner auf einen anderen Rechner umschaltet. Siehe auch Automatisches Switchover (RMS), Manuelles Switchover (RMS), Failover (RMS, SIS), Symmetrisches Switchover (RMS). 124 U42128-J-Z100-4 Fachwörter Symmetrisches Switchover (RMS) Symmetrisches Switchover bedeutet, dass jeder RMS-Knoten in der Lage ist, Ressourcen von jedem anderen RMS-Knoten zu übernehmen. Siehe auch Automatisches Switchover (RMS), Manuelles Switchover (RMS), Failover (RMS, SIS), Switchover (RMS). Systemgraph (RMS) Visuelle Darstellung (Karte) der überwachten Ressourcen. Wird verwendet, um die RMS-Konfigurationsdatei zu erstellen bzw. zu interpretieren. Siehe auch Konfigurationsdatei (RMS). Typ Siehe Objekttyp (RMS). Umgebungsvariablen Global definierte Variablen oder Parameter. Unteranwendung (RMS) Ein Teil der Konfigurationsschablone zur Konfigurationen eines Ressource-Typs für Hochverfügbarkeit. Die RMS-Konfiguration kann mehrere Instanzen jedes Ressource-Typs enthalten. Die Generic-Schablone enthält Unteranwendungen für Befehle, Anwendungs-Controller, IPAdressen, virtuelle Netzwerkschnittstellen, lokale und remote Dateisysteme, Volume Manager und Storage Manager. UP (CF) Ein Knotenzustand, der zeigt, dass der betreffende Knoten mit anderen Knoten im Cluster kommunizieren kann. Siehe auch DOWN (CF), LEFTCLUSTER (CF), Knotenzustand (CF). Verfügbarkeit Als Verfügbarkeit wird die auf die meisten Unternehmen zutreffende Anforderung bezeichnet, Anwendungen über das Internet 24 Stunden am Tag, 7 Tage die Woche zu betreiben. Das Verhältnis von tatsächlicher Nutzungsdauer zu geplanter Nutzungsdauer bestimmt die Verfügbarkeit eines Systems. U42128-J-Z100-4 125 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Fachwörter Verkettete virtuelle Platte (concatenated virtual disk) (RCVM) Verkettete (concatenated) virtuelle Platten bestehen aus zwei oder mehr Bereichen auf einem oder mehreren Plattenlaufwerken. Ihre Kapazität entspricht der Summe ihrer Einzelbestandteile. Im Gegensatz zu einfachen virtuellen Platten, bei denen die Platte in kleine Bestandteile unterteilt ist, werden die individuellen Platten oder Partitionen zu einer einzelnen großen logischen Platte zusammengefasst. Siehe auch Gespiegelte virtuelle Platte (RCVM), Einfache virtuelle Platte (RCVM), Aufgeteilte virtuelle Platte (striped virtual disk) (RCVM), Virtuelle Platte. Verteilen einer Konfiguration (RMS) Der Vorgang des Kopierens einer Konfigurationsdatei und aller dazugehörigen Skripte und Detektoren an alle Knoten, die von dieser Konfiguration betroffen sind. Dies geschieht normalerweise automatisch, wenn die Konfiguration durch PCS, die Wizard Tools oder das CLI aktiviert wird. Siehe auch Aktivieren einer Konfiguration (RMS), Generieren einer Konfiguration (RMS). Virtuelle Platte Ein Pseudo-Gerät, mit dem ein Teil oder eine Kombination physischer Platten als einzelne logische Platte behandelt werden kann. Der Treiber für die virtuelle Platte wird zwischen dem höchsten Level des logischen Eingabe-/Ausgabe (I/O)-Systems und den Treibern der physischen Geräte eingefügt, so dass alle logischen I/O-Anforderungen dem entsprechenden Bereich auf den physischen Platten zugeordnet werden können. Siehe auch Verkettete virtuelle Platte (concatenated virtual disk) (RCVM), Gespiegelte virtuelle Platte (RCVM), Einfache virtuelle Platte (RCVM), Aufgeteilte virtuelle Platte (striped virtual disk) (RCVM). Warteschlange Siehe Nachrichtenwarteschlange. Web-Based Admin View Eine Java-basierte, betriebssystemunabhängige Oberfläche für PRIMECLUSTER Management-Komponenten. Siehe auch Cluster Admin. 126 U42128-J-Z100-4 Fachwörter Wizard (RMS) Ein interaktives Softwaretool, das anhand vorab getesteter Objektdefinitionen einen bestimmten Anwendungstyp erzeugt. Wizard-Kit (RMS) Siehe PCS Wizard Kit (PCS), RMS Wizard Kit (RMS). Wizard Tools (RMS) Siehe RMS Wizard Tools (RMS). Zustand Siehe Ressourcen-Zustand (RMS). Zustandsmeldung (RMS) Eine Meldung, mit der ein Detektor den Basismonitor über den Zustand einer bestimmten Ressource informiert. U42128-J-Z100-4 127 © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.avz Bild 1: Unterteilung einer physischen Partition in einfache virtuelle Platten . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Bild 2: Muster für die Zusammensetzung einer verketteten virtuellen Platte . . . . . . . . . . . . . . . . . . . . . . 17 Bild 3: Struktur einer aufgeteilten (striped) virtuellen Platte . . . 18 Bild 4: Struktur von Spiegelplatten . . . . . . . . . . . . . . . . 21 Bild 5: Korrekter Aufbau einer Spiegelplatte . . . . . . . . . . . 22 Bild 6: Verhalten einer Spiegelplatte bei Fehlern in einzelnen Pieces . . . . . . . . . . . . . . . . . . . . . 26 Bild 7: Verhalten einer Spiegelplatte bei Initialisierung des Piece-Status . . . . . . . . . . . . . . . . . . . . . . . 28 Bild 8: Beispielkonfiguration einer gespiegelten root-Platte . . . 62 Bild 9: Typische RCFS-Konfiguration . . . . . . . . . . . . . . 78 Dokuschablonen (OECBook) V2.1a vom 07.03.2007 by S. Thums Services&Tools © cognitas GmbH 2002-2007 18. Juni 2007 Stand 12:57.04 Bilder U42128-J-Z100-4 129 Stichwörter /etc/default/boot 33 /etc/dktab 43, 47, 52, 62, 67 /etc/vfstab 42, 47, 63, 66 /mrconfig.2 62 A Anzahl Pieces 43 aufgeteilt (striped) 18 aufgeteilte virtuelle Platten (striped vdisk) 19 B Berechtigung zum Lesen einer Spiegelplatte 21 Berechtigung zum Schreiben auf eine Spiegelplatte 21 Blöcke 43 C Catch-up-Prozess 27, 51 CCBR-Kommandos cfbackup 91 cfrestore 91 CF-Kommandos cfconfig 91 cfregd 91 cfset 91 cftool 92 rcqconfig 92 rcqquery 92 cfbackup 91 cfconfig 91 cfrestore 91 CFS-Kommandos cfsmntd 92 fsck_rcfs 92 mount_rcfs 92 ngadmin 92 rcfs_fumount 92 rcfs_list 92 U42128-J-Z100-4 rcfs_switch 92 cfset 91 cfsmntd 92 cftool 92 CIP-Kommandos cip.cf 93 cipconfig 92 ciptool 92 cip.cf 93 cipconfig 92 ciptool 92 clautoconfig 95 clbackuprdb 95 cldeldevice 95 cldevparam 93 clexec 95 clgettree 95 clinitreset 95 clmtest 93 clrccumonctl 93 clrccusetup 93 clrcimonctl 93 clrestorerdb 95 clsetparam 95 clsetup 95 clstartrsc 95 clstoprsc 95 clsyncfile 95 Cluster 7, 18 Cluster-Konsolen, SCON starten cluster_uninstall 93 Clustergröße 19 CPAT-Kommando 93 97 D Dateisystem einhängen 53 erstellen 53 Dateisystem, neu, erstellen und einhängen 53 Deklarationszeile 43 131 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.six © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Stichwörter disable (deaktivieren) 51 disabled (deaktiviert) 24 dkconfig 31, 47, 94 dkmigrate 94 dkmirror 25, 49, 94 dktab 94 DLM/OPS-Umgebung 46 Dokumentation, verwandte Dokumentation 8 DOWN 25 dtcpadmin 98 dtcpd 98 dtcpstat 98 E EBUSY 47 ECC-Fehler 30 eeprom-Befehl 34, 69 Ein-/Ausgabefehler 32 einhängen 42 enabled (aktiviert) 24 ENXIO 48 Error Correction Code (Fehlerkorrekturcode) Gruppen H hvassert 96 hvcm 96 hvconfig 96 hvdisp 96 hvdist 96 hvdump 96 hvenv.local 97 hvgdmake 96 hvlogclean 96 hvrclev 96 hvreset 96 hvsetenv 96 hvshut 96 hvswitch 96 hvthrottle 96 hvutil 96 I I/O-Fehler 36, 38 in use 36, 38 30 F Fehler 30 Fehler des Typs Header mismatch 31 fjsvwvbs 98 fjsvwvcnf 98 fsck 48 fsck_rcfs 92 G Geräte-Knoten 43 Gerätetreiber physisch 13 gespiegelte root-Platten Besonderheiten 61–70 Grenzwerte 39 Größe des statesave-Gerätes 35 Gruppe 44 Gruppe von virtuellen Platten 44, 45 132 44 K Kommandos CCBR 91 CF 91 CFS 92 CIP 92 cluster_uninstall 93 CPAT 93 MA 93 PAS 93 RCVM 94 Resource Database 95 Konfiguration 39, 42 Konfigurationszeilen 43 L Länge 43 Längen 43 Leistung 18 U42128-J-Z100-4 Stichwörter M MA-Kommandos cldevparam 93 clrccumonctl 93 clrccusetup 93 clrcimonctl 93 Manual-Pages Anzeige 91 Auflistung 91 manuell 36, 38 Master 24 Master-Piece 52 maximale Anzahl Einträge Meldungen 32 mipcstat 93 mir_daemon-Thread 29 MIRRORED 24 mkfs 42 mount_rcfs 92 mroot 33 N newfs 54 ngadmin 92 NOT-MIRRORED O open failed OPS 46 ops 46 Piece 24, 32 Pieces 43 Pseudo-Gerätetreiber Q Quelle eines Catch-upProzesses 63 35 25 36, 38 P Partitionen 32 Partitionstabelle einer Platte PAS-Kommandos clmtest 93 mipcstat 93 PCS-Kommandos pcs_reinstall 94 pcscui 94 pcstool 94 pcs_reinstall 94 pcscui 94 pcstool 94 U42128-J-Z100-4 13, 15 16 R Rahmenbedingungen 39, 61 RAID-Level 1 20 RAID0 18 RAID1 20 rcfs_fumount 92 rcfs_list 92 rcfs_switch 92 rcsd 97 rcsd.cfg 97 RCVM-Kommandos dkconfig 94 dkmigrate 94 dkmirror 94 dktab 94 vdisk 94 Read Cache 22 relative Positionen 43 Resource Database-Kommandos clautoconfig 95 clbackuprdb 95 cldeldevice 95 clexec 95 clgettree 95 clinitreset 95 clrestorerdb 95 clsetparam 95 clsetup 95 clstartrsc 95 clstoprsc 95 clsyncfile 95 RMS-Kommandos hvassert 96 hvcm 96 hvconfig 96 hvdisp 96 133 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.six © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Stichwörter hvdist 96 hvdump 96 hvenv.local 97 hvgdmake 96 hvlogclean 96 hvrclev 96 hvreset 96 hvsetenv 96 hvshut 96 hvswitch 96 hvthrottle 96 hvutil 96 root-Platte spiegeln 33 S SA_ipmi.cfg 97 SA_rccu.cfg 97 SA_rps.cfg 98 SA_scon.cfg 98 SA_sspint.cfg 98 SA_sunF.cfg 98 SA_wtinps.cfg 98 scon-Kommando 97 sdtool 97 Sektorgröße 43 select vdisk 74 SF-Kommandos rcsd 97 sdtool 97 Sicherheit 20, 33 Sichern cfbackup-Kommando 91 RMS-Konfiguration 96 simple 15 SIS-Kommandos dtcpadmin 98 dtcpd 98 dtcpstat 98 Spiegel 20 Spiegelplatte disabled (deaktiviert) 24 enabled (aktiviert) 24 Fehlerbehebung 30 Master 24 134 MIRRORED 24 Sicherungskopien 31 Statusschalter bei dkmirror 25 Synchronisierung 27 Spiegelplatte initialisieren 50 Spiegelplatten 20, 44 Catch-up-Prozess 27 Funktionalität 21 implementieren 22 Status 23 Struktur 20 Zustände 23 Spiegelplatten definieren 43 Spiegelplatten, Zustände DOWN 25 NOT-MIRRORED 25 Spiegelplattentreiber Meldungen 32 Synchronisierung 27 Spiegelung deaktivieren 70 statesave 35, 44 statesave-Gerät 25, 35 DOWN 36, 38 ENABLED 36, 38 MIRRORED 38 ONLINE 36 online 36, 38 statsv 44 Status 23 Statusangeben zu Spiegelplatten 44 Statusschalter 25 Stripe-Größe 44 Stripe-Größen 40 Stromausfall 32 Swap-Bereich 40 Systemleistung 18 Systemparameter 101 Systemplatte 33 Systemverfügbarkeit erhöhen 20 T Trennzeichen 42 U42128-J-Z100-4 Stichwörter U ufs-Dateisystem 54 wvstat 99 V vdisk 94 Verfügbarkeit 33 verkettet 16 Verschachtelungstiefe 40 Virtuelle Platten DLM/OPS-Umgebung 46 virtuelle Platten /etc/dktab bearbeiten 42 aufgeteilt (striped) 18 Beispielkonfiguration 52 einfach (simple) 16 Grenzwerte 39 Gruppen 35 Konfiguration mit dkmirror 47 Konfigurationsvorgang 42 maximale Anzahl 39 mit dkconfig konfigurieren 47 Rahmenbedingungen 39 Spiegel 20 statesave 35, 36 statsv 36 Struktur 14 verkettet 16–17 Verschachtelungstiefe 40 vxfs-Dateisysteme 53 W Warteschlange 21 Web-Based Admin View-Kommandos fjsvwvbs 98 fjsvwvcnf 98 wvCntl 98 wvGetparam 99 wvSetparam 99 wvstat 99 Wiederherstellen, ClusterKonfiguration 91 wvCntl 98 wvGetparam 99 wvSetparam 99 U42128-J-Z100-4 135 © cognitas. Gesellschft für Technik-Dokumentation mbH 2006 Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.six