Skip to main content
Cluster and storage switches
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Migration zu einem Switch-basierten 2-Node-Cluster in FAS22xx Systemen mit einer einzigen Cluster-Netzwerkverbindung

Beitragende

Wenn Sie FAS22xx-Systeme in einem bestehenden 2-Node-Cluster ohne Switches einsetzen, bei dem jedes Controller-Modul über eine einzelne, Back-to-Back-10-GbE-Verbindung für die Cluster-Konnektivität verfügt, können Sie die Cluster-Netzwerkoption ohne Switch verwenden und die direkte Back-to-Back-Konnektivität durch Switch-Verbindungen ersetzen.

Prüfen Sie die Anforderungen

Was Sie benötigen
  • Zwei Cluster-Verbindungen für die Migration von einer Konfiguration ohne Switches zu einer Switched-Konfiguration.

  • Das Cluster ist in einem ordnungsgemäßen Zustand und besteht aus zwei Nodes, die mit der Back-to-Back-Konnektivität verbunden sind.

  • Auf den Knoten wird ONTAP 8.2 oder höher ausgeführt.

  • Die Cluster-Funktion ohne Switch kann nicht mit mehr als zwei Nodes verwendet werden.

  • Alle Cluster-Ports befinden sich im up Bundesland.

Migrieren Sie die Switches

Bei diesem Verfahren wird die direkte Cluster-Konnektivität in einer Umgebung ohne Switches unterbrechungsfrei beseitigt und jede Verbindung zum Switch durch eine Verbindung zum Partner-Node ersetzt.

Schritt: Bereiten Sie sich auf die Migration vor

  1. Ändern Sie die Berechtigungsebene in erweitert, indem Sie eingeben y Wenn Sie dazu aufgefordert werden, fortzufahren:

    set -privilege advanced

    Die erweiterte Eingabeaufforderung (`*>`Erscheint.

  2. Überprüfen Sie den Cluster-Status der Nodes an der Systemkonsole eines der beiden Nodes:

    cluster show

    Beispiel anzeigen

    Im folgenden Beispiel werden Informationen über den Systemzustand und die Berechtigung der Nodes im Cluster angezeigt:

    cluster::*> cluster show
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------  ------------
    node1                true    true          false
    node2                true    true          false
    
    2 entries were displayed.
  3. Überprüfen Sie den Status des HA-Paars auf der Systemkonsole eines der beiden Nodes: storage failover show

    Beispiel anzeigen

    Das folgende Beispiel zeigt den Status von node1 und node2:

    Node           Partner        Possible State Description
    -------------- -------------- -------- -------------------------------------
    node1          node2          true      Connected to node2
    node2          node1          true      Connected to node1
    
    2 entries were displayed.
  4. Wenn AutoSupport in diesem Cluster aktiviert ist, unterdrücken Sie die automatische Erstellung eines Falls durch Aufrufen einer AutoSupport Meldung:

    system node autosupport invoke -node * -type all -message MAINT=xh

    x Dies ist die Dauer des Wartungsfensters von Stunden.

    Hinweis Die Meldung wird vom technischen Support dieser Wartungsaufgabe benachrichtigt, damit während des Wartungsfensters die automatische Case-Erstellung unterdrückt wird.
    Beispiel anzeigen

    Mit dem folgenden Befehl wird die automatische Case-Erstellung für zwei Stunden unterdrückt:

    cluster::*> system node autosupport invoke -node * -type all -message MAINT=2h
  5. Vergewissern Sie sich, dass sich der aktuelle Status des Clusters ohne Switches befindet true, Und deaktivieren Sie dann den Cluster-Modus ohne Switches:

    network options switchless-cluster modify -enabled false

  6. Übernehmen des Ziel-Node:

    storage failover takeover -ofnode target_node_name

    Es ist unerheblich, welcher Node der Ziel-Node ist. Nachdem der Ziel-Node übernommen wurde, wird er automatisch neu gebootet, und es wird angezeigt Waiting for giveback…​ Nachricht:

    Der aktive Node stellt jetzt Daten für den über den Partner (Ziel)-Node bereit.

  7. Warten Sie zwei Minuten nach der Übernahme des beeinträchtigten Knotens, um zu bestätigen, dass die Übernahme erfolgreich abgeschlossen wurde.

  8. Wenn der Zielknoten das zeigt Waiting for giveback…​ Nachricht, Herunterfahren.

    Die Methode zum Herunterfahren des Node hängt davon ab, ob Sie Remote-Management über den Node Service Processor (SP) verwenden.

    Wenn SP Dann…​

    Ist konfiguriert

    Melden Sie sich beim SP des beeinträchtigten Knotens an, und schalten Sie das System aus: system power off

    Ist nicht konfiguriert

    Drücken Sie an der Eingabeaufforderung für beeinträchtigte Knoten die Taste Ctrl-C, Und dann antworten y Zum Anhalten des Knotens.

Schritt: Kabel und Ports konfigurieren

  1. Trennen Sie an jedem Controller-Modul das Kabel, das den 10-GbE-Cluster-Port mit dem Cluster ohne Switches verbindet.

  2. Verbinden Sie den 10 GbE-Cluster-Port mit dem Switch beider Controller-Module.

  3. Vergewissern Sie sich, dass die 10-GbE-Cluster-Ports, die auf dem Switch verbunden sind, als Teil desselben VLANs konfiguriert sind.

    Wenn Sie die Cluster-Ports an jedem Controller-Modul mit unterschiedlichen Switches verbinden möchten, müssen Sie überprüfen, ob die Ports, an denen die Cluster-Ports an jedem Switch angeschlossen sind, für dasselbe VLAN konfiguriert sind und dass das Trunking auf beiden Switches ordnungsgemäß konfiguriert ist.

  4. Geben Sie dem Ziel-Node Storage zurück:

    storage failover giveback -ofnode node2

  5. Überwachen Sie den Status des Giveback-Vorgangs:

    storage failover show-giveback

  6. Nach Abschluss des Giveback-Vorgangs bestätigen Sie, dass das HA-Paar ordnungsgemäß funktioniert und ein Takeover möglich ist:

    storage failover show

    Beispiel anzeigen

    Die Ausgabe sollte wie folgt aussehen:

    Node           Partner        Possible State Description
    -------------- -------------- -------- -------------------------------------
    node1          node2          true      Connected to node2
    node2          node1          true      Connected to node1
    
    2 entries were displayed.
  7. Überprüfen Sie, ob die Cluster-Port-LIFs ordnungsgemäß funktionieren:

    network interface show -role cluster

    Beispiel anzeigen

    Das folgende Beispiel zeigt, dass die LIFs sind up Auf node1 und node2 und dass die "is Home" Spalte Ergebnisse sind true:

    cluster::*> network interface show -role cluster
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    node1
                clus1        up/up    192.168.177.121/24  node1        e1a     true
    node2
                clus1        up/up    192.168.177.123/24  node2        e1a     true
    
    2 entries were displayed.
  8. Überprüfen Sie den Cluster-Status der Nodes an der Systemkonsole eines der beiden Nodes:

    cluster show

    Beispiel anzeigen

    Im folgenden Beispiel werden Informationen über den Systemzustand und die Berechtigung der Nodes im Cluster angezeigt:

    cluster::*> cluster show
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------  ------------
    node1                true    true          false
    node2                true    true          false
    
    2 entries were displayed.
  9. Ping für die Cluster-Ports zur Überprüfung der Cluster-Konnektivität:

    cluster ping-cluster local

    Die Befehlsausgabe sollte die Verbindung zwischen allen Cluster-Ports anzeigen.

Schritt 3: Führen Sie den Vorgang durch

  1. Wenn Sie die automatische Erstellung eines Cases unterdrückten, können Sie sie erneut aktivieren, indem Sie eine AutoSupport Meldung aufrufen:

    system node autosupport invoke -node * -type all -message MAINT=END

    Beispiel anzeigen
    cluster::*> system node autosupport invoke -node * -type all -message MAINT=END
  2. Ändern Sie die Berechtigungsebene zurück in den Administrator:

    set -privilege admin