Skip to main content
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Verschieben von Aggregaten ohne Root-Wurzeln und NAS-Daten-LIFs, die sich im Besitz von node1 befinden, auf Knoten 2

Beitragende

Bevor Sie node1 durch Node3 ersetzen können, müssen Sie die nicht-Root-Aggregate und NAS-Daten-LIFs von node1 auf node2 verschieben, bevor Sie die Ressourcen von node1 schließlich in node3 verschieben.

Bevor Sie beginnen

Der Vorgang muss bereits angehalten werden, wenn Sie mit der Aufgabe beginnen. Sie müssen den Vorgang manuell fortsetzen.

Über diese Aufgabe

Remote-LIFs verarbeiten den Datenverkehr zu SAN-LUNs während des Upgrades. Das Verschieben von SAN-LIFs ist für den Zustand des Clusters oder des Service während des Upgrades nicht erforderlich. Sie müssen überprüfen, ob die LIFs sich in einem ordnungsgemäßen Zustand befinden und sich auf den entsprechenden Ports befinden, nachdem Sie node3 in den Online-Modus versetzt haben.

Hinweis Der Home-Inhaber für die Aggregate und LIFs wird nicht geändert, nur der aktuelle Besitzer wird geändert.
Schritte
  1. Wiederaufnahme der Vorgänge für die Aggregatverschiebung und die LIF-Verschiebung von NAS-Daten:

    system controller replace resume

    Alle Aggregate ohne Root-Root-Root-Root-Daten und LIFs werden von node1 auf node2 migriert.

    Der Vorgang angehalten, damit Sie überprüfen können, ob alle node1-Aggregate und LIFs für nicht-SAN-Daten in node2 migriert wurden.

  2. Überprüfen Sie den Status der Aggregatverschiebung und der LIF-Verschiebung von NAS-Daten:

    system controller replace show-details

  3. Wenn der Vorgang noch angehalten wird, vergewissern Sie sich, dass alle nicht-Root-Aggregate online sind, damit ihr Status bei node2 lautet:

    storage aggregate show -node node2 -state online -root false

    Das folgende Beispiel zeigt, dass die nicht-Root-Aggregate auf node2 online sind:

    cluster::> storage aggregate show -node node2 state online -root false
    
    Aggregate  Size     Available  Used%  State  #Vols  Nodes  RAID Status
    ---------  -------  ---------  -----  ------ -----  ------ --------------
    aggr_1     744.9GB  744.8GB    0%     online     5  node2  raid_dp,normal
    aggr_2     825.0GB  825.0GB    0%     online     1  node2  raid_dp,normal
    2 entries were displayed.

    Wenn die Aggregate offline gegangen sind oder in node2 fremd geworden sind, bringen Sie sie mit dem folgenden Befehl auf node2, einmal für jedes Aggregat online:

    storage aggregate online -aggregate aggr_name

  4. Überprüfen Sie, ob alle Volumes auf node2 online sind, indem Sie den folgenden Befehl auf node2 verwenden und seine Ausgabe überprüfen:

    volume show -node node2 -state offline

    Wenn ein Volume auf node2 offline ist, bringen Sie sie mit dem folgenden Befehl auf node2 für jedes Volume online:

    volume online -vserver vserver_name -volume volume_name

    Der vserver_name Die Verwendung mit diesem Befehl ist in der Ausgabe des vorherigen gefunden volume show Befehl.

  5. Wenn die Ports, die derzeit Daten-LIFs hosten, nicht auf der neuen Hardware vorhanden sind, entfernen Sie sie aus der Broadcast-Domäne:

    network port broadcast-domain remove-ports

  6. Wenn irgendwelche LIFs ausgefallen sind, setzen Sie den Administratorstatus der LIFs auf up Geben Sie den folgenden Befehl ein, einmal für jede LIF:

    network interface modify -vserver vserver_name -lif LIF_name-home-node nodename -status-admin up

  7. Wenn Schnittstellengruppen oder VLANs konfiguriert sind, führen Sie die folgenden Teilschritte aus:

    1. Wenn Sie sie noch nicht gespeichert haben, notieren Sie die VLAN- und Schnittstellengruppen-Informationen, damit Sie die VLANs und Schnittstellengruppen auf node3 neu erstellen können, nachdem node3 gestartet wurde.

    2. Entfernen Sie die VLANs aus den Schnittstellengruppen:

      network port vlan delete -node nodename -port ifgrp -vlan-id VLAN_ID

      Hinweis Befolgen Sie die Korrekturmaßnahme, um alle Fehler zu beheben, die vom befehl vlan delete vorgeschlagen werden.
    3. Geben Sie den folgenden Befehl ein und überprüfen Sie seine Ausgabe, um zu sehen, ob Schnittstellengruppen auf dem Node konfiguriert sind:

      network port ifgrp show -node nodename -ifgrp ifgrp_name -instance

      Das System zeigt Schnittstellengruppeninformationen für den Node an, wie im folgenden Beispiel gezeigt:

    cluster::> network port ifgrp show -node node1 -ifgrp a0a -instance
                     Node: node1
     Interface Group Name: a0a
    Distribution Function: ip
            Create Policy: multimode_lacp
              MAC Address: 02:a0:98:17:dc:d4
       Port Participation: partial
            Network Ports: e2c, e2d
                 Up Ports: e2c
               Down Ports: e2d
    1. Wenn Schnittstellengruppen auf dem Node konfiguriert sind, notieren Sie die Namen dieser Gruppen und der ihnen zugewiesenen Ports. Löschen Sie dann die Ports, indem Sie den folgenden Befehl eingeben, und zwar einmal für jeden Port:

      network port ifgrp remove-port -node nodename -ifgrp ifgrp_name -port netport