Skip to main content
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Verschieben von Aggregaten und NAS-Daten-LIFs ohne Root-Wurzeln von Knoten 2 auf Knoten 3

Beitragende

Bevor Sie node2 durch node4 ersetzen, verschieben Sie die nicht-Root-Aggregate und NAS-Daten-LIFs, die im Besitz von node2 sind, auf node3.

Bevor Sie beginnen

Nach den Nachprüfungen aus der vorherigen Phase wird automatisch die Ressourcenfreigabe für node2 gestartet. Die Aggregate außerhalb des Root-Bereichs und LIFs für nicht-SAN-Daten werden von node2 auf node3 migriert.

Über diese Aufgabe

Remote-LIFs verarbeiten den Datenverkehr zu SAN-LUNs während des Upgrades. Das Verschieben von SAN-LIFs ist für den Zustand des Clusters oder des Service während des Upgrades nicht erforderlich.

Nach der Migration der Aggregate und LIFs wird der Vorgang zu Verifizierungszwecken angehalten. In dieser Phase müssen Sie überprüfen, ob alle Aggregate ohne Root-Root-Daten und LIFs außerhalb des SAN in node3 migriert werden.

Hinweis Der Home-Inhaber für die Aggregate und LIFs werden nicht geändert, nur der aktuelle Besitzer wird geändert.
Schritte
  1. Vergewissern Sie sich, dass alle nicht-Root-Aggregate online sind und ihren Status auf node3:

    storage aggregate show -node node3 -state online -root false

    Das folgende Beispiel zeigt, dass die nicht-Root-Aggregate auf node2 online sind:

    cluster::> storage aggregate show -node node3 state online -root false
    
    Aggregate      Size         Available   Used%   State   #Vols  Nodes  RAID     Status
    ----------     ---------    ---------   ------  -----   -----  ------ -------  ------
    aggr_1         744.9GB      744.8GB      0%     online  5      node2  raid_dp  normal
    aggr_2         825.0GB      825.0GB      0%     online  1      node2  raid_dp  normal
    2 entries were displayed.

    Wenn die Aggregate offline sind oder in node3 offline sind, bringen Sie sie mit dem folgenden Befehl auf node3 online, einmal für jedes Aggregat:

    storage aggregate online -aggregate aggr_name

  2. Überprüfen Sie, ob alle Volumes auf node3 online sind, indem Sie den folgenden Befehl auf node3 verwenden und die Ausgabe überprüfen:

    volume show -node node3 -state offline

    Wenn ein Volume auf node3 offline ist, schalten Sie sie online. Verwenden Sie dazu den folgenden Befehl auf node3, einmal für jedes Volume:

    volume online -vserver vserver_name -volume volume_name

    Der vserver_name Die Verwendung mit diesem Befehl ist in der Ausgabe des vorherigen gefunden volume show Befehl.

  3. Überprüfen Sie, ob die LIFs zu den richtigen Ports verschoben wurden und über den Status von verfügen up. Wenn irgendwelche LIFs ausgefallen sind, setzen Sie den Administratorstatus der LIFs auf up Geben Sie den folgenden Befehl ein, einmal für jede LIF:

    network interface modify -vserver vserver_name -lif LIF_name -home-node node_name -status-admin up

  4. Wenn die Ports, die derzeit Daten-LIFs hosten, nicht auf der neuen Hardware vorhanden sind, entfernen Sie diese aus der Broadcast-Domäne:

    network port broadcast-domain remove-ports

  5. Überprüfen Sie, ob auf node2 keine Daten-LIFs bleiben, indem Sie den folgenden Befehl eingeben und die Ausgabe überprüfen:

    network interface show -curr-node node2 -role data

  6. Wenn Schnittstellengruppen oder VLANs konfiguriert sind, führen Sie die folgenden Teilschritte aus:

    1. Notieren Sie VLAN- und Schnittstellengruppeninformationen, damit Sie die VLANs und Schnittstellengruppen auf node3 neu erstellen können, nachdem node3 gestartet wurde.

    2. Entfernen Sie die VLANs aus den Schnittstellengruppen:

      network port vlan delete -node nodename -port ifgrp -vlan-id VLAN_ID

    3. Überprüfen Sie, ob auf dem Node Schnittstellengruppen konfiguriert sind, indem Sie den folgenden Befehl eingeben und seine Ausgabe überprüfen:

      network port ifgrp show -node node2 -ifgrp ifgrp_name -instance

      Das System zeigt Schnittstellengruppeninformationen für den Node an, wie im folgenden Beispiel gezeigt:

    cluster::> network port ifgrp show -node node2 -ifgrp a0a -instance
                     Node: node3
     Interface Group Name: a0a
    Distribution Function: ip
            Create Policy: multimode_lacp
              MAC Address: 02:a0:98:17:dc:d4
       Port Participation: partial
            Network Ports: e2c, e2d
                 Up Ports: e2c
               Down Ports: e2d
    1. Wenn Schnittstellengruppen auf dem Node konfiguriert sind, notieren Sie die Namen dieser Gruppen und der ihnen zugewiesenen Ports. Löschen Sie dann die Ports, indem Sie den folgenden Befehl eingeben, und zwar einmal für jeden Port:

      network port ifgrp remove-port -node nodename -ifgrp ifgrp_name -port netport