Skip to main content
Cluster and storage switches
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Migrieren Sie mit Cisco Nexus 3232C Cluster-Switches von einem Cluster mit zwei Nodes ohne Switches zu einem Cluster

Beitragende

Wenn Sie über einen 2-Node-Switch-_Cluster verfügen, können Sie zu einem _Switched Cluster mit zwei Nodes migrieren, der Cisco Nexus 3232C-Cluster-Netzwerk-Switches enthält. Hierbei handelt es sich um ein unterbrechungsfreies Verfahren.

Prüfen Sie die Anforderungen

Migrationsanforderungen

Vor der Migration sollten Sie unbedingt prüfen "Migrationsanforderungen".

Was Sie benötigen

Stellen Sie sicher, dass:

  • Für Node-Verbindungen sind Ports verfügbar. Die Cluster-Switches verwenden die Inter-Switch-Link-Ports (ISL) e1/31-32.

  • Sie verfügen über die entsprechenden Kabel für Cluster-Verbindungen:

    • Die Nodes mit 10 GbE-Cluster-Verbindungen erfordern optische QSFP-Module mit Breakout-Glasfaserkabeln oder QSFP zu SFP+ Kupfer-Breakout-Kabeln.

    • Die Nodes mit 40/100 GbE-Cluster-Verbindungen erfordern unterstützte optische QSFP/QSFP28-Module mit Glasfaserkabeln oder QSFP/QSFP28-Kupfer-Direct-Attach-Kabeln.

    • Die Cluster-Switches erfordern die entsprechende ISL-Verkabelung: 2 QSFP28-Glasfaser- oder Kupfer-Direct-Attached-Kabel.

  • Die Konfigurationen sind ordnungsgemäß eingerichtet und funktionieren ordnungsgemäß.

    Die beiden Nodes müssen verbunden und in einer 2-Node-Cluster-Einstellung ohne Switches funktionieren.

  • Alle Cluster-Ports haben den Status up.

  • Der Cisco Nexus 3232C Cluster-Switch wird unterstützt.

  • Die vorhandene Cluster-Netzwerkkonfiguration verfügt über folgende Merkmale:

    • Eine redundante und voll funktionsfähige Nexus 3232C-Cluster-Infrastruktur auf beiden Switches

    • Die neuesten RCF- und NX-OS-Versionen auf Ihren Switches

    • Management-Konnektivität auf beiden Switches

    • Konsolenzugriff auf beide Switches

    • Alle Cluster-logischen Schnittstellen (LIFs) im Status up ohne migriert zu haben

    • Erstanpassung des Schalters

    • Alle ISL-Ports sind aktiviert und verkabelt

Migrieren Sie die Switches

Zu den Beispielen

Die Beispiele in diesem Verfahren verwenden die folgende Nomenklatur für Switches und Knoten:

  • Nexus 3232C Cluster Switches, C1 und C2.

  • Die Knoten sind n1 und n2.

Die Beispiele in diesem Verfahren verwenden zwei Knoten, von denen jeder zwei 40 GbE Cluster Interconnect Ports e4a und e4e nutzt. Der "Hardware Universe" Enthält Details zu den Cluster-Ports auf Ihren Plattformen.

  • n1_clus1 ist die erste logische Clusterschnittstelle (LIF), die für Knoten n1 mit Cluster-Switch C1 verbunden werden soll.

  • n1_clus2 ist die erste Cluster-LIF, die für Node n1 mit Cluster-Switch C2 verbunden wird.

  • n2_clus1 ist die erste Cluster-LIF, die für Knoten n2 mit Cluster-Switch C1 verbunden wird.

  • n2_clus2 ist die zweite Cluster-LIF, die für Knoten n2 an Cluster-Switch C2 angeschlossen werden soll.

  • Die Anzahl der 10-GbE- und 40/100-GbE-Ports ist in den auf der verfügbaren Referenzkonfigurationsdateien (RCFs) definiert "Cisco® Cluster Network Switch Referenzkonfigurationsdatei Herunterladen" Seite.

Hinweis

Das Verfahren erfordert die Verwendung von ONTAP Befehlen und den Switches der Cisco Nexus 3000 Serie. ONTAP Befehle werden verwendet, sofern nicht anders angegeben.

Schritt: Physische und logische Ports anzeigen und migrieren

  1. Wenn AutoSupport in diesem Cluster aktiviert ist, unterdrücken Sie die automatische Erstellung eines Falls durch Aufrufen einer AutoSupport Meldung:

    system node autosupport invoke -node * -type all - message MAINT=xh

    X ist die Dauer des Wartungsfensters in Stunden.

    Hinweis

    Die AutoSupport Meldung wird vom technischen Support dieser Wartungsaufgabe benachrichtigt, damit die automatische Case-Erstellung während des Wartungsfensters unterdrückt wird.

  2. Legen Sie den Administrations- oder Betriebsstatus für jede Cluster-Schnittstelle fest:

    1. Zeigen Sie die Attribute des Netzwerkports an:

      network port show -role cluster

      Beispiel anzeigen
      cluster::*> network port show -role cluster
        (network port show)
      Node: n1
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- -----
      e4a       Cluster      Cluster          up   9000 auto/40000  -
      e4e       Cluster      Cluster          up   9000 auto/40000  -        -
      Node: n2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- -----
      e4a       Cluster      Cluster          up   9000 auto/40000  -
      e4e       Cluster      Cluster          up   9000 auto/40000  -
      4 entries were displayed.
    2. Informationen zu den logischen Schnittstellen und den zugehörigen Home-Nodes anzeigen:

      network interface show -role cluster

      Beispiel anzeigen
      cluster::*> network interface show -role cluster
       (network interface show)
                  Logical    Status     Network            Current       Current Is
      Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
      ----------- ---------- ---------- ------------------ ------------- ------- ---
      Cluster
                  n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                  n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                  n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                  n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
      
      4 entries were displayed.
    3. Überprüfen Sie mithilfe des erweiterten Berechtigungsbefehls, ob die Cluster-Erkennung ohne Switch aktiviert ist:

      network options detect-switchless-cluster show`

    Beispiel anzeigen

    Die Ausgabe im folgenden Beispiel zeigt, dass die Cluster-Erkennung ohne Switches aktiviert ist:

    cluster::*> network options detect-switchless-cluster show
    Enable Switchless Cluster Detection: true
  3. Vergewissern Sie sich, dass die entsprechenden RCs und das entsprechende Image auf den neuen 3232C-Switches installiert sind und nehmen Sie alle erforderlichen Standortanpassungen vor, z. B. das Hinzufügen von Benutzern, Passwörtern und Netzwerkadressen.

    Sie müssen beide Switches derzeit vorbereiten. Wenn Sie die RCF- und Bildsoftware aktualisieren müssen, müssen Sie folgende Schritte ausführen:

    1. Wechseln Sie auf der NetApp Support Site zur Seite Cisco Ethernet Switches.

    2. Notieren Sie sich Ihren Switch und die erforderlichen Softwareversionen in der Tabelle auf dieser Seite.

    3. Laden Sie die entsprechende RCF-Version herunter.

    4. Klicken Sie auf der Seite Beschreibung auf WEITER, akzeptieren Sie die Lizenzvereinbarung und befolgen Sie dann die Anweisungen auf der Seite Download, um die RCF herunterzuladen.

    5. Laden Sie die entsprechende Version der Bildsoftware herunter.

  4. Klicken Sie auf der Seite Beschreibung auf WEITER, akzeptieren Sie die Lizenzvereinbarung und befolgen Sie dann die Anweisungen auf der Seite Download, um die RCF herunterzuladen.

  5. Bei den Nexus 3232C-Switches C1 und C2 deaktivieren Sie alle Ports C1 und C2 für Knoten, deaktivieren Sie aber nicht die ISL-Ports e1/31-32.

    Weitere Informationen zu Cisco-Befehlen finden Sie in den Handbüchern im "Referenzen für NX-OS-Befehle der Cisco Nexus 3000-Serie".

    Beispiel anzeigen

    Das folgende Beispiel zeigt die Ports 1 bis 30, die bei Nexus 3232C-Cluster-Switches C1 und C2 unter Verwendung einer in RCF unterstützten Konfiguration deaktiviert sind NX3232_RCF_v1.0_24p10g_24p100g.txt:

    C1# copy running-config startup-config
    [] 100% Copy complete.
    C1# configure
    C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C1(config-if-range)# shutdown
    C1(config-if-range)# exit
    C1(config)# exit
    C2# copy running-config startup-config
    [] 100% Copy complete.
    C2# configure
    C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C2(config-if-range)# shutdown
    C2(config-if-range)# exit
    C2(config)# exit
  6. Verbinden Sie die Ports 1/31 und 1/32 auf C1 mit den gleichen Ports auf C2, indem Sie die unterstützten Kabel verwenden.

  7. Überprüfen Sie, ob die ISL-Ports auf C1 und C2 funktionsfähig sind:

    show port-channel summary

    Weitere Informationen zu Cisco-Befehlen finden Sie in den Handbüchern im "Referenzen für NX-OS-Befehle der Cisco Nexus 3000-Serie".

    Beispiel anzeigen

    Das folgende Beispiel zeigt Cisco show port-channel summary Mit diesem Befehl wird sichergestellt, dass die ISL-Ports auf C1 und C2 funktionsfähig sind:

    C1# show port-channel summary
    Flags: D - Down         P - Up in port-channel (members)
           I - Individual   H - Hot-standby (LACP only)        s - Suspended    r - Module-removed
           S - Switched     R - Routed
           U - Up (port-channel)
           M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
          Port-
    Group Channel      Type   Protocol  Member Ports
    -------------------------------------------------------------------------------
    1     Po1(SU)      Eth    LACP      Eth1/31(P)   Eth1/32(P)
    
    C2# show port-channel summary
    Flags: D - Down         P - Up in port-channel (members)
           I - Individual   H - Hot-standby (LACP only)        s - Suspended    r - Module-removed
           S - Switched     R - Routed
           U - Up (port-channel)
           M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    
    Group Port-        Type   Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)      Eth    LACP      Eth1/31(P)   Eth1/32(P)
  8. Zeigen Sie die Liste der benachbarten Geräte auf dem Switch an.

    Weitere Informationen zu Cisco-Befehlen finden Sie in den Handbüchern im "Referenzen für NX-OS-Befehle der Cisco Nexus 3000-Serie".

    Beispiel anzeigen

    Im folgenden Beispiel wird der Befehl Cisco angezeigt show cdp neighbors Wird zur Anzeige der benachbarten Geräte auf dem Switch verwendet:

    C1# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,                   s - Supports-STP-Dispute
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    C2                 Eth1/31        174    R S I s     N3K-C3232C  Eth1/31
    C2                 Eth1/32        174    R S I s     N3K-C3232C  Eth1/32
    Total entries displayed: 2
    C2# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,                   s - Supports-STP-Dispute
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    C1                 Eth1/31        178    R S I s     N3K-C3232C  Eth1/31
    C1                 Eth1/32        178    R S I s     N3K-C3232C  Eth1/32
    Total entries displayed: 2
  9. Zeigen Sie die Cluster-Port-Konnektivität auf jedem Node an:

    network device-discovery show

    Beispiel anzeigen

    Im folgenden Beispiel wird die Cluster-Port-Konnektivität für eine Konfiguration mit zwei Nodes ohne Switches angezeigt:

    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    n2                  e4a              FAS9000
                e4e    n2                  e4e              FAS9000
    n2         /cdp
                e4a    n1                  e4a              FAS9000
                e4e    n1                  e4e              FAS9000
  10. Migrieren Sie die LIFs n1_clus1 und n2_clug1 zu den physischen Ports ihrer Ziel-Knoten:

    network interface migrate -vserver vserver-name -lif lif-name source-node source-node-name -destination-port destination-port-name

    Beispiel anzeigen

    Sie müssen den Befehl für jeden lokalen Node ausführen, wie im folgenden Beispiel gezeigt:

    cluster::*> network interface migrate -vserver cluster -lif n1_clus1 -source-node n1
    -destination-node n1 -destination-port e4e
    cluster::*> network interface migrate -vserver cluster -lif n2_clus1 -source-node n2
    -destination-node n2 -destination-port e4e

Schritt 2: Schalten Sie die neu zugeordneten LIFs ab und trennen Sie die Kabel

  1. Überprüfen Sie, ob die Cluster-Schnittstellen erfolgreich migriert wurden:

    network interface show -role cluster

    Beispiel anzeigen

    Das folgende Beispiel zeigt den Status „is Home“ für die LIFs n1_clus1 und n2_clug1 ist nach Abschluss der Migration „false“ geworden:

    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4e     false
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4e     false
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
     4 entries were displayed.
  2. Beenden Sie die Cluster-Ports für die LIFs n1_clus1 und n2_clue1, die in Schritt 9 migriert wurden:

    network port modify -node node-name -port port-name -up-admin false

    Beispiel anzeigen

    Sie müssen den Befehl für jeden Port ausführen, wie im folgenden Beispiel gezeigt:

    cluster::*> network port modify -node n1 -port e4a -up-admin false
    cluster::*> network port modify -node n2 -port e4a -up-admin false
  3. Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:

ONTAP 9.9.1 und höher

Sie können das verwenden network interface check cluster-connectivity Befehl, um eine Zugriffsprüfung für die Cluster-Konnektivität zu starten und dann Details anzuzeigen:

network interface check cluster-connectivity start Und network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

HINWEIS: Warten Sie einige Sekunden, bevor Sie den Befehl ausführen show, um die Details anzuzeigen.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
n1
       3/5/2022 19:21:18 -06:00   n1_clus2         n2-clus1         none
       3/5/2022 19:21:20 -06:00   n1_clus2         n2_clus2         none

n2
       3/5/2022 19:21:18 -06:00   n2_clus2         n1_clus1         none
       3/5/2022 19:21:20 -06:00   n2_clus2         n1_clus2         none
Alle ONTAP Versionen

Sie können für alle ONTAP Versionen auch den verwenden cluster ping-cluster -node <name> Befehl zum Überprüfen der Konnektivität:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1        e4a    10.10.0.1
Cluster n1_clus2 n1        e4e    10.10.0.2
Cluster n2_clus1 n2        e4a    10.10.0.3
Cluster n2_clus2 n2        e4e    10.10.0.4
Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293 Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s) ................
Detected 9000 byte MTU on 32 path(s):
    Local 10.10.0.1 to Remote 10.10.0.3
    Local 10.10.0.1 to Remote 10.10.0.4
    Local 10.10.0.2 to Remote 10.10.0.3
    Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s) RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)
  1. Trennen Sie das Kabel von e4a auf Knoten n1.

    Sie können sich auf die laufende Konfiguration beziehen und den ersten 40-GbE-Port am Switch C1 (Port 1/7 in diesem Beispiel) mit e4a auf n1 verbinden, indem die Verkabelung unterstützt für Nexus 3232C-Switches.

Schritt 3: Aktivieren Sie die Cluster-Ports

  1. Trennen Sie das Kabel von e4a auf Knoten n2.

    Sie können sich auf die laufende Konfiguration beziehen und e4a mit dem nächsten verfügbaren 40 GbE-Port von C1, Port 1/8, über unterstützte Verkabelung verbinden.

  2. Aktivieren Sie alle Ports, die an Knoten gerichtet sind, auf C1.

    Weitere Informationen zu Cisco-Befehlen finden Sie in den Handbüchern im "Referenzen für NX-OS-Befehle der Cisco Nexus 3000-Serie".

    Beispiel anzeigen

    Das folgende Beispiel zeigt die Ports 1 bis 30, die bei Nexus 3232C-Cluster-Switches C1 und C2 unter Verwendung der in RCF unterstützten Konfiguration aktiviert sind NX3232_RCF_v1.0_24p10g_26p100g.txt:

    C1# configure
    C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C1(config-if-range)# no shutdown
    C1(config-if-range)# exit
    C1(config)# exit
  3. Aktivieren Sie den ersten Cluster-Port e4a auf jedem Knoten:

    network port modify -node node-name -port port-name -up-admin true

    Beispiel anzeigen
    cluster::*> network port modify -node n1 -port e4a -up-admin true
    cluster::*> network port modify -node n2 -port e4a -up-admin true
  4. Vergewissern Sie sich, dass die Cluster auf beiden Nodes aktiv sind:

    network port show -role cluster

    Beispiel anzeigen
    cluster::*> network port show -role cluster
      (network port show)
    Node: n1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- -----
    e4a       Cluster      Cluster          up   9000 auto/40000  -
    e4e       Cluster      Cluster          up   9000 auto/40000  -        -
    
    Node: n2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- -----
    e4a       Cluster      Cluster          up   9000 auto/40000  -
    e4e       Cluster      Cluster          up   9000 auto/40000  -
    
    4 entries were displayed.
  5. Setzen Sie für jeden Node alle migrierten Cluster Interconnect LIFs zurück:

    network interface revert -vserver cluster -lif lif-name

    Beispiel anzeigen

    Sie müssen jede LIF einzeln wie im folgenden Beispiel gezeigt auf ihren Home-Port zurücksetzen:

    cluster::*> network interface revert -vserver cluster -lif n1_clus1
    cluster::*> network interface revert -vserver cluster -lif n2_clus1
  6. Vergewissern Sie sich, dass alle LIFs nun auf ihre Home-Ports zurückgesetzt werden:

    network interface show -role cluster

    Der Is Home Spalte sollte einen Wert von anzeigen true Für alle im aufgeführten Ports Current Port Spalte. Wenn der angezeigte Wert lautet false, Der Hafen wurde nicht zurückgesetzt.

    Beispiel anzeigen
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.

Schritt 4: Aktivieren Sie die neu signierten LIFs

  1. Zeigen Sie die Cluster-Port-Konnektivität auf jedem Node an:

    network device-discovery show

    Beispiel anzeigen
    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    C1                  Ethernet1/7      N3K-C3232C
                e4e    n2                  e4e              FAS9000
    n2         /cdp
                e4a    C1                  Ethernet1/8      N3K-C3232C
                e4e    n1                  e4e              FAS9000
  2. Migrieren von Fazit 2 zu Port e4a auf der Konsole jedes Knotens:

    network interface migrate cluster -lif lif-name -source-node source-node-name -destination-node destination-node-name -destination-port destination-port-name

    Beispiel anzeigen

    Sie müssen jede LIF individuell wie im folgenden Beispiel dargestellt zu ihrem Home Port migrieren:

    cluster::*> network interface migrate -vserver cluster -lif n1_clus2 -source-node n1
    -destination-node n1 -destination-port e4a
    cluster::*> network interface migrate -vserver cluster -lif n2_clus2 -source-node n2
    -destination-node n2 -destination-port e4a
  3. Herunterfahren von Cluster-Ports clu2 LIF auf beiden Knoten:

    network port modify

    Beispiel anzeigen

    Im folgenden Beispiel werden die angegebenen Ports angezeigt, die auf festgelegt sind false, Herunterfahren der Ports auf beiden Nodes:

    cluster::*> network port modify -node n1 -port e4e -up-admin false
    cluster::*> network port modify -node n2 -port e4e -up-admin false
  4. Überprüfen Sie den LIF-Status des Clusters:

    network interface show

    Beispiel anzeigen
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4a     false
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4a     false
    4 entries were displayed.
  5. Trennen Sie das Kabel von e4e am Knoten n1.

    Sie können auf die laufende Konfiguration verweisen und den ersten 40-GbE-Port am Switch C2 (Port 1/7 in diesem Beispiel) mit e4e am Node n1 verbinden. Dabei wird die entsprechende Verkabelung für das Nexus 3232C-Switch-Modell verwendet.

  6. Trennen Sie das Kabel von e4e am Knoten n2.

    Sie können sich auf die laufende Konfiguration beziehen und e4e mithilfe der entsprechenden Verkabelung für das Nexus 3232C-Switch-Modell mit dem nächsten verfügbaren 40 GbE-Port auf C2, Port 1/8 verbinden.

  7. Aktivieren Sie alle Anschlüsse für Knoten auf C2.

    Beispiel anzeigen

    Das folgende Beispiel zeigt die Ports 1 bis 30, die bei Nexus 3132Q-V Cluster Switches C1 und C2 aktiviert sind und eine in RCF unterstützte Konfiguration verwenden NX3232C_RCF_v1.0_24p10g_26p100g.txt:

    C2# configure
    C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C2(config-if-range)# no shutdown
    C2(config-if-range)# exit
    C2(config)# exit
  8. Aktivieren Sie den zweiten Cluster-Port e4e auf jedem Node:

    network port modify

    Beispiel anzeigen

    Das folgende Beispiel zeigt, dass der zweite Cluster-Port e4e auf jedem Node hochgebracht wird:

    cluster::*> network port modify -node n1 -port e4e -up-admin true
    cluster::*> *network port modify -node n2 -port e4e -up-admin true*s
  9. Setzen Sie für jeden Node alle migrierten Cluster Interconnect LIFs zurück: network interface revert

    Beispiel anzeigen

    Das folgende Beispiel zeigt, dass die migrierten LIFs auf die Home-Ports zurückgesetzt werden.

    cluster::*> network interface revert -vserver Cluster -lif n1_clus2
    cluster::*> network interface revert -vserver Cluster -lif n2_clus2
  10. Vergewissern Sie sich, dass alle Cluster-Interconnect-Ports jetzt auf die Home-Ports zurückgesetzt werden:

    network interface show -role cluster

    Der Is Home Spalte sollte einen Wert von anzeigen true Für alle im aufgeführten Ports Current Port Spalte. Wenn der angezeigte Wert lautet false, Der Hafen wurde nicht zurückgesetzt.

    Beispiel anzeigen
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.
  11. Vergewissern Sie sich, dass sich alle Cluster-Interconnect-Ports im befinden up Bundesland:

    network port show -role cluster

  12. Zeigen Sie die Port-Nummern des Cluster-Switches an, über die jeder Cluster-Port mit jedem Node verbunden ist: network device-discovery show

    Beispiel anzeigen
    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1          /cdp
                e4a    C1                  Ethernet1/7      N3K-C3232C
                e4e    C2                  Ethernet1/7      N3K-C3232C
    n2          /cdp
                e4a    C1                  Ethernet1/8      N3K-C3232C
                e4e    C2                  Ethernet1/8      N3K-C3232C
  13. Anzeige ermittelte und überwachte Cluster-Switches:

    system cluster-switch show

    Beispiel anzeigen
    cluster::*> system cluster-switch show
    
    Switch                      Type               Address          Model
    --------------------------- ------------------ ---------------- ---------------
    C1                          cluster-network    10.10.1.101      NX3232CV
    Serial Number: FOX000001
    Is Monitored: true
    Reason:
    Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1)
    Version Source: CDP
    
    C2                          cluster-network     10.10.1.102      NX3232CV
    Serial Number: FOX000002
    Is Monitored: true
    Reason:
    Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1)
    Version Source: CDP 2 entries were displayed.
  14. Vergewissern Sie sich, dass die Cluster-Erkennung ohne Switches die Switch-Option deaktiviert hat:

    network options switchless-cluster show

  15. Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:

ONTAP 9.9.1 und höher

Sie können das verwenden network interface check cluster-connectivity Befehl, um eine Zugriffsprüfung für die Cluster-Konnektivität zu starten und dann Details anzuzeigen:

network interface check cluster-connectivity start Und network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

HINWEIS: Warten Sie einige Sekunden, bevor Sie den Befehl ausführen show, um die Details anzuzeigen.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
n1
       3/5/2022 19:21:18 -06:00   n1_clus2         n2-clus1         none
       3/5/2022 19:21:20 -06:00   n1_clus2         n2_clus2         none

n2
       3/5/2022 19:21:18 -06:00   n2_clus2         n1_clus1         none
       3/5/2022 19:21:20 -06:00   n2_clus2         n1_clus2         none
Alle ONTAP Versionen

Sie können für alle ONTAP Versionen auch den verwenden cluster ping-cluster -node <name> Befehl zum Überprüfen der Konnektivität:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1        e4a    10.10.0.1
Cluster n1_clus2 n1        e4e    10.10.0.2
Cluster n2_clus1 n2        e4a    10.10.0.3
Cluster n2_clus2 n2        e4e    10.10.0.4
Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s) ................
Detected 9000 byte MTU on 32 path(s):
    Local 10.10.0.1 to Remote 10.10.0.3
    Local 10.10.0.1 to Remote 10.10.0.4
    Local 10.10.0.2 to Remote 10.10.0.3
    Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s) RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)
  1. Wenn Sie die automatische Fallerstellung unterdrückt haben, aktivieren Sie sie erneut, indem Sie eine AutoSupport-Meldung aufrufen:

    system node autosupport invoke -node * -type all -message MAINT=END