Ersetzen Sie einen gemeinsamen Cisco Nexus 9336C-FX2 Switch
Sie können einen defekten Nexus 9336C-FX2 Shared Switch ersetzen. Dies ist ein NDU (Non Disruptive Procedure, NDU).
Stellen Sie vor dem Austausch des Switches Folgendes sicher:
-
In dem vorhandenen Cluster und der Netzwerkinfrastruktur:
-
Das vorhandene Cluster wird mit mindestens einem vollständig verbundenen Cluster-Switch als voll funktionsfähig geprüft.
-
Alle Cluster-Ports sind up.
-
Alle logischen Cluster-Schnittstellen (LIFs) sind up und auf ihren Home-Ports.
-
Der ONTAP-Cluster ping-Cluster -Node node1 Befehl muss angeben, dass die grundlegende Konnektivität und die PMTU-Kommunikation auf allen Pfaden erfolgreich sind.
-
-
Für den Nexus 9336C-FX2-Ersatzschalter:
-
Das Management-Netzwerk-Konnektivität auf dem Ersatz-Switch ist funktionsfähig.
-
Der Konsolenzugriff auf den Ersatz-Switch erfolgt.
-
Die Node-Verbindungen sind Ports 1/1 bis 1/34:
-
Alle Inter-Switch Link (ISL)-Ports sind an den Ports 1/35 und 1/36 deaktiviert.
-
Die gewünschte Referenzkonfigurationsdatei (RCF) und den NX-OS-Bildschalter werden auf den Switch geladen.
-
Alle zuvor erstellten Site-Anpassungen wie STP, SNMP und SSH sollten auf den neuen Switch kopiert werden.
-
Sie müssen den Befehl zum Migrieren einer Cluster-LIF von dem Node ausführen, auf dem die Cluster-LIF gehostet wird.
Die Beispiele in diesem Verfahren verwenden die folgende Nomenklatur für Switches und Knoten:
-
Die Namen der vorhandenen Nexus 9336C-FX2-Schalter sind sh1 und sh2.
-
Der Name der neuen Nexus 9336C-FX2 Switches lautet newsh1 und newsh2.
-
Die Knotennamen sind node1 und node2.
-
Die Cluster-Ports auf jedem Node lauten e3a und e3b.
-
Die LIF-Namen des Clusters sind
node1_clus1
Undnode1_clus2
Für Node1, undnode2_clus1
Undnode2_clus2
Für Knoten 2. -
Die Eingabeaufforderung für Änderungen an allen Cluster-Nodes lautet cluster1:*>.
Die folgende Vorgehensweise basiert auf der folgenden Netzwerktopologie:
Beispieltopologie anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false 4 entries were displayed. cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true 4 entries were displayed. cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node2 /cdp e3a sh1 Eth1/2 N9K-C9336C e3b sh2 Eth1/2 N9K-C9336C node1 /cdp e3a sh1 Eth1/1 N9K-C9336C e3b sh2 Eth1/1 N9K-C9336C 4 entries were displayed. sh1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 144 H FAS2980 e3a node2 Eth1/2 145 H FAS2980 e3a sh2 Eth1/35 176 R S I s N9K-C9336C Eth1/35 sh2 (FDO220329V5) Eth1/36 176 R S I s N9K-C9336C Eth1/36 Total entries displayed: 4 sh2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 139 H FAS2980 eb node2 Eth1/2 124 H FAS2980 eb sh1 Eth1/35 178 R S I s N9K-C9336C Eth1/35 sh1 Eth1/36 178 R S I s N9K-C9336C Eth1/36 Total entries displayed: 4
-
Wenn AutoSupport in diesem Cluster aktiviert ist, unterdrücken Sie die automatische Erstellung eines Falls durch Aufrufen einer AutoSupport Meldung:
system node autosupport invoke -node * -type all -message MAINT=xh
Wobei x die Dauer des Wartungsfensters in Stunden ist.
-
Optional: Installieren Sie die entsprechenden RCF und das entsprechende Bild auf dem Switch, newsh2, und machen Sie alle erforderlichen Standortvorbereitungen.
-
Überprüfen, laden und installieren Sie gegebenenfalls die entsprechenden Versionen der RCF- und NX-OS-Software für den neuen Switch. Wenn Sie überprüft haben, dass der neue Switch korrekt eingerichtet ist und keine Aktualisierungen der RCF- und NX-OS-Software benötigt, fahren Sie fort Schritt 3.
-
Rufen Sie die Seite „Referenzkonfigurationsdatei“ der NetApp Support-Website auf der Seite „NetApp Cluster- und Management-Netzwerk-Switches“ auf.
-
Klicken Sie auf den Link für die Cluster-Netzwerk- und Management-Netzwerk-Kompatibilitätsmatrix, und notieren Sie anschließend die erforderliche Switch-Softwareversion.
-
Klicken Sie auf den Zurück-Pfeil Ihres Browsers, um zur Seite Beschreibung zurückzukehren. Klicken Sie auf WEITER, akzeptieren Sie die Lizenzvereinbarung und gehen Sie dann zur Download-Seite.
-
Befolgen Sie die Schritte auf der Download-Seite, um die korrekten RCF- und NX-OS-Dateien für die Version der installierten ONTAP-Software herunterzuladen.
-
-
beim neuen Switch melden Sie sich als Administrator an und fahren Sie alle Ports ab, die mit den Node-Cluster-Schnittstellen verbunden werden sollen (Ports 1/1 bis 1/34). Wenn der Schalter, den Sie ersetzen, nicht funktionsfähig ist und ausgeschaltet ist, fahren Sie mit fort Schritt 4. Die LIFs auf den Cluster-Nodes sollten für jeden Node bereits ein Failover auf den anderen Cluster-Port durchgeführt haben.
Beispiel anzeigen
newsh2# config Enter configuration commands, one per line. End with CNTL/Z. newsh2(config)# interface e1/1-34 newsh2(config-if-range)# shutdown
-
Überprüfen Sie, ob für alle Cluster-LIFs die automatische Zurücksetzung aktiviert ist.
network interface show - vserver Cluster -fields auto-revert
Beispiel anzeigen
cluster1::> network interface show -vserver Cluster -fields auto-revert Logical Vserver Interface Auto-revert ------------ ------------- ------------- Cluster node1_clus1 true Cluster node1_clus2 true Cluster node2_clus1 true Cluster node2_clus2 true 4 entries were displayed.
-
Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:
Sie können das verwenden network interface check cluster-connectivity
Befehl, um eine Zugriffsprüfung für die Cluster-Konnektivität zu starten und dann Details anzuzeigen:
network interface check cluster-connectivity start
Und network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
HINWEIS: Warten Sie einige Sekunden, bevor Sie den Befehl ausführen show
, um die Details anzuzeigen.
cluster1::*> network interface check cluster-connectivity show Source Destination Packet Node Date LIF LIF Loss ------ -------------------------- ---------------- ---------------- ----------- node1 3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none 3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none node2 3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none 3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Sie können für alle ONTAP Versionen auch den verwenden cluster ping-cluster -node <name>
Befehl zum Überprüfen der Konnektivität:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e3a Cluster node1_clus2 169.254.49.125 node1 e3b Cluster node2_clus1 169.254.47.194 node2 e3a Cluster node2_clus2 169.254.19.183 node2 e3b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
-
Schalten Sie die ISL-Ports 1/35 und 1/36 am Nexus 9336C-FX2-Switch sh1 ab.
Beispiel anzeigen
sh1# configure Enter configuration commands, one per line. End with CNTL/Z. sh1(config)# interface e1/35-36 sh1(config-if-range)# shutdown
-
Entfernen Sie alle Kabel vom Nexus 9336C-FX2 sh2 Switch und verbinden Sie sie dann mit den gleichen Ports am Nexus C9336C-FX2 newsh2 Switch.
-
Bringen Sie die ISLs-Ports 1/35 und 1/36 zwischen den switches sh1 und newsh2 auf, und überprüfen Sie dann den Betriebsstatus des Port-Kanals.
Port-Channel sollte PO1(SU) angeben und Mitgliedsports sollten eth1/35(P) und eth1/36(P) angeben.
Beispiel anzeigen
Dieses Beispiel aktiviert die ISL-Ports 1/35 und 1/36 und zeigt die Zusammenfassung des Port-Kanals am Switch sh1 an.
sh1# configure Enter configuration commands, one per line. End with CNTL/Z. sh1 (config)# int e1/35-36 sh1 (config-if-range)# no shutdown sh1 (config-if-range)# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed b - BFD Session Wait S - Switched R - Routed U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/35(P) Eth1/36(P) sh1 (config-if-range)#
-
Überprüfen Sie, ob der Port e3b auf allen Knoten verfügbar ist:
network port show ipspace Cluster
Beispiel anzeigen
Die Ausgabe sollte wie folgt aussehen:
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ----- ---------- - - -------- ---- e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ----- ----------- - -------- ---- e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/auto - false 4 entries were displayed.
-
auf demselben Node, den Sie im vorherigen Schritt verwendet haben, setzen Sie die dem Port zugeordnete Cluster-LIF im vorherigen Schritt zurück, indem Sie den Befehl zur Zurücksetzen der Netzwerkschnittstelle verwenden.
In diesem Beispiel wird LIF node1_clus2 auf node1 erfolgreich zurückgesetzt, wenn der Wert „Home“ lautet und der Port e3b ist.
Die folgenden Befehle geben LIF node1_clus2 on node1 an den Home Port e3a zurück und zeigen Informationen über die LIFs auf beiden Knoten an. Das Aufbringen des ersten Knotens ist erfolgreich, wenn die Spalte IS Home für beide Cluster-Schnittstellen true lautet und sie die korrekten Port-Zuweisungen zeigen, in diesem Beispiel e3a und e3b auf node1.
Beispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------ ---------- ------------------ ---------- ------- ----- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3a false 4 entries were displayed.
-
Informationen über die Knoten in einem Cluster anzeigen:
cluster show
Beispiel anzeigen
Dieses Beispiel zeigt, dass der Zustand des Node für Node 1 und node2 in diesem Cluster „true“ lautet:
cluster1::*> cluster show Node Health Eligibility ------------- ------- ------------ node1 false true node2 true true
-
] Überprüfen Sie, ob alle physischen Cluster-Ports aktiv sind:
network port show ipspace Cluster
Beispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ----------- ----------------- ----- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ----- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false 4 entries were displayed.
-
Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:
Sie können das verwenden network interface check cluster-connectivity
Befehl, um eine Zugriffsprüfung für die Cluster-Konnektivität zu starten und dann Details anzuzeigen:
network interface check cluster-connectivity start
Und network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
HINWEIS: Warten Sie einige Sekunden, bevor Sie den Befehl ausführen show
, um die Details anzuzeigen.
cluster1::*> network interface check cluster-connectivity show Source Destination Packet Node Date LIF LIF Loss ------ -------------------------- ---------------- ---------------- ----------- node1 3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none 3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none node2 3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none 3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Sie können für alle ONTAP Versionen auch den verwenden cluster ping-cluster -node <name>
Befehl zum Überprüfen der Konnektivität:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e3a Cluster node1_clus2 169.254.49.125 node1 e3b Cluster node2_clus1 169.254.47.194 node2 e3a Cluster node2_clus2 169.254.19.183 node2 e3b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
-
Bestätigen Sie die folgende Clusternetzwerkkonfiguration:
network port show
Beispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ----------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false 4 entries were displayed. cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true 4 entries were displayed. cluster1::> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node2 /cdp e3a sh1 0/2 N9K-C9336C e3b newsh2 0/2 N9K-C9336C node1 /cdp e3a sh1 0/1 N9K-C9336C e3b newsh2 0/1 N9K-C9336C 4 entries were displayed. sh1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 144 H FAS2980 e3a node2 Eth1/2 145 H FAS2980 e3a newsh2 Eth1/35 176 R S I s N9K-C9336C Eth1/35 newsh2 Eth1/36 176 R S I s N9K-C9336C Eth1/36 Total entries displayed: 4 sh2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 139 H FAS2980 e3b node2 Eth1/2 124 H FAS2980 eb sh1 Eth1/35 178 R S I s N9K-C9336C Eth1/35 sh1 Eth1/36 178 R S I s N9K-C9336C Eth1/36 Total entries displayed: 4
-
Verschieben Sie die Speicherports vom alten Switch sh2 auf den neuen Switch news2.
-
Überprüfen Sie, ob der mit dem HA-Paar 1 verbundene Speicher, der gemeinsam genutzte Switch newsh2 in einem ordnungsgemäßen Zustand ist.
-
Überprüfen Sie, ob der an HA-Paar 2 angeschlossene Speicher, der gemeinsam genutzte Switch newsh2 in einem ordnungsgemäßen Zustand ist:
storage port show -port-type ENET
Beispiel anzeigen
storage::*> storage port show -port-type ENET Speed VLAN Node Port Type Mode (Gb/s) State Status ID ------- ------- ------- ---------- ----------- --------- --------- ----- node1 e3a ENET storage 100 enabled online 30 e3b ENET storage 0 enabled offline 30 e7a ENET storage 0 enabled offline 30 e7b ENET storage 100 enabled online 30 node2 e3a ENET storage 100 enabled online 30 e3b ENET storage 0 enabled offline 30 e7a ENET storage 0 enabled offline 30 e7b ENET storage 100 enabled online 30
-
Überprüfen Sie, ob die Shelfs richtig verkabelt sind:
storage shelf port show -fields remote- device,remote-port
Beispiel anzeigen
cluster1::*> storage shelf port show -fields remote-device,remote-port shelf id remote-port remote-device ----- -- ------------ ---------------------------- 3.20 0 Ethernet1/13 sh1 3.20 1 Ethernet1/13 newsh2 3.20 2 Ethernet1/14 sh1 3.20 3 Ethernet1/14 newsh2 3.30 0 Ethernet1/15 sh1 3.30 1 Ethernet1/15 newsh2 3.30 2 Ethernet1/16 sh1 3.30 3 Ethernet1/16 newsh2 8 entries were displayed.
-
Wiederholen Sie diese Schritte für den Schalter sh1 und den neuen Schalter newsh1.
-
Wenn Sie die automatische Erstellung eines Cases unterdrückten, können Sie sie erneut aktivieren, indem Sie eine AutoSupport Meldung aufrufen:
system node autosupport invoke -node * -type all -message MAINT=END
"Konfigurieren Sie die Überwachung des Switch-Systemzustands".