Ersetzen Sie einen gemeinsam genutzten Cisco Nexus 9336C-FX2-Switch
Sie können einen defekten Nexus 9336C-FX2 Shared Switch austauschen. Dies ist ein unterbrechungsfreies Verfahren (NDU).
Bevor Sie den Schalter austauschen, stellen Sie sicher, dass Folgendes passiert:
-
In der bestehenden Cluster- und Netzwerkinfrastruktur:
-
Der bestehende Cluster wurde als voll funktionsfähig verifiziert, wobei mindestens ein Cluster-Switch vollständig angeschlossen ist.
-
Alle Cluster-Ports sind aktiv.
-
Alle logischen Schnittstellen (LIFs) des Clusters sind aktiv und an ihren jeweiligen Ports angeschlossen.
-
Der Befehl ONTAP cluster ping-cluster -node node1 muss anzeigen, dass die grundlegende Konnektivität und die Kommunikation größer als PMTU auf allen Pfaden erfolgreich sind.
-
-
Für den Ersatzschalter des Nexus 9336C-FX2:
-
Die Management-Netzwerkanbindung des Ersatz-Switches ist funktionsfähig.
-
Der Konsolenzugriff auf den Ersatzschalter ist eingerichtet.
-
Die Knotenverbindungen sind die Ports 1/1 bis 1/34:
-
Alle Inter-Switch Link (ISL)-Ports sind an den Ports 1/35 und 1/36 deaktiviert.
-
Die gewünschte Referenzkonfigurationsdatei (RCF) und das NX-OS-Betriebssystem-Image werden auf den Switch geladen.
-
Alle zuvor vorgenommenen Anpassungen am Standort, wie z. B. STP, SNMP und SSH, sollten auf den neuen Switch kopiert werden.
-
Sie müssen den Befehl zur Migration eines Cluster-LIF von dem Knoten ausführen, auf dem der Cluster-LIF gehostet wird.
Die Beispiele in diesem Verfahren verwenden die folgende Schalter- und Knotennomenklatur:
-
Die Namen der vorhandenen Nexus 9336C-FX2 Switches lauten sh1 und sh2.
-
Die neuen Switches Nexus 9336C-FX2 tragen die Namen newsh1 und newsh2.
-
Die Knotennamen lauten node1 und node2.
-
Die Cluster-Ports auf jedem Knoten tragen die Namen e3a und e3b.
-
Die Cluster-LIF-Namen sind
node1_clus1Undnode1_clus2für Knoten1 undnode2_clus1Undnode2_clus2für Knoten 2. -
Die Aufforderung zum Ändern aller Clusterknoten lautet cluster1::*>.
Das folgende Verfahren basiert auf der folgenden Netzwerktopologie:
Beispieltopologie anzeigen
cluster1::*> network port show -ipspace Cluster
Node: node1
Ignore
Speed(Mbps) Health Health
Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a Cluster Cluster up 9000 auto/100000 healthy false
e3b Cluster Cluster up 9000 auto/100000 healthy false
Node: node2
Ignore
Speed(Mbps) Health Health
Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a Cluster Cluster up 9000 auto/100000 healthy false
e3b Cluster Cluster up 9000 auto/100000 healthy false
4 entries were displayed.
cluster1::*> network interface show -vserver Cluster
Logical Status Network Current Current Is
Vserver Interface Admin/Oper Address/Mask Node Port Home
----------- ---------- ---------- ------------------ ------------- ------- ----
Cluster
node1_clus1 up/up 169.254.209.69/16 node1 e3a true
node1_clus2 up/up 169.254.49.125/16 node1 e3b true
node2_clus1 up/up 169.254.47.194/16 node2 e3a true
node2_clus2 up/up 169.254.19.183/16 node2 e3b true
4 entries were displayed.
cluster1::*> network device-discovery show -protocol cdp
Node/ Local Discovered
Protocol Port Device (LLDP: ChassisID) Interface Platform
----------- ------ ------------------------- ---------------- ----------------
node2 /cdp
e3a sh1 Eth1/2 N9K-C9336C
e3b sh2 Eth1/2 N9K-C9336C
node1 /cdp
e3a sh1 Eth1/1 N9K-C9336C
e3b sh2 Eth1/1 N9K-C9336C
4 entries were displayed.
sh1# show cdp neighbors
Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
S - Switch, H - Host, I - IGMP, r - Repeater,
V - VoIP-Phone, D - Remotely-Managed-Device,
s - Supports-STP-Dispute
Device-ID Local Intrfce Hldtme Capability Platform Port ID
node1 Eth1/1 144 H FAS2980 e3a
node2 Eth1/2 145 H FAS2980 e3a
sh2 Eth1/35 176 R S I s N9K-C9336C Eth1/35
sh2 (FDO220329V5) Eth1/36 176 R S I s N9K-C9336C Eth1/36
Total entries displayed: 4
sh2# show cdp neighbors
Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
S - Switch, H - Host, I - IGMP, r - Repeater,
V - VoIP-Phone, D - Remotely-Managed-Device,
s - Supports-STP-Dispute
Device-ID Local Intrfce Hldtme Capability Platform Port ID
node1 Eth1/1 139 H FAS2980 eb
node2 Eth1/2 124 H FAS2980 eb
sh1 Eth1/35 178 R S I s N9K-C9336C Eth1/35
sh1 Eth1/36 178 R S I s N9K-C9336C Eth1/36
Total entries displayed: 4
-
Wenn AutoSupport auf diesem Cluster aktiviert ist, unterdrücken Sie die automatische Fallerstellung durch Aufruf einer AutoSupport -Nachricht:
system node autosupport invoke -node * -type all -message MAINT=xhWobei x die Dauer des Wartungsfensters in Stunden angibt.
-
Optional: Installieren Sie die entsprechende RCF-Datei und das Image auf dem Switch, newsh2, und treffen Sie alle notwendigen Vorbereitungen vor Ort.
-
Prüfen, laden und installieren Sie gegebenenfalls die entsprechenden Versionen der RCF- und NX-OS-Software für den neuen Switch. Wenn Sie überprüft haben, dass der neue Switch korrekt eingerichtet ist und keine Aktualisierungen der RCF- und NX-OS-Software benötigt, fahren Sie fort mitSchritt 3 Die
-
Gehen Sie auf der NetApp Support-Website zur Seite „ NetApp Cluster and Management Network Switches Reference Configuration File Description“.
-
Klicken Sie auf den Link zur Kompatibilitätsmatrix für Cluster- und Managementnetzwerke und notieren Sie sich anschließend die erforderliche Switch-Softwareversion.
-
Klicken Sie auf den Zurück-Pfeil Ihres Browsers, um zur Beschreibungsseite zurückzukehren, klicken Sie auf WEITER, akzeptieren Sie die Lizenzvereinbarung und gehen Sie dann zur Downloadseite.
-
Folgen Sie den Anweisungen auf der Downloadseite, um die korrekten RCF- und NX-OS-Dateien für die Version der ONTAP -Software herunterzuladen, die Sie installieren.
-
-
Melden Sie sich auf dem neuen Switch als Administrator an und deaktivieren Sie alle Ports, die mit den Schnittstellen des Knotenclusters verbunden werden (Ports 1/1 bis 1/34). Wenn der zu ersetzende Schalter nicht funktioniert und ausgeschaltet ist, gehen Sie zuSchritt 4 Die Die LIFs auf den Clusterknoten sollten bereits für jeden Knoten auf den anderen Clusterport umgeschaltet haben.
Beispiel anzeigen
newsh2# config Enter configuration commands, one per line. End with CNTL/Z. newsh2(config)# interface e1/1-34 newsh2(config-if-range)# shutdown
-
Überprüfen Sie, ob für alle Cluster-LIFs die automatische Rücksetzung aktiviert ist.
network interface show - vserver Cluster -fields auto-revertBeispiel anzeigen
cluster1::> network interface show -vserver Cluster -fields auto-revert Logical Vserver Interface Auto-revert ------------ ------------- ------------- Cluster node1_clus1 true Cluster node1_clus2 true Cluster node2_clus1 true Cluster node2_clus2 true 4 entries were displayed. -
[[Schritt 5]] Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:
Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:
network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
HINWEIS: Warten Sie einige Sekunden, bevor Sie den Vorgang ausführen. show Befehl zum Anzeigen der Details.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
node1
3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none
3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none
node2
3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none
3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e3a Cluster node1_clus2 169.254.49.125 node1 e3b Cluster node2_clus1 169.254.47.194 node2 e3a Cluster node2_clus2 169.254.19.183 node2 e3b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
-
Schalten Sie die ISL-Ports 1/35 und 1/36 am Switch Nexus 9336C-FX2 sh1 ab.
Beispiel anzeigen
sh1# configure Enter configuration commands, one per line. End with CNTL/Z. sh1(config)# interface e1/35-36 sh1(config-if-range)# shutdown
-
Entfernen Sie alle Kabel vom Nexus 9336C-FX2 sh2 Switch und verbinden Sie sie dann mit den gleichen Ports am Nexus C9336C-FX2 newsh2 Switch.
-
Aktivieren Sie die ISL-Ports 1/35 und 1/36 zwischen den Switches sh1 und newsh2 und überprüfen Sie dann den Betriebsstatus des Portkanals.
Port-Channel sollte Po1(SU) und Member Ports sollten Eth1/35(P) und Eth1/36(P) anzeigen.
Beispiel anzeigen
Dieses Beispiel aktiviert die ISL-Ports 1/35 und 1/36 und zeigt die Portkanalübersicht auf dem Switch sh1 an.
sh1# configure Enter configuration commands, one per line. End with CNTL/Z. sh1 (config)# int e1/35-36 sh1 (config-if-range)# no shutdown sh1 (config-if-range)# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed b - BFD Session Wait S - Switched R - Routed U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/35(P) Eth1/36(P) sh1 (config-if-range)# -
[[Schritt 9]]Überprüfen Sie, ob Port e3b auf allen Knoten aktiv ist:
network port show ipspace ClusterBeispiel anzeigen
Die Ausgabe sollte wie folgt aussehen:
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ----- ---------- - - -------- ---- e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ----- ----------- - -------- ---- e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/auto - false 4 entries were displayed. -
Auf demselben Knoten, den Sie im vorherigen Schritt verwendet haben, stellen Sie die Cluster-LIF, die dem Port im vorherigen Schritt zugeordnet ist, mit dem Befehl network interface revert wieder her.
In diesem Beispiel wird LIF node1_clus2 auf node1 erfolgreich zurückgesetzt, wenn der Wert Home true ist und der Port e3b lautet.
Die folgenden Befehle geben LIF node1_clus2 auf node1 an den Home-Port e3a zurück und zeigen Informationen über die LIFs auf beiden Knoten an. Der erste Knoten wird erfolgreich hochgefahren, wenn die Spalte "Is Home" für beide Cluster-Schnittstellen den Wert true hat und die korrekten Portzuweisungen angezeigt werden, in diesem Beispiel e3a und e3b auf Knoten 1.
Beispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------ ---------- ------------------ ---------- ------- ----- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3a false 4 entries were displayed. -
Informationen über die Knoten in einem Cluster anzeigen:
cluster showBeispiel anzeigen
Dieses Beispiel zeigt, dass der Knotenstatus für Knoten 1 und Knoten 2 in diesem Cluster „true“ ist:
cluster1::*> cluster show Node Health Eligibility ------------- ------- ------------ node1 false true node2 true true
-
Überprüfen Sie, ob alle physischen Cluster-Ports aktiv sind:
network port show ipspace ClusterBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ----------- ----------------- ----- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ----- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false 4 entries were displayed. -
[[Schritt 13]] Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:
Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:
network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
HINWEIS: Warten Sie einige Sekunden, bevor Sie den Vorgang ausführen. show Befehl zum Anzeigen der Details.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
node1
3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none
3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none
node2
3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none
3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e3a Cluster node1_clus2 169.254.49.125 node1 e3b Cluster node2_clus1 169.254.47.194 node2 e3a Cluster node2_clus2 169.254.19.183 node2 e3b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
-
Bestätigen Sie die folgende Cluster-Netzwerkkonfiguration:
network port showBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ----------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false 4 entries were displayed. cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true 4 entries were displayed. cluster1::> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node2 /cdp e3a sh1 0/2 N9K-C9336C e3b newsh2 0/2 N9K-C9336C node1 /cdp e3a sh1 0/1 N9K-C9336C e3b newsh2 0/1 N9K-C9336C 4 entries were displayed. sh1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 144 H FAS2980 e3a node2 Eth1/2 145 H FAS2980 e3a newsh2 Eth1/35 176 R S I s N9K-C9336C Eth1/35 newsh2 Eth1/36 176 R S I s N9K-C9336C Eth1/36 Total entries displayed: 4 sh2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 139 H FAS2980 e3b node2 Eth1/2 124 H FAS2980 eb sh1 Eth1/35 178 R S I s N9K-C9336C Eth1/35 sh1 Eth1/36 178 R S I s N9K-C9336C Eth1/36 Total entries displayed: 4 -
Verschieben Sie die Speicherports vom alten Switch sh2 zum neuen Switch newsh2.
-
Überprüfen Sie, ob der an das HA-Paar 1, gemeinsam genutzten Switch newsh2, angeschlossene Speicher fehlerfrei funktioniert.
-
Überprüfen Sie, ob der an das HA-Paar 2, gemeinsam genutzten Switch newsh2, angeschlossene Speicher fehlerfrei funktioniert:
storage port show -port-type ENETBeispiel anzeigen
storage::*> storage port show -port-type ENET Speed VLAN Node Port Type Mode (Gb/s) State Status ID ------- ------- ------- ---------- ----------- --------- --------- ----- node1 e3a ENET storage 100 enabled online 30 e3b ENET storage 0 enabled offline 30 e7a ENET storage 0 enabled offline 30 e7b ENET storage 100 enabled online 30 node2 e3a ENET storage 100 enabled online 30 e3b ENET storage 0 enabled offline 30 e7a ENET storage 0 enabled offline 30 e7b ENET storage 100 enabled online 30 -
Überprüfen Sie, ob die Regale korrekt verkabelt sind:
storage shelf port show -fields remote- device,remote-portBeispiel anzeigen
cluster1::*> storage shelf port show -fields remote-device,remote-port shelf id remote-port remote-device ----- -- ------------ ---------------------------- 3.20 0 Ethernet1/13 sh1 3.20 1 Ethernet1/13 newsh2 3.20 2 Ethernet1/14 sh1 3.20 3 Ethernet1/14 newsh2 3.30 0 Ethernet1/15 sh1 3.30 1 Ethernet1/15 newsh2 3.30 2 Ethernet1/16 sh1 3.30 3 Ethernet1/16 newsh2 8 entries were displayed.
-
Wiederholen Sie diese Schritte für den Switch sh1 und den neuen Switch newsh1.
-
Wenn Sie die automatische Fallerstellung unterdrückt haben, können Sie sie durch Aufruf einer AutoSupport Nachricht wieder aktivieren:
system node autosupport invoke -node * -type all -message MAINT=END
Nachdem Sie Ihre Schalter ausgetauscht haben, können Sie "Konfigurieren der Switch-Integritätsüberwachung"Die