Remplacer un commutateur partagé Cisco Nexus 9336C-FX2
Vous pouvez remplacer un commutateur partagé Nexus 9336C-FX2 défectueux. Il s’agit d’une procédure non perturbatrice (NDU).
Avant de procéder au remplacement de l'interrupteur, assurez-vous que :
-
Dans l'infrastructure de cluster et de réseau existante :
-
Le cluster existant est vérifié comme étant entièrement fonctionnel, avec au moins un commutateur de cluster entièrement connecté.
-
Tous les ports du cluster sont actifs.
-
Toutes les interfaces logiques du cluster (LIF) sont actives et sur leurs ports d'origine.
-
La commande ONTAP cluster ping-cluster -node node1 doit indiquer que la connectivité de base et la communication supérieure à PMTU sont réussies sur tous les chemins.
-
-
Pour le commutateur de remplacement Nexus 9336C-FX2 :
-
La connectivité du réseau de gestion sur le commutateur de remplacement est fonctionnelle.
-
L'accès console au commutateur de remplacement est opérationnel.
-
Les connexions du nœud sont les ports 1/1 à 1/34 :
-
Tous les ports Inter-Switch Link (ISL) sont désactivés sur les ports 1/35 et 1/36.
-
Le fichier de configuration de référence (RCF) souhaité et l'image du système d'exploitation NX-OS sont chargés sur le commutateur.
-
Toutes les personnalisations précédentes du site, telles que STP, SNMP et SSH, doivent être copiées sur le nouveau commutateur.
-
Vous devez exécuter la commande de migration d'un LIF de cluster depuis le nœud où est hébergé le LIF de cluster.
Les exemples de cette procédure utilisent la nomenclature suivante pour les commutateurs et les nœuds :
-
Les noms des commutateurs Nexus 9336C-FX2 existants sont sh1 et sh2.
-
Les noms des nouveaux commutateurs Nexus 9336C-FX2 sont newsh1 et newsh2.
-
Les noms des nœuds sont node1 et node2.
-
Les ports du cluster sur chaque nœud sont nommés e3a et e3b.
-
Les noms LIF du cluster sont
node1_clus1etnode1_clus2pour le nœud 1, etnode2_clus1etnode2_clus2pour le nœud 2. -
L'invite pour les modifications apportées à tous les nœuds du cluster est cluster1::*>.
La procédure suivante est basée sur la topologie de réseau suivante :
Afficher un exemple de topologie
cluster1::*> network port show -ipspace Cluster
Node: node1
Ignore
Speed(Mbps) Health Health
Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a Cluster Cluster up 9000 auto/100000 healthy false
e3b Cluster Cluster up 9000 auto/100000 healthy false
Node: node2
Ignore
Speed(Mbps) Health Health
Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a Cluster Cluster up 9000 auto/100000 healthy false
e3b Cluster Cluster up 9000 auto/100000 healthy false
4 entries were displayed.
cluster1::*> network interface show -vserver Cluster
Logical Status Network Current Current Is
Vserver Interface Admin/Oper Address/Mask Node Port Home
----------- ---------- ---------- ------------------ ------------- ------- ----
Cluster
node1_clus1 up/up 169.254.209.69/16 node1 e3a true
node1_clus2 up/up 169.254.49.125/16 node1 e3b true
node2_clus1 up/up 169.254.47.194/16 node2 e3a true
node2_clus2 up/up 169.254.19.183/16 node2 e3b true
4 entries were displayed.
cluster1::*> network device-discovery show -protocol cdp
Node/ Local Discovered
Protocol Port Device (LLDP: ChassisID) Interface Platform
----------- ------ ------------------------- ---------------- ----------------
node2 /cdp
e3a sh1 Eth1/2 N9K-C9336C
e3b sh2 Eth1/2 N9K-C9336C
node1 /cdp
e3a sh1 Eth1/1 N9K-C9336C
e3b sh2 Eth1/1 N9K-C9336C
4 entries were displayed.
sh1# show cdp neighbors
Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
S - Switch, H - Host, I - IGMP, r - Repeater,
V - VoIP-Phone, D - Remotely-Managed-Device,
s - Supports-STP-Dispute
Device-ID Local Intrfce Hldtme Capability Platform Port ID
node1 Eth1/1 144 H FAS2980 e3a
node2 Eth1/2 145 H FAS2980 e3a
sh2 Eth1/35 176 R S I s N9K-C9336C Eth1/35
sh2 (FDO220329V5) Eth1/36 176 R S I s N9K-C9336C Eth1/36
Total entries displayed: 4
sh2# show cdp neighbors
Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
S - Switch, H - Host, I - IGMP, r - Repeater,
V - VoIP-Phone, D - Remotely-Managed-Device,
s - Supports-STP-Dispute
Device-ID Local Intrfce Hldtme Capability Platform Port ID
node1 Eth1/1 139 H FAS2980 eb
node2 Eth1/2 124 H FAS2980 eb
sh1 Eth1/35 178 R S I s N9K-C9336C Eth1/35
sh1 Eth1/36 178 R S I s N9K-C9336C Eth1/36
Total entries displayed: 4
-
Si AutoSupport est activé sur ce cluster, supprimez la création automatique de cas en envoyant un message AutoSupport :
system node autosupport invoke -node * -type all -message MAINT=xhOù x représente la durée de la fenêtre de maintenance en heures.
-
Facultatif : Installez le RCF et l’image appropriés sur le commutateur, newsh2, et effectuez les préparatifs de site nécessaires.
-
Si nécessaire, vérifiez, téléchargez et installez les versions appropriées des logiciels RCF et NX-OS pour le nouveau commutateur. Si vous avez vérifié que le nouveau commutateur est correctement configuré et ne nécessite aucune mise à jour des logiciels RCF et NX-OS, passez à l'étape suivante :Étape 3 .
-
Accédez à la page de description du fichier de configuration de référence des commutateurs de réseau de cluster et de gestion NetApp sur le site de support NetApp .
-
Cliquez sur le lien pour accéder à la matrice de compatibilité du réseau de cluster et du réseau de gestion, puis notez la version logicielle requise pour le commutateur.
-
Cliquez sur la flèche de retour de votre navigateur pour revenir à la page de description, cliquez sur CONTINUER, acceptez le contrat de licence, puis accédez à la page de téléchargement.
-
Suivez les étapes indiquées sur la page de téléchargement pour télécharger les fichiers RCF et NX-OS appropriés à la version du logiciel ONTAP que vous installez.
-
-
[[étape 3]]Sur le nouveau commutateur, connectez-vous en tant qu'administrateur et fermez tous les ports qui seront connectés aux interfaces du cluster de nœuds (ports 1/1 à 1/34). Si l'interrupteur que vous remplacez ne fonctionne pas et est hors tension, rendez-vous àÉtape 4 . Les interfaces logiques (LIF) des nœuds du cluster auraient déjà dû basculer vers l'autre port du cluster pour chaque nœud.
Afficher un exemple
newsh2# config Enter configuration commands, one per line. End with CNTL/Z. newsh2(config)# interface e1/1-34 newsh2(config-if-range)# shutdown
-
[[étape 4]]Vérifiez que toutes les LIF du cluster ont la restauration automatique activée.
network interface show - vserver Cluster -fields auto-revertAfficher un exemple
cluster1::> network interface show -vserver Cluster -fields auto-revert Logical Vserver Interface Auto-revert ------------ ------------- ------------- Cluster node1_clus1 true Cluster node1_clus2 true Cluster node2_clus1 true Cluster node2_clus2 true 4 entries were displayed. -
[[étape 5]] Vérifiez la connectivité des interfaces du cluster distant :
Vous pouvez utiliser le network interface check cluster-connectivity commande permettant de lancer une vérification d'accessibilité pour la connectivité du cluster, puis d'afficher les détails :
network interface check cluster-connectivity start`et `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
REMARQUE : Attendez quelques secondes avant d’exécuter le programme. show commande pour afficher les détails.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
node1
3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none
3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none
node2
3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none
3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Pour toutes les versions ONTAP , vous pouvez également utiliser cluster ping-cluster -node <name> commande pour vérifier la connectivité :
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e3a Cluster node1_clus2 169.254.49.125 node1 e3b Cluster node2_clus1 169.254.47.194 node2 e3a Cluster node2_clus2 169.254.19.183 node2 e3b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
-
Fermez les ports ISL 1/35 et 1/36 sur le commutateur Nexus 9336C-FX2 sh1.
Afficher un exemple
sh1# configure Enter configuration commands, one per line. End with CNTL/Z. sh1(config)# interface e1/35-36 sh1(config-if-range)# shutdown
-
[[étape 7]]Retirez tous les câbles du commutateur Nexus 9336C-FX2 sh2, puis connectez-les aux mêmes ports du commutateur Nexus C9336C-FX2 newsh2.
-
Activez les ports ISL 1/35 et 1/36 entre les commutateurs sh1 et newsh2, puis vérifiez l'état de fonctionnement du canal de port.
Port-Channel doit indiquer Po1(SU) et les ports membres doivent indiquer Eth1/35(P) et Eth1/36(P).
Afficher un exemple
Cet exemple active les ports ISL 1/35 et 1/36 et affiche le résumé du canal de port sur le commutateur sh1.
sh1# configure Enter configuration commands, one per line. End with CNTL/Z. sh1 (config)# int e1/35-36 sh1 (config-if-range)# no shutdown sh1 (config-if-range)# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed b - BFD Session Wait S - Switched R - Routed U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/35(P) Eth1/36(P) sh1 (config-if-range)# -
[[étape 9]]Vérifiez que le port e3b est actif sur tous les nœuds :
network port show ipspace ClusterAfficher un exemple
Le résultat devrait ressembler à ceci :
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ----- ---------- - - -------- ---- e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ----- ----------- - -------- ---- e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/auto - false 4 entries were displayed. -
[[étape 10]]Sur le même nœud que celui utilisé à l'étape précédente, rétablissez le LIF de cluster associé au port de l'étape précédente en utilisant la commande de réversion de l'interface réseau.
Dans cet exemple, le LIF node1_clus2 sur node1 est rétabli avec succès si la valeur Home est vraie et que le port est e3b.
Les commandes suivantes renvoient LIF node1_clus2 sur le nœud 1 au port d'accueil e3a et affichent des informations sur les LIF sur les deux nœuds. La mise en service du premier nœud est réussie si la colonne Is Home est vrai pour les deux interfaces du cluster et qu'elles affichent les affectations de port correctes, dans cet exemple e3a et e3b sur le nœud 1.
Afficher un exemple
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------ ---------- ------------------ ---------- ------- ----- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3a false 4 entries were displayed. -
[[étape 11]]Afficher les informations relatives aux nœuds d'un cluster :
cluster showAfficher un exemple
Cet exemple montre que l'état de santé des nœuds node1 et node2 de ce cluster est correct :
cluster1::*> cluster show Node Health Eligibility ------------- ------- ------------ node1 false true node2 true true
-
[[étape 12]]Vérifiez que tous les ports physiques du cluster sont opérationnels :
network port show ipspace ClusterAfficher un exemple
cluster1::*> network port show -ipspace Cluster Node node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ----------- ----------------- ----- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ----- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false 4 entries were displayed. -
[[étape 13]] Vérifiez la connectivité des interfaces du cluster distant :
Vous pouvez utiliser le network interface check cluster-connectivity commande permettant de lancer une vérification d'accessibilité pour la connectivité du cluster, puis d'afficher les détails :
network interface check cluster-connectivity start`et `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
REMARQUE : Attendez quelques secondes avant d’exécuter le programme. show commande pour afficher les détails.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
node1
3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none
3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none
node2
3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none
3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Pour toutes les versions ONTAP , vous pouvez également utiliser cluster ping-cluster -node <name> commande pour vérifier la connectivité :
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e3a Cluster node1_clus2 169.254.49.125 node1 e3b Cluster node2_clus1 169.254.47.194 node2 e3a Cluster node2_clus2 169.254.19.183 node2 e3b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
-
[[étape 14]]Vérifiez la configuration réseau du cluster suivante :
network port showAfficher un exemple
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ----------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false 4 entries were displayed. cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true 4 entries were displayed. cluster1::> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node2 /cdp e3a sh1 0/2 N9K-C9336C e3b newsh2 0/2 N9K-C9336C node1 /cdp e3a sh1 0/1 N9K-C9336C e3b newsh2 0/1 N9K-C9336C 4 entries were displayed. sh1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 144 H FAS2980 e3a node2 Eth1/2 145 H FAS2980 e3a newsh2 Eth1/35 176 R S I s N9K-C9336C Eth1/35 newsh2 Eth1/36 176 R S I s N9K-C9336C Eth1/36 Total entries displayed: 4 sh2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 139 H FAS2980 e3b node2 Eth1/2 124 H FAS2980 eb sh1 Eth1/35 178 R S I s N9K-C9336C Eth1/35 sh1 Eth1/36 178 R S I s N9K-C9336C Eth1/36 Total entries displayed: 4 -
[[étape 15]]Déplacez les ports de stockage de l'ancien commutateur sh2 vers le nouveau commutateur newsh2.
-
Vérifiez que le périphérique de stockage connecté à la paire HA 1, le commutateur partagé newsh2, est en bon état.
-
Vérifiez que le périphérique de stockage connecté à la paire HA 2, le commutateur partagé newsh2, est en bon état :
storage port show -port-type ENETAfficher un exemple
storage::*> storage port show -port-type ENET Speed VLAN Node Port Type Mode (Gb/s) State Status ID ------- ------- ------- ---------- ----------- --------- --------- ----- node1 e3a ENET storage 100 enabled online 30 e3b ENET storage 0 enabled offline 30 e7a ENET storage 0 enabled offline 30 e7b ENET storage 100 enabled online 30 node2 e3a ENET storage 100 enabled online 30 e3b ENET storage 0 enabled offline 30 e7a ENET storage 0 enabled offline 30 e7b ENET storage 100 enabled online 30 -
[[étape 18]]Vérifiez que les étagères sont correctement câblées :
storage shelf port show -fields remote- device,remote-portAfficher un exemple
cluster1::*> storage shelf port show -fields remote-device,remote-port shelf id remote-port remote-device ----- -- ------------ ---------------------------- 3.20 0 Ethernet1/13 sh1 3.20 1 Ethernet1/13 newsh2 3.20 2 Ethernet1/14 sh1 3.20 3 Ethernet1/14 newsh2 3.30 0 Ethernet1/15 sh1 3.30 1 Ethernet1/15 newsh2 3.30 2 Ethernet1/16 sh1 3.30 3 Ethernet1/16 newsh2 8 entries were displayed.
-
[[étape 19]]Retirez l'ancien commutateur sh2.
-
Répétez ces étapes pour le commutateur sh1 et le nouveau commutateur newsh1.
-
Si vous avez désactivé la création automatique de dossiers, réactivez-la en envoyant un message AutoSupport :
system node autosupport invoke -node * -type all -message MAINT=END
Après avoir remplacé vos interrupteurs, vous pouvez "configurer la surveillance de l'état du commutateur".