Remplacer un commutateur de cluster Cisco Nexus 3232C
Suivez ces étapes pour remplacer un commutateur Cisco Nexus 3232C défectueux dans un cluster. Il s’agit d’une procédure non perturbatrice.
Exigences de révision
Assurez-vous que la configuration existante du cluster et du réseau présente les caractéristiques suivantes :
-
L'infrastructure du cluster Nexus 3232C est redondante et pleinement fonctionnelle sur les deux commutateurs.
La page relative aux commutateurs Ethernet Cisco contient les dernières versions de RCF et de NX-OS installées sur vos commutateurs.
-
Tous les ports du cluster doivent être à l'état actif.
-
La connectivité de gestion doit exister sur les deux commutateurs.
-
Toutes les interfaces logiques du cluster (LIF) sont à l'état actif et ne sont pas migrées.
Le commutateur Cisco Nexus 3232C de remplacement présente les caractéristiques suivantes :
-
La connectivité du réseau de gestion est fonctionnelle.
-
L'accès console au commutateur de remplacement est opérationnel.
-
L'image système d'exploitation RCF et NX-OS appropriée est chargée sur le commutateur.
-
La personnalisation initiale du commutateur est terminée.
Voir ce qui suit :
Activer la journalisation de la console
NetApp vous recommande vivement d'activer la journalisation de la console sur les périphériques que vous utilisez et de prendre les mesures suivantes lors du remplacement de votre commutateur :
-
Laissez AutoSupport activé pendant la maintenance.
-
Déclenchez une intervention de maintenance AutoSupport avant et après la maintenance afin de désactiver la création de tickets pendant toute la durée de celle-ci. Consultez cet article de la base de connaissances"SU92 : Comment désactiver la création automatique de tickets pendant les fenêtres de maintenance planifiées ?" pour plus de détails.
-
Activez la journalisation des sessions pour toutes les sessions CLI. Pour savoir comment activer la journalisation des sessions, consultez la section « Journalisation des sorties de session » de cet article de la base de connaissances."Comment configurer PuTTY pour une connectivité optimale aux systèmes ONTAP" .
Remplacez l'interrupteur
Cette procédure de remplacement décrit le scénario suivant :
-
Le cluster comporte initialement quatre nœuds connectés à deux commutateurs de cluster Nexus 3232C, CL1 et CL2.
-
Vous prévoyez de remplacer le commutateur de cluster CL2 par C2 (étapes 1 à 21) :
-
Sur chaque nœud, vous migrez les LIF du cluster connectées au commutateur de cluster CL2 vers les ports de cluster connectés au commutateur de cluster CL1.
-
Vous débranchez le câblage de tous les ports du commutateur de cluster CL2 et vous rebranchez le câblage aux mêmes ports du commutateur de cluster de remplacement C2.
-
Vous rétablissez les LIF de cluster migrés sur chaque nœud.
-
Cette procédure de remplacement remplace le deuxième commutateur de cluster Nexus 3232C CL2 par le nouveau commutateur 3232C C2.
Les exemples de cette procédure utilisent la nomenclature suivante pour les commutateurs et les nœuds :
-
Les quatre nœuds sont n1, n2, n3 et n4.
-
n1_clus1 est la première interface logique de cluster (LIF) connectée au commutateur de cluster C1 pour le nœud n1.
-
n1_clus2 est le premier LIF de cluster connecté au commutateur de cluster CL2 ou C2 pour le nœud n1.
-
n1_clus3 est la deuxième interface LIF connectée au commutateur de cluster C2 pour le nœud n1.
-
n1_clus4 est la deuxième LIF connectée au commutateur de cluster CL1, pour le nœud n1.
Le nombre de ports 10 GbE et 40/100 GbE est défini dans les fichiers de configuration de référence (RCF) disponibles à l'adresse suivante :"Téléchargement du fichier de configuration de référence du commutateur réseau en cluster Cisco" .
Les exemples de cette procédure de remplacement utilisent quatre nœuds. Deux des nœuds utilisent quatre ports d'interconnexion de cluster de 10 Go : e0a, e0b, e0c et e0d. Les deux autres nœuds utilisent deux ports d'interconnexion de cluster de 40 Go : e4a et e4e. Voir le"Hardware Universe" pour vérifier les ports de cluster corrects pour votre plateforme.
Étape 1 : Afficher et migrer les ports du cluster vers le commutateur
-
Si AutoSupport est activé sur ce cluster, supprimez la création automatique de cas en envoyant un message AutoSupport :
system node autosupport invoke -node * -type all - message MAINT=xhx représente la durée de la fenêtre de maintenance en heures.
Le message AutoSupport notifie le support technique de cette tâche de maintenance afin que la création automatique de tickets soit désactivée pendant la période de maintenance.
-
Afficher les informations relatives aux périphériques de votre configuration :
network device-discovery showAfficher un exemple
cluster::> network device-discovery show Local Discovered Node Port Device Interface Platform ----------- ------ ------------------- ---------------- ---------------- n1 /cdp e0a CL1 Ethernet1/1/1 N3K-C3232C e0b CL2 Ethernet1/1/1 N3K-C3232C e0c CL2 Ethernet1/1/2 N3K-C3232C e0d CL1 Ethernet1/1/2 N3K-C3232C n2 /cdp e0a CL1 Ethernet1/1/3 N3K-C3232C e0b CL2 Ethernet1/1/3 N3K-C3232C e0c CL2 Ethernet1/1/4 N3K-C3232C e0d CL1 Ethernet1/1/4 N3K-C3232C n3 /cdp e4a CL1 Ethernet1/7 N3K-C3232C e4e CL2 Ethernet1/7 N3K-C3232C n4 /cdp e4a CL1 Ethernet1/8 N3K-C3232C e4e CL2 Ethernet1/8 N3K-C3232C -
Déterminez l'état administratif ou opérationnel de chaque interface de cluster.
-
Afficher les attributs du port réseau :
network port show -role clusterAfficher un exemple
cluster::*> network port show -role cluster (network port show) Node: n1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- ------------ e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - - Node: n2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- ------------ e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - - Node: n3 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - - e4e Cluster Cluster up 9000 auto/40000 - - Node: n4 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - -
Afficher les informations relatives aux interfaces logiques (LIF) :
network interface show -role clusterAfficher un exemple
cluster::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- --- Cluster n1_clus1 up/up 10.10.0.1/24 n1 e0a true n1_clus2 up/up 10.10.0.2/24 n1 e0b true n1_clus3 up/up 10.10.0.3/24 n1 e0c true n1_clus4 up/up 10.10.0.4/24 n1 e0d true n2_clus1 up/up 10.10.0.5/24 n2 e0a true n2_clus2 up/up 10.10.0.6/24 n2 e0b true n2_clus3 up/up 10.10.0.7/24 n2 e0c true n2_clus4 up/up 10.10.0.8/24 n2 e0d true n3_clus1 up/up 10.10.0.9/24 n3 e0a true n3_clus2 up/up 10.10.0.10/24 n3 e0e true n4_clus1 up/up 10.10.0.11/24 n4 e0a true n4_clus2 up/up 10.10.0.12/24 n4 e0e true -
Afficher les commutateurs de cluster découverts :
system cluster-switch show
Afficher un exemple
L'exemple de sortie suivant affiche les commutateurs du cluster :
cluster::> system cluster-switch show Switch Type Address Model --------------------------- ------------------ ---------------- --------------- CL1 cluster-network 10.10.1.101 NX3232C Serial Number: FOX000001 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP CL2 cluster-network 10.10.1.102 NX3232C Serial Number: FOX000002 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP -
-
Vérifiez que le RCF et l'image appropriés sont installés sur le nouveau commutateur Nexus 3232C et effectuez les personnalisations de site nécessaires.
-
Rendez-vous sur le site d'assistance NetApp .
-
Rendez-vous sur la page *Commutateurs Ethernet Cisco * et notez les versions logicielles requises dans le tableau.
-
Téléchargez la version appropriée du RCF.
-
Cliquez sur CONTINUER sur la page Description, acceptez le contrat de licence, puis accédez à la page Télécharger.
-
Téléchargez la version correcte du logiciel d'image depuis la page Téléchargement du fichier de configuration de référence du commutateur réseau de cluster et de gestion Cisco.
-
-
Migrez les LIF du cluster vers les ports des nœuds physiques connectés au commutateur de remplacement C2 :
network interface migrate -vserver vserver-name -lif lif-name -source-node node-name -destination-node node-name -destination-port port-nameAfficher un exemple
Vous devez migrer individuellement toutes les LIF du cluster, comme indiqué dans l'exemple suivant :
cluster::*> network interface migrate -vserver Cluster -lif n1_clus2 -source-node n1 -destination- node n1 -destination-port e0a cluster::*> network interface migrate -vserver Cluster -lif n1_clus3 -source-node n1 -destination- node n1 -destination-port e0d cluster::*> network interface migrate -vserver Cluster -lif n2_clus2 -source-node n2 -destination- node n2 -destination-port e0a cluster::*> network interface migrate -vserver Cluster -lif n2_clus3 -source-node n2 -destination- node n2 -destination-port e0d cluster::*> network interface migrate -vserver Cluster -lif n3_clus2 -source-node n3 -destination- node n3 -destination-port e4a cluster::*> network interface migrate -vserver Cluster -lif n4_clus2 -source-node n4 -destination- node n4 -destination-port e4a
-
Vérifiez l'état des ports du cluster et leurs désignations d'origine :
network interface show -role clusterAfficher un exemple
cluster::*> network interface show -role cluster (network interface show) Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster n1_clus1 up/up 10.10.0.1/24 n1 e0a true n1_clus2 up/up 10.10.0.2/24 n1 e0a false n1_clus3 up/up 10.10.0.3/24 n1 e0d false n1_clus4 up/up 10.10.0.4/24 n1 e0d true n2_clus1 up/up 10.10.0.5/24 n2 e0a true n2_clus2 up/up 10.10.0.6/24 n2 e0a false n2_clus3 up/up 10.10.0.7/24 n2 e0d false n2_clus4 up/up 10.10.0.8/24 n2 e0d true n3_clus1 up/up 10.10.0.9/24 n3 e4a true n3_clus2 up/up 10.10.0.10/24 n3 e4a false n4_clus1 up/up 10.10.0.11/24 n4 e4a true n4_clus2 up/up 10.10.0.12/24 n4 e4a false -
Fermez les ports d'interconnexion du cluster qui sont physiquement connectés au commutateur d'origine CL2 :
network port modify -node node-name -port port-name -up-admin falseAfficher un exemple
L'exemple suivant montre que les ports d'interconnexion du cluster sont désactivés sur tous les nœuds :
cluster::*> network port modify -node n1 -port e0b -up-admin false cluster::*> network port modify -node n1 -port e0c -up-admin false cluster::*> network port modify -node n2 -port e0b -up-admin false cluster::*> network port modify -node n2 -port e0c -up-admin false cluster::*> network port modify -node n3 -port e4e -up-admin false cluster::*> network port modify -node n4 -port e4e -up-admin false
-
Vérifiez la connectivité des interfaces du cluster distant :
Vous pouvez utiliser le network interface check cluster-connectivity commande permettant de lancer une vérification d'accessibilité pour la connectivité du cluster, puis d'afficher les détails :
network interface check cluster-connectivity start`et `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
REMARQUE : Attendez quelques secondes avant d’exécuter le programme. show commande pour afficher les détails.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
n1
3/5/2022 19:21:18 -06:00 n1_clus2 n2-clus1 none
3/5/2022 19:21:20 -06:00 n1_clus2 n2_clus2 none
.
.
n2
3/5/2022 19:21:18 -06:00 n2_clus2 n1_clus1 none
3/5/2022 19:21:20 -06:00 n2_clus2 n1_clus2 none
.
.
n3
.
.
.n4
.
.
Pour toutes les versions ONTAP , vous pouvez également utiliser cluster ping-cluster -node <name> commande pour vérifier la connectivité :
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1 e0a 10.10.0.1
Cluster n1_clus2 n1 e0b 10.10.0.2
Cluster n1_clus3 n1 e0c 10.10.0.3
Cluster n1_clus4 n1 e0d 10.10.0.4
Cluster n2_clus1 n2 e0a 10.10.0.5
Cluster n2_clus2 n2 e0b 10.10.0.6
Cluster n2_clus3 n2 e0c 10.10.0.7
Cluster n2_clus4 n2 e0d 10.10.0.8
Cluster n3_clus1 n4 e0a 10.10.0.9
Cluster n3_clus2 n3 e0e 10.10.0.10
Cluster n4_clus1 n4 e0a 10.10.0.11
Cluster n4_clus2 n4 e0e 10.10.0.12
Local = 10.10.0.1 10.10.0.2 10.10.0.3 10.10.0.4
Remote = 10.10.0.5 10.10.0.6 10.10.0.7 10.10.0.8 10.10.0.9 10.10.0.10 10.10.0.11
10.10.0.12 Cluster Vserver Id = 4294967293 Ping status:
....
Basic connectivity succeeds on 32 path(s)
Basic connectivity fails on 0 path(s) ................
Detected 9000 byte MTU on 32 path(s):
Local 10.10.0.1 to Remote 10.10.0.5
Local 10.10.0.1 to Remote 10.10.0.6
Local 10.10.0.1 to Remote 10.10.0.7
Local 10.10.0.1 to Remote 10.10.0.8
Local 10.10.0.1 to Remote 10.10.0.9
Local 10.10.0.1 to Remote 10.10.0.10
Local 10.10.0.1 to Remote 10.10.0.11
Local 10.10.0.1 to Remote 10.10.0.12
Local 10.10.0.2 to Remote 10.10.0.5
Local 10.10.0.2 to Remote 10.10.0.6
Local 10.10.0.2 to Remote 10.10.0.7
Local 10.10.0.2 to Remote 10.10.0.8
Local 10.10.0.2 to Remote 10.10.0.9
Local 10.10.0.2 to Remote 10.10.0.10
Local 10.10.0.2 to Remote 10.10.0.11
Local 10.10.0.2 to Remote 10.10.0.12
Local 10.10.0.3 to Remote 10.10.0.5
Local 10.10.0.3 to Remote 10.10.0.6
Local 10.10.0.3 to Remote 10.10.0.7
Local 10.10.0.3 to Remote 10.10.0.8
Local 10.10.0.3 to Remote 10.10.0.9
Local 10.10.0.3 to Remote 10.10.0.10
Local 10.10.0.3 to Remote 10.10.0.11
Local 10.10.0.3 to Remote 10.10.0.12
Local 10.10.0.4 to Remote 10.10.0.5
Local 10.10.0.4 to Remote 10.10.0.6
Local 10.10.0.4 to Remote 10.10.0.7
Local 10.10.0.4 to Remote 10.10.0.8
Local 10.10.0.4 to Remote 10.10.0.9
Local 10.10.0.4 to Remote 10.10.0.10
Local 10.10.0.4 to Remote 10.10.0.11
Local 10.10.0.4 to Remote 10.10.0.12
Larger than PMTU communication succeeds on 32 path(s) RPC status:
8 paths up, 0 paths down (tcp check)
8 paths up, 0 paths down (udp check)
Étape 2 : Migrer les ISL vers les commutateurs CL1 et C2
-
Fermez les ports 1/31 et 1/32 sur le commutateur de cluster CL1.
Pour plus d'informations sur les commandes Cisco , consultez les guides répertoriés dans le "Références des commandes NX-OS Cisco Nexus série 3000" .
Afficher un exemple
(CL1)# configure (CL1)(Config)# interface e1/31-32 (CL1)(config-if-range)# shutdown (CL1)(config-if-range)# exit (CL1)(Config)# exit (CL1)#
-
Retirez tous les câbles connectés au commutateur de cluster CL2 et reconnectez-les au commutateur de remplacement C2 pour tous les nœuds.
-
Retirez les câbles de liaison inter-commutateurs (ISL) des ports e1/31 et e1/32 du commutateur de cluster CL2 et reconnectez-les aux mêmes ports du commutateur de remplacement C2.
-
Activez les ports ISL 1/31 et 1/32 sur le commutateur de cluster CL1.
Pour plus d'informations sur les commandes Cisco , consultez les guides répertoriés dans le "Références des commandes NX-OS Cisco Nexus série 3000" .
Afficher un exemple
(CL1)# configure (CL1)(Config)# interface e1/31-32 (CL1)(config-if-range)# no shutdown (CL1)(config-if-range)# exit (CL1)(Config)# exit (CL1)#
-
Vérifiez que les ISL sont opérationnels sur CL1.
Pour plus d'informations sur les commandes Cisco , consultez les guides répertoriés dans le "Références des commandes NX-OS Cisco Nexus série 3000" .
Les ports Eth1/31 et Eth1/32 devraient indiquer
(P), ce qui signifie que les ports ISL sont actifs dans le canal de ports :Afficher un exemple
CL1# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed S - Switched R - Routed U - Up (port-channel) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/31(P) Eth1/32(P) -
Vérifiez que les ISL sont opérationnels sur le commutateur de cluster C2.
Pour plus d'informations sur les commandes Cisco , consultez les guides répertoriés dans le "Références des commandes NX-OS Cisco Nexus série 3000" .
Afficher un exemple
Les ports Eth1/31 et Eth1/32 doivent indiquer (P), ce qui signifie que les deux ports ISL sont actifs dans le canal de ports.
C2# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed S - Switched R - Routed U - Up (port-channel) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/31(P) Eth1/32(P) -
Sur tous les nœuds, activez tous les ports d'interconnexion du cluster connectés au commutateur de remplacement C2 :
network port modify -node node-name -port port-name -up-admin trueAfficher un exemple
cluster::*> network port modify -node n1 -port e0b -up-admin true cluster::*> network port modify -node n1 -port e0c -up-admin true cluster::*> network port modify -node n2 -port e0b -up-admin true cluster::*> network port modify -node n2 -port e0c -up-admin true cluster::*> network port modify -node n3 -port e4e -up-admin true cluster::*> network port modify -node n4 -port e4e -up-admin true
Étape 3 : Rétablir les ports d’origine de toutes les LIF
-
Rétablir toutes les LIF d'interconnexion de cluster migrées sur tous les nœuds :
network interface revert -vserver cluster -lif lif-nameAfficher un exemple
Vous devez rétablir individuellement toutes les LIF d'interconnexion de cluster, comme indiqué dans l'exemple suivant :
cluster::*> network interface revert -vserver cluster -lif n1_clus2 cluster::*> network interface revert -vserver cluster -lif n1_clus3 cluster::*> network interface revert -vserver cluster -lif n2_clus2 cluster::*> network interface revert -vserver cluster -lif n2_clus3 Cluster::*> network interface revert -vserver cluster -lif n3_clus2 Cluster::*> network interface revert -vserver cluster -lif n4_clus2
-
Vérifiez que les ports d'interconnexion du cluster sont bien revenus à leur configuration d'origine :
network interface showAfficher un exemple
L'exemple suivant montre que toutes les LIF ont été rétablies avec succès car les ports listés sous le
Current Portla colonne a le statut detruedans leIs Homecolonne. Si un port a une valeur defalse, le LIF n'a pas été rétabli.cluster::*> network interface show -role cluster (network interface show) Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster n1_clus1 up/up 10.10.0.1/24 n1 e0a true n1_clus2 up/up 10.10.0.2/24 n1 e0b true n1_clus3 up/up 10.10.0.3/24 n1 e0c true n1_clus4 up/up 10.10.0.4/24 n1 e0d true n2_clus1 up/up 10.10.0.5/24 n2 e0a true n2_clus2 up/up 10.10.0.6/24 n2 e0b true n2_clus3 up/up 10.10.0.7/24 n2 e0c true n2_clus4 up/up 10.10.0.8/24 n2 e0d true n3_clus1 up/up 10.10.0.9/24 n3 e4a true n3_clus2 up/up 10.10.0.10/24 n3 e4e true n4_clus1 up/up 10.10.0.11/24 n4 e4a true n4_clus2 up/up 10.10.0.12/24 n4 e4e true -
Vérifiez que les ports du cluster sont connectés :
network port show -role clusterAfficher un exemple
cluster::*> network port show -role cluster (network port show) Node: n1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - - Node: n2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - - Node: n3 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - - Node: n4 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - - -
Vérifiez la connectivité des interfaces du cluster distant :
Vous pouvez utiliser le network interface check cluster-connectivity commande permettant de lancer une vérification d'accessibilité pour la connectivité du cluster, puis d'afficher les détails :
network interface check cluster-connectivity start`et `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
REMARQUE : Attendez quelques secondes avant d’exécuter le programme. show commande pour afficher les détails.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
n1
3/5/2022 19:21:18 -06:00 n1_clus2 n2-clus1 none
3/5/2022 19:21:20 -06:00 n1_clus2 n2_clus2 none
.
.
n2
3/5/2022 19:21:18 -06:00 n2_clus2 n1_clus1 none
3/5/2022 19:21:20 -06:00 n2_clus2 n1_clus2 none
.
.
n3
.
.
.n4
.
.
Pour toutes les versions ONTAP , vous pouvez également utiliser cluster ping-cluster -node <name> commande pour vérifier la connectivité :
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1 e0a 10.10.0.1
Cluster n1_clus2 n1 e0b 10.10.0.2
Cluster n1_clus3 n1 e0c 10.10.0.3
Cluster n1_clus4 n1 e0d 10.10.0.4
Cluster n2_clus1 n2 e0a 10.10.0.5
Cluster n2_clus2 n2 e0b 10.10.0.6
Cluster n2_clus3 n2 e0c 10.10.0.7
Cluster n2_clus4 n2 e0d 10.10.0.8
Cluster n3_clus1 n4 e0a 10.10.0.9
Cluster n3_clus2 n3 e0e 10.10.0.10
Cluster n4_clus1 n4 e0a 10.10.0.11
Cluster n4_clus2 n4 e0e 10.10.0.12
Local = 10.10.0.1 10.10.0.2 10.10.0.3 10.10.0.4
Remote = 10.10.0.5 10.10.0.6 10.10.0.7 10.10.0.8 10.10.0.9 10.10.0.10 10.10.0.11
10.10.0.12 Cluster Vserver Id = 4294967293 Ping status:
....
Basic connectivity succeeds on 32 path(s)
Basic connectivity fails on 0 path(s) ................
Detected 9000 byte MTU on 32 path(s):
Local 10.10.0.1 to Remote 10.10.0.5
Local 10.10.0.1 to Remote 10.10.0.6
Local 10.10.0.1 to Remote 10.10.0.7
Local 10.10.0.1 to Remote 10.10.0.8
Local 10.10.0.1 to Remote 10.10.0.9
Local 10.10.0.1 to Remote 10.10.0.10
Local 10.10.0.1 to Remote 10.10.0.11
Local 10.10.0.1 to Remote 10.10.0.12
Local 10.10.0.2 to Remote 10.10.0.5
Local 10.10.0.2 to Remote 10.10.0.6
Local 10.10.0.2 to Remote 10.10.0.7
Local 10.10.0.2 to Remote 10.10.0.8
Local 10.10.0.2 to Remote 10.10.0.9
Local 10.10.0.2 to Remote 10.10.0.10
Local 10.10.0.2 to Remote 10.10.0.11
Local 10.10.0.2 to Remote 10.10.0.12
Local 10.10.0.3 to Remote 10.10.0.5
Local 10.10.0.3 to Remote 10.10.0.6
Local 10.10.0.3 to Remote 10.10.0.7
Local 10.10.0.3 to Remote 10.10.0.8
Local 10.10.0.3 to Remote 10.10.0.9
Local 10.10.0.3 to Remote 10.10.0.10
Local 10.10.0.3 to Remote 10.10.0.11
Local 10.10.0.3 to Remote 10.10.0.12
Local 10.10.0.4 to Remote 10.10.0.5
Local 10.10.0.4 to Remote 10.10.0.6
Local 10.10.0.4 to Remote 10.10.0.7
Local 10.10.0.4 to Remote 10.10.0.8
Local 10.10.0.4 to Remote 10.10.0.9
Local 10.10.0.4 to Remote 10.10.0.10
Local 10.10.0.4 to Remote 10.10.0.11
Local 10.10.0.4 to Remote 10.10.0.12
Larger than PMTU communication succeeds on 32 path(s) RPC status:
8 paths up, 0 paths down (tcp check)
8 paths up, 0 paths down (udp check)
Étape 4 : Vérifier que tous les ports et LIF sont correctement migrés.
-
Affichez les informations relatives aux périphériques de votre configuration en saisissant les commandes suivantes :
Vous pouvez exécuter les commandes suivantes dans n'importe quel ordre :
-
network device-discovery show -
network port show -role cluster -
network interface show -role cluster -
system cluster-switch show
Afficher un exemple
cluster::> network device-discovery show Local Discovered Node Port Device Interface Platform ----------- ------ ------------------- ---------------- ---------------- n1 /cdp e0a C1 Ethernet1/1/1 N3K-C3232C e0b C2 Ethernet1/1/1 N3K-C3232C e0c C2 Ethernet1/1/2 N3K-C3232C e0d C1 Ethernet1/1/2 N3K-C3232C n2 /cdp e0a C1 Ethernet1/1/3 N3K-C3232C e0b C2 Ethernet1/1/3 N3K-C3232C e0c C2 Ethernet1/1/4 N3K-C3232C e0d C1 Ethernet1/1/4 N3K-C3232C n3 /cdp e4a C1 Ethernet1/7 N3K-C3232C e4e C2 Ethernet1/7 N3K-C3232C n4 /cdp e4a C1 Ethernet1/8 N3K-C3232C e4e C2 Ethernet1/8 N3K-C3232C cluster::*> network port show -role cluster (network port show) Node: n1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - Node: n2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - Node: n3 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - Node: n4 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - cluster::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster nm1_clus1 up/up 10.10.0.1/24 n1 e0a true n1_clus2 up/up 10.10.0.2/24 n1 e0b true n1_clus3 up/up 10.10.0.3/24 n1 e0c true n1_clus4 up/up 10.10.0.4/24 n1 e0d true n2_clus1 up/up 10.10.0.5/24 n2 e0a true n2_clus2 up/up 10.10.0.6/24 n2 e0b true n2_clus3 up/up 10.10.0.7/24 n2 e0c true n2_clus4 up/up 10.10.0.8/24 n2 e0d true n3_clus1 up/up 10.10.0.9/24 n3 e4a true n3_clus2 up/up 10.10.0.10/24 n3 e4e true n4_clus1 up/up 10.10.0.11/24 n4 e4a true n4_clus2 up/up 10.10.0.12/24 n4 e4e true cluster::*> system cluster-switch show Switch Type Address Model --------------------------- ------------------ ---------------- --------------- CL1 cluster-network 10.10.1.101 NX3232C Serial Number: FOX000001 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP CL2 cluster-network 10.10.1.102 NX3232C Serial Number: FOX000002 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP C2 cluster-network 10.10.1.103 NX3232C Serial Number: FOX000003 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP 3 entries were displayed. -
-
Supprimez le commutateur de cluster remplacé CL2 s'il n'a pas été supprimé automatiquement :
system cluster-switch delete -device cluster-switch-name -
Vérifiez que les commutateurs de cluster appropriés sont surveillés :
system cluster-switch showAfficher un exemple
L'exemple suivant montre que les commutateurs du cluster sont surveillés car
Is Monitoredl'état esttrue.cluster::> system cluster-switch show Switch Type Address Model --------------------------- ------------------ ---------------- --------------- CL1 cluster-network 10.10.1.101 NX3232C Serial Number: FOX000001 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP C2 cluster-network 10.10.1.103 NX3232C Serial Number: FOX000002 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP -
Si vous avez désactivé la création automatique de dossiers, réactivez-la en envoyant un message AutoSupport :
system node autosupport invoke -node * -type all -message MAINT=END
Après avoir remplacé votre interrupteur, vous pouvez"configurer la surveillance de l'état du commutateur" .