Remplacement d'un switch de cluster Cisco Nexus 3232C
Effectuez la procédure suivante pour remplacer un switch Cisco Nexus 3232C défectueux dans un cluster. Cette procédure ne perturbe pas les opérations.
Examen des conditions requises
Vérifiez que la configuration existante du cluster et du réseau présente les caractéristiques suivantes :
-
L'infrastructure de cluster Nexus 3232C est redondante et entièrement fonctionnelle sur les deux switchs.
La page des commutateurs Ethernet Cisco présente les dernières versions de RCF et NX-OS sur vos commutateurs.
-
Tous les ports de cluster doivent être à l'état up.
-
La connectivité de gestion doit exister sur les deux commutateurs.
-
Toutes les interfaces logiques de cluster (LIF) sont à l'état up et ne sont pas migrées.
Les caractéristiques du switch Cisco Nexus 3232C de remplacement sont les suivantes :
-
La connectivité du réseau de gestion est fonctionnelle.
-
L'accès à la console au commutateur de remplacement est en place.
-
L'image appropriée du système d'exploitation RCF et NX-OS est chargée sur le commutateur.
-
La personnalisation initiale du commutateur est terminée.
Voir les éléments suivants :
Activer la journalisation de la console
NetApp vous recommande fortement d'activer la journalisation de la console sur les périphériques que vous utilisez et d'effectuer les actions suivantes lors du remplacement de votre commutateur :
-
Laissez AutoSupport activé pendant la maintenance.
-
Déclencher une AutoSupport de maintenance avant et après la maintenance pour désactiver la création de cas pendant la durée de la maintenance. Consultez cet article de la base de connaissance "SU92 : comment supprimer la création automatique de cas pendant les fenêtres de maintenance planifiées" pour plus d'informations.
-
Activer la journalisation des sessions pour toutes les sessions CLI. Pour obtenir des instructions sur l'activation de la journalisation des sessions, consultez la section « consignation des sorties de session » de cet article de la base de connaissances "Comment configurer PuTTY pour une connectivité optimale aux systèmes ONTAP".
Remplacer le contacteur
Cette procédure de remplacement décrit le scénario suivant :
-
Le cluster possède initialement quatre nœuds connectés à deux switchs de cluster Nexus 3232C, CL1 et CL2.
-
Vous avez l'intention de remplacer le commutateur CL2 du bloc d'instruments par C2 (étapes 1 à 21) :
-
Sur chaque nœud, vous migrez les LIFs de cluster connectées au commutateur de cluster CL2 vers les ports de cluster connectés au commutateur de cluster CL1.
-
Vous déconnectez le câblage de tous les ports du commutateur CL2 du cluster et reconnectez le câblage aux mêmes ports du commutateur C2 de remplacement du cluster.
-
Vous ne restaurez pas les LIF de cluster migrées sur chaque nœud.
-
Cette procédure de remplacement remplace le second switch de cluster Nexus 3232C CL2 par le nouveau switch 3232C de C2.
Les exemples de cette procédure utilisent la nomenclature des commutateurs et des nœuds suivante :
-
Les quatre nœuds sont n1, n2, n3 et n4.
-
n1_concluA1 est la première interface logique (LIF) de cluster connectée au commutateur de cluster C1 pour le nœud n1.
-
n1_CL2 est la première LIF de cluster connectée au commutateur de cluster CL2 ou C2 pour le nœud n1.
-
n1_conclue3 est la deuxième LIF connectée au commutateur de cluster C2 pour le nœud n1.-
-
n1_CL4 est la deuxième LIF connectée au commutateur de cluster CL1, pour le nœud n1.
Le nombre de ports 10 GbE et 40/100 GbE est défini dans les fichiers de configuration de référence disponibles sur le "Téléchargement du fichier de configuration de référence du commutateur réseau en cluster Cisco®" page.
Les exemples de cette procédure de remplacement utilisent quatre nœuds. Deux des nœuds utilisent quatre ports d'interconnexion de cluster de 10 Go : e0a, e0b, e0c et e0d. Les deux autres nœuds utilisent deux ports d'interconnexion de cluster de 40 Go : e4a et e4e. Voir la "Hardware Universe" pour vérifier les ports de cluster appropriés pour votre plate-forme.
Étape 1 : afficher et migrer les ports du cluster vers le commutateur
-
Si AutoSupport est activé sur ce cluster, supprimez la création automatique de dossiers en invoquant un message AutoSupport :
system node autosupport invoke -node * -type all - message MAINT=xh
x représente la durée de la fenêtre de maintenance en heures.
Le message AutoSupport informe le support technique de cette tâche de maintenance de sorte que la création automatique de dossier soit supprimée lors de la fenêtre de maintenance.
-
Afficher des informations sur les périphériques de votre configuration :
network device-discovery show
Montrer l'exemple
cluster::> network device-discovery show Local Discovered Node Port Device Interface Platform ----------- ------ ------------------- ---------------- ---------------- n1 /cdp e0a CL1 Ethernet1/1/1 N3K-C3232C e0b CL2 Ethernet1/1/1 N3K-C3232C e0c CL2 Ethernet1/1/2 N3K-C3232C e0d CL1 Ethernet1/1/2 N3K-C3232C n2 /cdp e0a CL1 Ethernet1/1/3 N3K-C3232C e0b CL2 Ethernet1/1/3 N3K-C3232C e0c CL2 Ethernet1/1/4 N3K-C3232C e0d CL1 Ethernet1/1/4 N3K-C3232C n3 /cdp e4a CL1 Ethernet1/7 N3K-C3232C e4e CL2 Ethernet1/7 N3K-C3232C n4 /cdp e4a CL1 Ethernet1/8 N3K-C3232C e4e CL2 Ethernet1/8 N3K-C3232C
-
Détermination du statut administratif ou opérationnel pour chaque interface de cluster
-
Afficher les attributs des ports réseau :
network port show -role cluster
Montrer l'exemple
cluster::*> network port show -role cluster (network port show) Node: n1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- ------------ e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - - Node: n2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- ------------ e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - - Node: n3 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - - e4e Cluster Cluster up 9000 auto/40000 - - Node: n4 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 -
-
Affichage des informations relatives aux interfaces logiques (LIF) :
network interface show -role cluster
Montrer l'exemple
cluster::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- --- Cluster n1_clus1 up/up 10.10.0.1/24 n1 e0a true n1_clus2 up/up 10.10.0.2/24 n1 e0b true n1_clus3 up/up 10.10.0.3/24 n1 e0c true n1_clus4 up/up 10.10.0.4/24 n1 e0d true n2_clus1 up/up 10.10.0.5/24 n2 e0a true n2_clus2 up/up 10.10.0.6/24 n2 e0b true n2_clus3 up/up 10.10.0.7/24 n2 e0c true n2_clus4 up/up 10.10.0.8/24 n2 e0d true n3_clus1 up/up 10.10.0.9/24 n3 e0a true n3_clus2 up/up 10.10.0.10/24 n3 e0e true n4_clus1 up/up 10.10.0.11/24 n4 e0a true n4_clus2 up/up 10.10.0.12/24 n4 e0e true
-
Afficher les commutateurs de cluster détectés :
system cluster-switch show
Montrer l'exemple
L'exemple de sortie suivant affiche les commutateurs du cluster :
cluster::> system cluster-switch show Switch Type Address Model --------------------------- ------------------ ---------------- --------------- CL1 cluster-network 10.10.1.101 NX3232C Serial Number: FOX000001 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP CL2 cluster-network 10.10.1.102 NX3232C Serial Number: FOX000002 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP
-
-
Vérifiez que le FCR et l'image appropriés sont installés sur le nouveau switch Nexus 3232C et effectuez les personnalisations du site nécessaires.
-
Accédez au site de support NetApp.
-
Accédez à la page commutateurs Ethernet Cisco et notez les versions logicielles requises dans le tableau.
-
Téléchargez la version appropriée de la FCR.
-
Cliquez sur CONTINUER sur la page Description, acceptez le contrat de licence, puis accédez à la page Télécharger.
-
Téléchargez la version correcte du logiciel d'image à partir de la page de téléchargement* du fichier de référence du commutateur de réseau de gestion et de cluster Cisco®.
-
-
Migrer les LIFs du cluster sur les ports du nœud physique connectés au commutateur de remplacement C2 :
network interface migrate -vserver vserver-name -lif lif-name -source-node node-name -destination-node node-name -destination-port port-name
Montrer l'exemple
Vous devez migrer toutes les LIFs du cluster individuellement, comme illustré ci-dessous :
cluster::*> network interface migrate -vserver Cluster -lif n1_clus2 -source-node n1 -destination- node n1 -destination-port e0a cluster::*> network interface migrate -vserver Cluster -lif n1_clus3 -source-node n1 -destination- node n1 -destination-port e0d cluster::*> network interface migrate -vserver Cluster -lif n2_clus2 -source-node n2 -destination- node n2 -destination-port e0a cluster::*> network interface migrate -vserver Cluster -lif n2_clus3 -source-node n2 -destination- node n2 -destination-port e0d cluster::*> network interface migrate -vserver Cluster -lif n3_clus2 -source-node n3 -destination- node n3 -destination-port e4a cluster::*> network interface migrate -vserver Cluster -lif n4_clus2 -source-node n4 -destination- node n4 -destination-port e4a
-
Vérifiez l'état des ports du cluster et leurs désignations comme origine :
network interface show -role cluster
Montrer l'exemple
cluster::*> network interface show -role cluster (network interface show) Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster n1_clus1 up/up 10.10.0.1/24 n1 e0a true n1_clus2 up/up 10.10.0.2/24 n1 e0a false n1_clus3 up/up 10.10.0.3/24 n1 e0d false n1_clus4 up/up 10.10.0.4/24 n1 e0d true n2_clus1 up/up 10.10.0.5/24 n2 e0a true n2_clus2 up/up 10.10.0.6/24 n2 e0a false n2_clus3 up/up 10.10.0.7/24 n2 e0d false n2_clus4 up/up 10.10.0.8/24 n2 e0d true n3_clus1 up/up 10.10.0.9/24 n3 e4a true n3_clus2 up/up 10.10.0.10/24 n3 e4a false n4_clus1 up/up 10.10.0.11/24 n4 e4a true n4_clus2 up/up 10.10.0.12/24 n4 e4a false
-
Arrêtez les ports d'interconnexion de cluster qui sont physiquement connectés au commutateur d'origine CL2 :
network port modify -node node-name -port port-name -up-admin false
Montrer l'exemple
L'exemple suivant montre que les ports d'interconnexion de cluster sont arrêtés sur tous les nœuds :
cluster::*> network port modify -node n1 -port e0b -up-admin false cluster::*> network port modify -node n1 -port e0c -up-admin false cluster::*> network port modify -node n2 -port e0b -up-admin false cluster::*> network port modify -node n2 -port e0c -up-admin false cluster::*> network port modify -node n3 -port e4e -up-admin false cluster::*> network port modify -node n4 -port e4e -up-admin false
-
Vérifiez la connectivité des interfaces de cluster distantes :
Vous pouvez utiliser le network interface check cluster-connectivity
pour lancer un contrôle d'accessibilité pour la connectivité du cluster, puis afficher les détails :
network interface check cluster-connectivity start
et network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
REMARQUE : attendez un certain nombre de secondes avant d'exécuter show
la commande pour afficher les détails.
cluster1::*> network interface check cluster-connectivity show Source Destination Packet Node Date LIF LIF Loss ------ -------------------------- ---------------- ---------------- ----------- n1 3/5/2022 19:21:18 -06:00 n1_clus2 n2-clus1 none 3/5/2022 19:21:20 -06:00 n1_clus2 n2_clus2 none . . n2 3/5/2022 19:21:18 -06:00 n2_clus2 n1_clus1 none 3/5/2022 19:21:20 -06:00 n2_clus2 n1_clus2 none . . n3 . . .n4 . .
Pour toutes les versions de ONTAP, vous pouvez également utiliser cluster ping-cluster -node <name>
pour vérifier la connectivité :
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is n1 Getting addresses from network interface table... Cluster n1_clus1 n1 e0a 10.10.0.1 Cluster n1_clus2 n1 e0b 10.10.0.2 Cluster n1_clus3 n1 e0c 10.10.0.3 Cluster n1_clus4 n1 e0d 10.10.0.4 Cluster n2_clus1 n2 e0a 10.10.0.5 Cluster n2_clus2 n2 e0b 10.10.0.6 Cluster n2_clus3 n2 e0c 10.10.0.7 Cluster n2_clus4 n2 e0d 10.10.0.8 Cluster n3_clus1 n4 e0a 10.10.0.9 Cluster n3_clus2 n3 e0e 10.10.0.10 Cluster n4_clus1 n4 e0a 10.10.0.11 Cluster n4_clus2 n4 e0e 10.10.0.12 Local = 10.10.0.1 10.10.0.2 10.10.0.3 10.10.0.4 Remote = 10.10.0.5 10.10.0.6 10.10.0.7 10.10.0.8 10.10.0.9 10.10.0.10 10.10.0.11 10.10.0.12 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 32 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 32 path(s): Local 10.10.0.1 to Remote 10.10.0.5 Local 10.10.0.1 to Remote 10.10.0.6 Local 10.10.0.1 to Remote 10.10.0.7 Local 10.10.0.1 to Remote 10.10.0.8 Local 10.10.0.1 to Remote 10.10.0.9 Local 10.10.0.1 to Remote 10.10.0.10 Local 10.10.0.1 to Remote 10.10.0.11 Local 10.10.0.1 to Remote 10.10.0.12 Local 10.10.0.2 to Remote 10.10.0.5 Local 10.10.0.2 to Remote 10.10.0.6 Local 10.10.0.2 to Remote 10.10.0.7 Local 10.10.0.2 to Remote 10.10.0.8 Local 10.10.0.2 to Remote 10.10.0.9 Local 10.10.0.2 to Remote 10.10.0.10 Local 10.10.0.2 to Remote 10.10.0.11 Local 10.10.0.2 to Remote 10.10.0.12 Local 10.10.0.3 to Remote 10.10.0.5 Local 10.10.0.3 to Remote 10.10.0.6 Local 10.10.0.3 to Remote 10.10.0.7 Local 10.10.0.3 to Remote 10.10.0.8 Local 10.10.0.3 to Remote 10.10.0.9 Local 10.10.0.3 to Remote 10.10.0.10 Local 10.10.0.3 to Remote 10.10.0.11 Local 10.10.0.3 to Remote 10.10.0.12 Local 10.10.0.4 to Remote 10.10.0.5 Local 10.10.0.4 to Remote 10.10.0.6 Local 10.10.0.4 to Remote 10.10.0.7 Local 10.10.0.4 to Remote 10.10.0.8 Local 10.10.0.4 to Remote 10.10.0.9 Local 10.10.0.4 to Remote 10.10.0.10 Local 10.10.0.4 to Remote 10.10.0.11 Local 10.10.0.4 to Remote 10.10.0.12 Larger than PMTU communication succeeds on 32 path(s) RPC status: 8 paths up, 0 paths down (tcp check) 8 paths up, 0 paths down (udp check)
Étape 2 : migrer des liens ISL vers les commutateurs CL1 et C2
-
Arrêtez les ports 1/31 et 1/32 sur le commutateur de bloc d'instruments CL1.
Pour plus d'informations sur les commandes Cisco, reportez-vous aux guides répertoriés dans le "Références des commandes Cisco Nexus série 3000 NX-OS".
Montrer l'exemple
(CL1)# configure (CL1)(Config)# interface e1/31-32 (CL1)(config-if-range)# shutdown (CL1)(config-if-range)# exit (CL1)(Config)# exit (CL1)#
-
Retirez tous les câbles reliés au commutateur CL2 du bloc d'instruments et reconnectez-les au commutateur C2 de remplacement pour tous les nœuds.
-
Retirez les câbles de liaison interswitch (ISL) des ports e1/31 et e1/32 du commutateur CL2 du cluster et reconnectez-les aux mêmes ports du commutateur C2 de remplacement.
-
Mettre les ports ISL 1/31 et 1/32 sur le commutateur de cluster CL1.
Pour plus d'informations sur les commandes Cisco, reportez-vous aux guides répertoriés dans le "Références des commandes Cisco Nexus série 3000 NX-OS".
Montrer l'exemple
(CL1)# configure (CL1)(Config)# interface e1/31-32 (CL1)(config-if-range)# no shutdown (CL1)(config-if-range)# exit (CL1)(Config)# exit (CL1)#
-
Vérifiez que les liens ISL sont dans le CL1.
Pour plus d'informations sur les commandes Cisco, reportez-vous aux guides répertoriés dans le "Références des commandes Cisco Nexus série 3000 NX-OS".
Les ports eth1/31 et eth1/32 doivent indiquer
(P)
, Ce qui signifie que les ports ISL sont dans le port-Channel :Montrer l'exemple
CL1# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed S - Switched R - Routed U - Up (port-channel) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/31(P) Eth1/32(P)
-
Vérifiez que les liens ISL sont dans le commutateur C2 du cluster.
Pour plus d'informations sur les commandes Cisco, reportez-vous aux guides répertoriés dans le "Références des commandes Cisco Nexus série 3000 NX-OS".
Montrer l'exemple
Les ports eth1/31 et eth1/32 doivent indiquer (P), ce qui signifie que les deux ports ISL sont présents dans le port-Channel.
C2# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed S - Switched R - Routed U - Up (port-channel) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/31(P) Eth1/32(P)
-
Sur tous les nœuds, activer tous les ports d'interconnexion de cluster connectés au commutateur de remplacement C2 :
network port modify -node node-name -port port-name -up-admin true
Montrer l'exemple
cluster::*> network port modify -node n1 -port e0b -up-admin true cluster::*> network port modify -node n1 -port e0c -up-admin true cluster::*> network port modify -node n2 -port e0b -up-admin true cluster::*> network port modify -node n2 -port e0c -up-admin true cluster::*> network port modify -node n3 -port e4e -up-admin true cluster::*> network port modify -node n4 -port e4e -up-admin true
Étape 3 : restaurez toutes les LIF sur les ports qui ont été attribués initialement
-
Revert toutes les LIF d'interconnexion de cluster migrées sur tous les nœuds :
network interface revert -vserver cluster -lif lif-name
Montrer l'exemple
Vous devez rétablir chaque LIF d'interconnexion de cluster individuellement, comme illustré ci-dessous :
cluster::*> network interface revert -vserver cluster -lif n1_clus2 cluster::*> network interface revert -vserver cluster -lif n1_clus3 cluster::*> network interface revert -vserver cluster -lif n2_clus2 cluster::*> network interface revert -vserver cluster -lif n2_clus3 Cluster::*> network interface revert -vserver cluster -lif n3_clus2 Cluster::*> network interface revert -vserver cluster -lif n4_clus2
-
Vérifiez que les ports d'interconnexion de cluster sont rétablis dans leur état de résidence :
network interface show
Montrer l'exemple
L'exemple suivant montre que toutes les LIFs ont été rétablies, car les ports répertoriés sous
Current Port
le statut de la colonne est detrue
dans leIs Home
colonne. Si un port a une valeur defalse
, La LIF n'a pas été rétablie.cluster::*> network interface show -role cluster (network interface show) Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster n1_clus1 up/up 10.10.0.1/24 n1 e0a true n1_clus2 up/up 10.10.0.2/24 n1 e0b true n1_clus3 up/up 10.10.0.3/24 n1 e0c true n1_clus4 up/up 10.10.0.4/24 n1 e0d true n2_clus1 up/up 10.10.0.5/24 n2 e0a true n2_clus2 up/up 10.10.0.6/24 n2 e0b true n2_clus3 up/up 10.10.0.7/24 n2 e0c true n2_clus4 up/up 10.10.0.8/24 n2 e0d true n3_clus1 up/up 10.10.0.9/24 n3 e4a true n3_clus2 up/up 10.10.0.10/24 n3 e4e true n4_clus1 up/up 10.10.0.11/24 n4 e4a true n4_clus2 up/up 10.10.0.12/24 n4 e4e true
-
Vérifiez que les ports du cluster sont connectés :
network port show -role cluster
Montrer l'exemple
cluster::*> network port show -role cluster (network port show) Node: n1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - - Node: n2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - - Node: n3 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - - Node: n4 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - -
-
Vérifiez la connectivité des interfaces de cluster distantes :
Vous pouvez utiliser le network interface check cluster-connectivity
pour lancer un contrôle d'accessibilité pour la connectivité du cluster, puis afficher les détails :
network interface check cluster-connectivity start
et network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
REMARQUE : attendez un certain nombre de secondes avant d'exécuter show
la commande pour afficher les détails.
cluster1::*> network interface check cluster-connectivity show Source Destination Packet Node Date LIF LIF Loss ------ -------------------------- ---------------- ---------------- ----------- n1 3/5/2022 19:21:18 -06:00 n1_clus2 n2-clus1 none 3/5/2022 19:21:20 -06:00 n1_clus2 n2_clus2 none . . n2 3/5/2022 19:21:18 -06:00 n2_clus2 n1_clus1 none 3/5/2022 19:21:20 -06:00 n2_clus2 n1_clus2 none . . n3 . . .n4 . .
Pour toutes les versions de ONTAP, vous pouvez également utiliser cluster ping-cluster -node <name>
pour vérifier la connectivité :
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is n1 Getting addresses from network interface table... Cluster n1_clus1 n1 e0a 10.10.0.1 Cluster n1_clus2 n1 e0b 10.10.0.2 Cluster n1_clus3 n1 e0c 10.10.0.3 Cluster n1_clus4 n1 e0d 10.10.0.4 Cluster n2_clus1 n2 e0a 10.10.0.5 Cluster n2_clus2 n2 e0b 10.10.0.6 Cluster n2_clus3 n2 e0c 10.10.0.7 Cluster n2_clus4 n2 e0d 10.10.0.8 Cluster n3_clus1 n4 e0a 10.10.0.9 Cluster n3_clus2 n3 e0e 10.10.0.10 Cluster n4_clus1 n4 e0a 10.10.0.11 Cluster n4_clus2 n4 e0e 10.10.0.12 Local = 10.10.0.1 10.10.0.2 10.10.0.3 10.10.0.4 Remote = 10.10.0.5 10.10.0.6 10.10.0.7 10.10.0.8 10.10.0.9 10.10.0.10 10.10.0.11 10.10.0.12 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 32 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 32 path(s): Local 10.10.0.1 to Remote 10.10.0.5 Local 10.10.0.1 to Remote 10.10.0.6 Local 10.10.0.1 to Remote 10.10.0.7 Local 10.10.0.1 to Remote 10.10.0.8 Local 10.10.0.1 to Remote 10.10.0.9 Local 10.10.0.1 to Remote 10.10.0.10 Local 10.10.0.1 to Remote 10.10.0.11 Local 10.10.0.1 to Remote 10.10.0.12 Local 10.10.0.2 to Remote 10.10.0.5 Local 10.10.0.2 to Remote 10.10.0.6 Local 10.10.0.2 to Remote 10.10.0.7 Local 10.10.0.2 to Remote 10.10.0.8 Local 10.10.0.2 to Remote 10.10.0.9 Local 10.10.0.2 to Remote 10.10.0.10 Local 10.10.0.2 to Remote 10.10.0.11 Local 10.10.0.2 to Remote 10.10.0.12 Local 10.10.0.3 to Remote 10.10.0.5 Local 10.10.0.3 to Remote 10.10.0.6 Local 10.10.0.3 to Remote 10.10.0.7 Local 10.10.0.3 to Remote 10.10.0.8 Local 10.10.0.3 to Remote 10.10.0.9 Local 10.10.0.3 to Remote 10.10.0.10 Local 10.10.0.3 to Remote 10.10.0.11 Local 10.10.0.3 to Remote 10.10.0.12 Local 10.10.0.4 to Remote 10.10.0.5 Local 10.10.0.4 to Remote 10.10.0.6 Local 10.10.0.4 to Remote 10.10.0.7 Local 10.10.0.4 to Remote 10.10.0.8 Local 10.10.0.4 to Remote 10.10.0.9 Local 10.10.0.4 to Remote 10.10.0.10 Local 10.10.0.4 to Remote 10.10.0.11 Local 10.10.0.4 to Remote 10.10.0.12 Larger than PMTU communication succeeds on 32 path(s) RPC status: 8 paths up, 0 paths down (tcp check) 8 paths up, 0 paths down (udp check)
Étape 4 : vérifier que tous les ports et les LIF sont correctement migrés
-
Affichez les informations relatives aux périphériques de votre configuration en entrant les commandes suivantes :
Vous pouvez exécuter les commandes suivantes dans n'importe quel ordre :
-
network device-discovery show
-
network port show -role cluster
-
network interface show -role cluster
-
system cluster-switch show
Montrer l'exemple
cluster::> network device-discovery show Local Discovered Node Port Device Interface Platform ----------- ------ ------------------- ---------------- ---------------- n1 /cdp e0a C1 Ethernet1/1/1 N3K-C3232C e0b C2 Ethernet1/1/1 N3K-C3232C e0c C2 Ethernet1/1/2 N3K-C3232C e0d C1 Ethernet1/1/2 N3K-C3232C n2 /cdp e0a C1 Ethernet1/1/3 N3K-C3232C e0b C2 Ethernet1/1/3 N3K-C3232C e0c C2 Ethernet1/1/4 N3K-C3232C e0d C1 Ethernet1/1/4 N3K-C3232C n3 /cdp e4a C1 Ethernet1/7 N3K-C3232C e4e C2 Ethernet1/7 N3K-C3232C n4 /cdp e4a C1 Ethernet1/8 N3K-C3232C e4e C2 Ethernet1/8 N3K-C3232C cluster::*> network port show -role cluster (network port show) Node: n1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - Node: n2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e0a Cluster Cluster up 9000 auto/10000 - e0b Cluster Cluster up 9000 auto/10000 - e0c Cluster Cluster up 9000 auto/10000 - e0d Cluster Cluster up 9000 auto/10000 - Node: n3 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - Node: n4 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - cluster::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster nm1_clus1 up/up 10.10.0.1/24 n1 e0a true n1_clus2 up/up 10.10.0.2/24 n1 e0b true n1_clus3 up/up 10.10.0.3/24 n1 e0c true n1_clus4 up/up 10.10.0.4/24 n1 e0d true n2_clus1 up/up 10.10.0.5/24 n2 e0a true n2_clus2 up/up 10.10.0.6/24 n2 e0b true n2_clus3 up/up 10.10.0.7/24 n2 e0c true n2_clus4 up/up 10.10.0.8/24 n2 e0d true n3_clus1 up/up 10.10.0.9/24 n3 e4a true n3_clus2 up/up 10.10.0.10/24 n3 e4e true n4_clus1 up/up 10.10.0.11/24 n4 e4a true n4_clus2 up/up 10.10.0.12/24 n4 e4e true cluster::*> system cluster-switch show Switch Type Address Model --------------------------- ------------------ ---------------- --------------- CL1 cluster-network 10.10.1.101 NX3232C Serial Number: FOX000001 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP CL2 cluster-network 10.10.1.102 NX3232C Serial Number: FOX000002 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP C2 cluster-network 10.10.1.103 NX3232C Serial Number: FOX000003 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP 3 entries were displayed.
-
-
Supprimez le commutateur de bloc d'instruments remplacé CL2 s'il n'a pas été supprimé automatiquement :
system cluster-switch delete -device cluster-switch-name
-
Vérifier que les commutateurs de cluster appropriés sont surveillés :
system cluster-switch show
Montrer l'exemple
L'exemple suivant montre que les commutateurs du cluster sont contrôlés, car le
Is Monitored
l'état esttrue
.cluster::> system cluster-switch show Switch Type Address Model --------------------------- ------------------ ---------------- --------------- CL1 cluster-network 10.10.1.101 NX3232C Serial Number: FOX000001 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP C2 cluster-network 10.10.1.103 NX3232C Serial Number: FOX000002 Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP
-
Si vous avez supprimé la création automatique de cas, réactivez-la en appelant un message AutoSupport :
system node autosupport invoke -node * -type all -message MAINT=END