Sostituire uno switch Cisco Nexus 92300YC
La sostituzione di uno switch Nexus 92300YC difettoso in una rete cluster è una procedura senza interruzioni (NDU).
Verifica dei requisiti
Prima di sostituire lo switch, assicurarsi che:
-
Nel cluster e nell'infrastruttura di rete esistenti:
-
Il cluster esistente viene verificato come completamente funzionale, con almeno uno switch del cluster completamente connesso.
-
Tutte le porte del cluster sono installate.
-
Tutte le interfacce logiche del cluster (LIFF) sono installate sulle porte domestiche.
-
Il comando ping-cluster -node node1 del cluster ONTAP deve indicare che la connettività di base e le comunicazioni di dimensioni superiori a quelle di PMTU hanno esito positivo su tutti i percorsi.
-
-
Per lo switch sostitutivo Nexus 92300YC:
-
La connettività di rete di gestione sullo switch sostitutivo è funzionale.
-
L'accesso della console allo switch sostitutivo è in posizione.
-
Le connessioni dei nodi sono le porte da 1/1 a 1/64.
-
Tutte le porte ISL (Inter-Switch link) sono disattivate sulle porte 1/65 e 1/66.
-
Il file di configurazione di riferimento desiderato (RCF) e lo switch dell'immagine del sistema operativo NX-OS vengono caricati sullo switch.
-
La personalizzazione iniziale dello switch è completa, come descritto in: "Configurare lo switch Cisco Nexus 92300YC".
Tutte le personalizzazioni precedenti del sito, come STP, SNMP e SSH, vengono copiate nel nuovo switch.
-
Attivare la registrazione della console
NetApp consiglia vivamente di attivare la registrazione della console sui dispositivi in uso e di eseguire le seguenti operazioni quando si sostituisce lo switch:
-
Lasciare attivato AutoSupport durante la manutenzione.
-
Attivare un AutoSupport di manutenzione prima e dopo la manutenzione per disattivare la creazione del caso per tutta la durata della manutenzione. Consultare questo articolo della Knowledge base "SU92: Come eliminare la creazione automatica dei casi durante le finestre di manutenzione programmata" per ulteriori dettagli.
-
Attivare la registrazione della sessione per qualsiasi sessione CLI. Per istruzioni su come attivare la registrazione della sessione, consultare la sezione "registrazione dell'output della sessione" in questo articolo della Knowledge base "Come configurare Putty per una connettività ottimale ai sistemi ONTAP".
Sostituire lo switch
Gli esempi di questa procedura utilizzano la seguente nomenclatura di switch e nodi:
-
I nomi degli switch Nexus 92300YC esistenti sono cs1 e cs2.
-
Il nome del nuovo switch Nexus 92300YC è newcs2.
-
I nomi dei nodi sono node1 e node2.
-
Le porte del cluster su ciascun nodo sono denominate e0a e e0b.
-
I nomi LIF del cluster sono node1_clus1 e node1_clus2 per node1 e node2_clus1 e node2_clus2 per node2.
-
Il prompt per le modifiche a tutti i nodi del cluster è cluster1:*>
È necessario eseguire il comando per la migrazione di un LIF del cluster dal nodo in cui è ospitato il LIF del cluster.
La seguente procedura si basa sulla seguente topologia di rete del cluster:
Mostra topologia
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false 4 entries were displayed. cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e0a true node1_clus2 up/up 169.254.49.125/16 node1 e0b true node2_clus1 up/up 169.254.47.194/16 node2 e0a true node2_clus2 up/up 169.254.19.183/16 node2 e0b true 4 entries were displayed. cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node2 /cdp e0a cs1 Eth1/2 N9K-C92300YC e0b cs2 Eth1/2 N9K-C92300YC node1 /cdp e0a cs1 Eth1/1 N9K-C92300YC e0b cs2 Eth1/1 N9K-C92300YC 4 entries were displayed. cs1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 144 H FAS2980 e0a node2 Eth1/2 145 H FAS2980 e0a cs2(FDO220329V5) Eth1/65 176 R S I s N9K-C92300YC Eth1/65 cs2(FDO220329V5) Eth1/66 176 R S I s N9K-C92300YC Eth1/66 Total entries displayed: 4 cs2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 139 H FAS2980 e0b node2 Eth1/2 124 H FAS2980 e0b cs1(FDO220329KU) Eth1/65 178 R S I s N9K-C92300YC Eth1/65 cs1(FDO220329KU) Eth1/66 178 R S I s N9K-C92300YC Eth1/66 Total entries displayed: 4
Fase 1: Preparazione per la sostituzione
-
Installare l'RCF e l'immagine appropriati sullo switch, newcs2, ed eseguire le operazioni necessarie per la preparazione del sito.
Se necessario, verificare, scaricare e installare le versioni appropriate del software RCF e NX-OS per il nuovo switch. Se il nuovo switch è stato configurato correttamente e non sono necessari aggiornamenti per il software RCF e NX-OS, passare alla fase 2.
-
Accedere alla pagina Descrizione del file di configurazione di riferimento per gli switch di rete di gestione e cluster NetApp sul sito del supporto NetApp.
-
Fare clic sul link per la matrice di compatibilità della rete di gestione e di rete del cluster, quindi annotare la versione del software dello switch richiesta.
-
Fare clic sulla freccia indietro del browser per tornare alla pagina Descrizione, fare clic su CONTINUA, accettare il contratto di licenza, quindi passare alla pagina Download.
-
Seguire la procedura riportata nella pagina di download per scaricare i file RCF e NX-OS corretti per la versione del software ONTAP che si sta installando.
-
-
Sul nuovo switch, accedere come admin e chiudere tutte le porte che verranno collegate alle interfacce del cluster di nodi (porte da 1/1 a 1/64).
Se lo switch che si sta sostituendo non funziona e viene spento, passare alla fase 4. Le LIF sui nodi del cluster dovrebbero essere già riuscite a eseguire il failover sull'altra porta del cluster per ciascun nodo.
Mostra esempio
newcs2# config Enter configuration commands, one per line. End with CNTL/Z. newcs2(config)# interface e1/1-64 newcs2(config-if-range)# shutdown
-
Verificare che tutte le LIF del cluster abbiano attivato l'autorevert:
network interface show -vserver Cluster -fields auto-revert
Mostra esempio
cluster1::> network interface show -vserver Cluster -fields auto-revert Logical Vserver Interface Auto-revert ------------ ------------- ------------- Cluster node1_clus1 true Cluster node1_clus2 true Cluster node2_clus1 true Cluster node2_clus2 true 4 entries were displayed.
-
Verificare la connettività delle interfacce del cluster remoto:
È possibile utilizzare network interface check cluster-connectivity
per avviare un controllo di accessibilità per la connettività del cluster e visualizzare i dettagli:
network interface check cluster-connectivity start
e. network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
NOTA: attendere alcuni secondi prima di eseguire il show
comando per visualizzare i dettagli.
cluster1::*> network interface check cluster-connectivity show Source Destination Packet Node Date LIF LIF Loss ------ -------------------------- ---------------- ---------------- ----------- node1 3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none 3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none node2 3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none 3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Per tutte le release di ONTAP, è possibile utilizzare anche cluster ping-cluster -node <name>
comando per controllare la connettività:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e0a Cluster node1_clus2 169.254.49.125 node1 e0b Cluster node2_clus1 169.254.47.194 node2 e0a Cluster node2_clus2 169.254.19.183 node2 e0b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
Fase 2: Configurazione di cavi e porte
-
Spegnere le porte ISL 1/65 e 1/66 sullo switch Nexus 92300YC cs1:
Mostra esempio
cs1# configure Enter configuration commands, one per line. End with CNTL/Z. cs1(config)# interface e1/65-66 cs1(config-if-range)# shutdown cs1(config-if-range)#
-
Rimuovere tutti i cavi dallo switch Nexus 92300YC cs2, quindi collegarli alle stesse porte dello switch Nexus 92300YC newcs2.
-
Richiamare le porte ISL 1/65 e 1/66 tra gli switch cs1 e newcs2, quindi verificare lo stato di funzionamento del canale della porta.
Port-Channel deve indicare PO1(su) e Member Ports deve indicare eth1/65(P) e eth1/66(P).
Mostra esempio
Questo esempio abilita le porte ISL 1/65 e 1/66 e visualizza il riepilogo del canale delle porte sullo switch cs1:
cs1# configure Enter configuration commands, one per line. End with CNTL/Z. cs1(config)# int e1/65-66 cs1(config-if-range)# no shutdown cs1(config-if-range)# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed b - BFD Session Wait S - Switched R - Routed U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/65(P) Eth1/66(P) cs1(config-if-range)#
-
Verificare che la porta e0b sia attiva su tutti i nodi:
network port show ipspace Cluster
Mostra esempio
L'output dovrebbe essere simile a quanto segue:
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ----- ----------- -------- ------- e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ----- ----------- -------- ------- e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/auto - false 4 entries were displayed.
-
Sullo stesso nodo utilizzato nella fase precedente, ripristinare la LIF del cluster associata alla porta nella fase precedente utilizzando il comando di revert dell'interfaccia di rete.
Mostra esempio
In questo esempio, LIF node1_clus2 su node1 viene invertito correttamente se il valore Home è true e la porta è e0b.
I seguenti comandi restituiscono LIF
node1_clus2
accesonode1
alla porta homee0a
E visualizza le informazioni sui LIF su entrambi i nodi. L'attivazione del primo nodo ha esito positivo se la colonna is Home è vera per entrambe le interfacce del cluster e mostra le assegnazioni di porta corrette, in questo esempioe0a
e.e0b
al nodo1.cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------ ---------- ------------------ ---------- ------- ----- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e0a true node1_clus2 up/up 169.254.49.125/16 node1 e0b true node2_clus1 up/up 169.254.47.194/16 node2 e0a true node2_clus2 up/up 169.254.19.183/16 node2 e0a false 4 entries were displayed.
-
Visualizzare le informazioni sui nodi di un cluster:
cluster show
Mostra esempio
Questo esempio mostra che l'integrità del nodo per node1 e node2 in questo cluster è vera:
cluster1::*> cluster show Node Health Eligibility ------------- ------- ------------ node1 false true node2 true true
-
Verificare che tutte le porte del cluster fisico siano installate:
network port show ipspace Cluster
Mostra esempio
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ----------- ----------------- ----- ----- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ----- ----- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false 4 entries were displayed.
Fase 3: Completare la procedura
-
Verificare la connettività delle interfacce del cluster remoto:
È possibile utilizzare network interface check cluster-connectivity
per avviare un controllo di accessibilità per la connettività del cluster e visualizzare i dettagli:
network interface check cluster-connectivity start
e. network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
NOTA: attendere alcuni secondi prima di eseguire il show
comando per visualizzare i dettagli.
cluster1::*> network interface check cluster-connectivity show Source Destination Packet Node Date LIF LIF Loss ------ -------------------------- ---------------- ---------------- ----------- node1 3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none 3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none node2 3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none 3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Per tutte le release di ONTAP, è possibile utilizzare anche cluster ping-cluster -node <name>
comando per controllare la connettività:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e0a Cluster node1_clus2 169.254.49.125 node1 e0b Cluster node2_clus1 169.254.47.194 node2 e0a Cluster node2_clus2 169.254.19.183 node2 e0b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
-
confermare la seguente configurazione di rete del cluster:
network port show
Mostra esempio
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ----------- ---------------- ---- ----- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false 4 entries were displayed. cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e0a true node1_clus2 up/up 169.254.49.125/16 node1 e0b true node2_clus1 up/up 169.254.47.194/16 node2 e0a true node2_clus2 up/up 169.254.19.183/16 node2 e0b true 4 entries were displayed. cluster1::> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node2 /cdp e0a cs1 0/2 N9K-C92300YC e0b newcs2 0/2 N9K-C92300YC node1 /cdp e0a cs1 0/1 N9K-C92300YC e0b newcs2 0/1 N9K-C92300YC 4 entries were displayed. cs1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 144 H FAS2980 e0a node2 Eth1/2 145 H FAS2980 e0a newcs2(FDO296348FU) Eth1/65 176 R S I s N9K-C92300YC Eth1/65 newcs2(FDO296348FU) Eth1/66 176 R S I s N9K-C92300YC Eth1/66 Total entries displayed: 4 cs2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 139 H FAS2980 e0b node2 Eth1/2 124 H FAS2980 e0b cs1(FDO220329KU) Eth1/65 178 R S I s N9K-C92300YC Eth1/65 cs1(FDO220329KU) Eth1/66 178 R S I s N9K-C92300YC Eth1/66 Total entries displayed: 4