Migrare da uno switch cluster Cisco a uno switch cluster NVIDIA SN2100
È possibile migrare gli switch cluster Cisco per un cluster ONTAP agli switch cluster NVIDIA SN2100. Si tratta di una procedura senza interruzioni.
Verifica dei requisiti
Quando si sostituiscono alcuni switch cluster Cisco meno recenti con switch cluster NVIDIA SN2100, è necessario conoscere alcune informazioni di configurazione, le connessioni delle porte e i requisiti di cablaggio. Vedere "Panoramica dell'installazione e della configurazione degli switch NVIDIA SN2100".
Sono supportati i seguenti switch cluster Cisco:
-
Nexus 9336C-FX2
-
Nexus 92300YC
-
Nexus 5596UP
-
Nexus 3232C
-
Nexus 3132Q-V.
Per informazioni dettagliate sulle porte supportate e sulle relative configurazioni, consultare "Hardware Universe" .
Assicurarsi che:
-
Il cluster esistente è configurato e funziona correttamente.
-
Tutte le porte del cluster sono nello stato up per garantire operazioni senza interruzioni.
-
Gli switch del cluster NVIDIA SN2100 sono configurati e funzionano con la versione corretta di Cumulus Linux installata con il file di configurazione di riferimento (RCF) applicato.
-
La configurazione di rete del cluster esistente dispone di quanto segue:
-
Un cluster NetApp ridondante e completamente funzionale che utilizza entrambi gli switch Cisco meno recenti.
-
Connettività di gestione e accesso alla console sia agli switch Cisco meno recenti che ai nuovi switch.
-
Tutte le LIF del cluster in stato up con le LIF del cluster si trovano sulle porte home.
-
Porte ISL abilitate e cablate tra i vecchi switch Cisco e tra i nuovi switch.
-
-
Alcune porte sono configurate sugli switch NVIDIA SN2100 per funzionare a 40 GbE o 100 GbE.
-
Hai pianificato, migrato e documentato la connettività 40 GbE e 100 GbE dai nodi agli switch cluster NVIDIA SN2100.
Se si modifica la velocità delle porte del cluster e0a e E1a nei sistemi AFF A800 o AFF C800, è possibile che vengano ricevuti pacchetti non validi dopo la conversione della velocità. Vedere "Bug 1570339" E l'articolo della Knowledge base "Errori CRC sulle porte T6 dopo la conversione da 40GbE a 100GbE" come guida. |
Migrare gli switch
In questa procedura, vengono utilizzati gli switch del cluster Cisco Nexus 3232C, ad esempio comandi e output.
Gli esempi di questa procedura utilizzano la seguente nomenclatura di switch e nodi:
-
Gli switch cluster Cisco Nexus 3232C esistenti sono c1 e c2.
-
I nuovi switch cluster NVIDIA SN2100 sono sw1 e sw2.
-
I nodi sono node1 e node2.
-
I LIF del cluster sono node1_clus1 e node1_clus2 sul nodo 1, e node2_clus1 e node2_clus2 rispettivamente sul nodo 2.
-
Il
cluster1::*>
prompt indica il nome del cluster. -
Le porte del cluster utilizzate in questa procedura sono e3a e e3b.
-
Le porte breakout hanno il formato: swp[port]s[breakout port 0-3]. Ad esempio, quattro porte di breakout su swp1 sono swp1s0, swp1s1, swp1s2 e swp1s3.
Questa procedura riguarda il seguente scenario:
-
L'interruttore C2 viene sostituito per primo dall'interruttore SW2.
-
Chiudere le porte ai nodi del cluster. Tutte le porte devono essere chiuse contemporaneamente per evitare l'instabilità del cluster.
-
Il cablaggio tra i nodi e c2 viene quindi scollegato da c2 e ricollegato a sw2.
-
-
L'interruttore C1 è sostituito dall'interruttore SW1.
-
Chiudere le porte ai nodi del cluster. Tutte le porte devono essere chiuse contemporaneamente per evitare l'instabilità del cluster.
-
Il cablaggio tra i nodi e c1 viene quindi scollegato da c1 e ricollegato a sw1.
-
Fase 1: Preparazione per la migrazione
-
Se AutoSupport è attivato su questo cluster, eliminare la creazione automatica del caso richiamando un messaggio AutoSupport:
system node autosupport invoke -node * -type all -message MAINT=xh
dove x è la durata della finestra di manutenzione in ore.
-
Impostare il livello di privilegio su Advanced (avanzato), immettendo y quando viene richiesto di continuare:
set -privilege advanced
Viene visualizzato il prompt Advanced (*>).
-
Disattivare il ripristino automatico sulle LIF del cluster:
network interface modify -vserver Cluster -lif * -auto-revert false
Fase 2: Configurare le porte e il cablaggio
-
Determinare lo stato amministrativo o operativo di ciascuna interfaccia del cluster.
Ogni porta deve essere visualizzata per
Link
e sano perHealth Status
.-
Visualizzare gli attributi della porta di rete:
network port show -ipspace Cluster
Mostra esempio
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false
-
Visualizzare le informazioni sulle interfacce logiche e sui relativi nodi principali designati:
network interface show -vserver Cluster
Viene visualizzato ciascun LIF
up/up
perStatus Admin/Oper
e vero perIs Home
.
Mostra esempio
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ----------- ---------- ------------------ ----------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true
-
-
Le porte del cluster di ciascun nodo sono collegate agli switch del cluster esistenti nel seguente modo (dal punto di vista dei nodi):
network device-discovery show -protocol lldp
Mostra esempio
cluster1::*> network device-discovery show -protocol lldp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node1 /lldp e3a c1 (6a:ad:4f:98:3b:3f) Eth1/1 - e3b c2 (6a:ad:4f:98:4c:a4) Eth1/1 - node2 /lldp e3a c1 (6a:ad:4f:98:3b:3f) Eth1/2 - e3b c2 (6a:ad:4f:98:4c:a4) Eth1/2 -
-
Le porte e gli switch del cluster sono collegati nel seguente modo (dal punto di vista degli switch):
show cdp neighbors
Mostra esempio
c1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 124 H AFF-A400 e3a node2 Eth1/2 124 H AFF-A400 e3a c2 Eth1/31 179 S I s N3K-C3232C Eth1/31 c2 Eth1/32 175 S I s N3K-C3232C Eth1/32 c2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 124 H AFF-A400 e3b node2 Eth1/2 124 H AFF-A400 e3b c1 Eth1/31 175 S I s N3K-C3232C Eth1/31 c1 Eth1/32 175 S I s N3K-C3232C Eth1/32
-
Verificare la connettività delle interfacce del cluster remoto:
È possibile utilizzare network interface check cluster-connectivity
per avviare un controllo di accessibilità per la connettività del cluster e visualizzare i dettagli:
network interface check cluster-connectivity start
e. network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
NOTA: attendere alcuni secondi prima di eseguire il show
comando per visualizzare i dettagli.
cluster1::*> network interface check cluster-connectivity show Source Destination Packet Node Date LIF LIF Loss ------ -------------------------- ---------------- ---------------- ----------- node1 3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none 3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none node2 3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none 3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Per tutte le release di ONTAP, è possibile utilizzare anche cluster ping-cluster -node <name>
comando per controllare la connettività:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e3a Cluster node1_clus2 169.254.49.125 node1 e3b Cluster node2_clus1 169.254.47.194 node2 e3a Cluster node2_clus2 169.254.19.183 node2 e3b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
-
sullo switch C2, chiudere le porte collegate alle porte del cluster dei nodi per eseguire il failover delle LIF del cluster.
(c2)# configure Enter configuration commands, one per line. End with CNTL/Z. (c2)(Config)# interface (c2)(config-if-range)# shutdown <interface_list> (c2)(config-if-range)# exit (c2)(Config)# exit (c2)#
-
Spostare le porte del cluster di nodi dal vecchio switch c2 al nuovo switch sw2, utilizzando il cablaggio appropriato supportato da NVIDIA SN2100.
-
Visualizzare gli attributi della porta di rete:
network port show -ipspace Cluster
Mostra esempio
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false
-
Le porte del cluster su ciascun nodo sono ora collegate agli switch del cluster nel seguente modo, dal punto di vista dei nodi:
Mostra esempio
cluster1::*> network device-discovery show -protocol lldp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node1 /lldp e3a c1 (6a:ad:4f:98:3b:3f) Eth1/1 - e3b sw2 (b8:ce:f6:19:1a:7e) swp3 - node2 /lldp e3a c1 (6a:ad:4f:98:3b:3f) Eth1/2 - e3b sw2 (b8:ce:f6:19:1b:96) swp4 -
-
Sullo switch sw2, verificare che tutte le porte del cluster di nodi siano in funzione:
net show interface
Mostra esempio
cumulus@sw2:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ---------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp15 100G 9216 BondMember sw1 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw1 (swp16) Master: cluster_isl(UP)
-
Sullo switch C1, chiudere le porte collegate alle porte del cluster dei nodi per eseguire il failover delle LIF del cluster.
(c1)# configure Enter configuration commands, one per line. End with CNTL/Z. (c1)(Config)# interface (c1)(config-if-range)# shutdown <interface_list> (c1)(config-if-range)# exit (c1)(Config)# exit (c1)#
-
Spostare le porte del cluster di nodi dal vecchio switch c1 al nuovo switch sw1, utilizzando il cablaggio appropriato supportato da NVIDIA SN2100.
-
Verificare la configurazione finale del cluster:
network port show -ipspace Cluster
Ogni porta dovrebbe essere visualizzata
up
perLink
e sano perHealth Status
.Mostra esempio
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false
-
Le porte del cluster su ciascun nodo sono ora collegate agli switch del cluster nel seguente modo, dal punto di vista dei nodi:
Mostra esempio
cluster1::*> network device-discovery show -protocol lldp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- -------------- ---------------- node1 /lldp e3a sw1 (b8:ce:f6:19:1a:7e) swp3 - e3b sw2 (b8:ce:f6:19:1b:96) swp3 - node2 /lldp e3a sw1 (b8:ce:f6:19:1a:7e) swp4 - e3b sw2 (b8:ce:f6:19:1b:96) swp4 -
-
Sugli switch sw1 e sw2, verificare che tutte le porte del cluster di nodi siano in funzione:
net show interface
Mostra esempio
cumulus@sw1:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ---------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3a Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3a Master: bridge(UP) UP swp15 100G 9216 BondMember sw2 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw2 (swp16) Master: cluster_isl(UP) cumulus@sw2:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ----------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp15 100G 9216 BondMember sw1 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw1 (swp16) Master: cluster_isl(UP)
-
Verificare che entrambi i nodi dispongano di una connessione a ciascuno switch:
net show lldp
Mostra esempio
L'esempio seguente mostra i risultati appropriati per entrambi gli switch:
cumulus@sw1:~$ net show lldp LocalPort Speed Mode RemoteHost RemotePort --------- ----- ---------- ------------------ ----------- swp3 100G Trunk/L2 node1 e3a swp4 100G Trunk/L2 node2 e3a swp15 100G BondMember sw2 swp15 swp16 100G BondMember sw2 swp16 cumulus@sw2:~$ net show lldp LocalPort Speed Mode RemoteHost RemotePort --------- ----- ---------- ------------------ ----------- swp3 100G Trunk/L2 node1 e3b swp4 100G Trunk/L2 node2 e3b swp15 100G BondMember sw1 swp15 swp16 100G BondMember sw1 swp16
Fase 3: Verificare la configurazione
-
Abilitare il ripristino automatico sulle LIF del cluster:
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true
-
Verificare che tutte le LIF della rete del cluster siano nuovamente presenti sulle porte domestiche:
network interface show
Mostra esempio
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true
-
Modificare nuovamente il livello di privilegio in admin:
set -privilege admin
-
Se è stata eliminata la creazione automatica del caso, riattivarla richiamando un messaggio AutoSupport:
system node autosupport invoke -node * -type all -message MAINT=END