Migrazione da un cluster switchless a due nodi a un cluster con switch cluster Cisco Nexus 3232C
Se si dispone di un cluster senza switch a due nodi, è possibile migrare a un cluster commutato a due nodi che include switch di rete del cluster Cisco Nexus 3232C. Si tratta di una procedura non distruttiva.
Requisiti di revisione
Verificare le seguenti installazioni e connessioni:
-
Sono disponibili porte per le connessioni dei nodi. Gli switch cluster utilizzano le porte Inter-Switch Link (ISL) e1/31-32.
-
Si dispone di cavi adatti per le connessioni del cluster:
-
I nodi con connessioni cluster 10 GbE richiedono moduli ottici QSFP con cavi in fibra ottica breakout o cavi breakout in rame da QSFP a SFP+.
-
I nodi con connessioni cluster 40/100 GbE richiedono moduli ottici QSFP/QSFP28 supportati con cavi in fibra o cavi di collegamento diretto in rame QSFP/QSFP28.
-
Gli switch cluster richiedono il cablaggio ISL appropriato: 2 cavi QSFP28 in fibra o rame a collegamento diretto.
-
-
Le configurazioni sono impostate correttamente e funzionano.
I due nodi devono essere connessi e funzionare in un ambiente cluster senza switch a due nodi.
-
Tutte le porte del cluster sono nello stato attivo.
-
Sono supportati gli switch cluster Cisco Nexus 3232C.
-
La configurazione di rete del cluster esistente è la seguente:
-
Un'infrastruttura cluster Nexus 3232C ridondante e completamente funzionale su entrambi gli switch
-
Le ultime versioni RCF e NX-OS sui tuoi switch
-
Connettività di gestione su entrambi gli switch
-
Accesso alla console per entrambi gli switch
-
Tutte le interfacce logiche del cluster (LIF) nello stato attivo senza essere state migrate
-
Personalizzazione iniziale dello switch
-
Tutte le porte ISL abilitate e cablate
-
Gli esempi in questa procedura utilizzano la seguente nomenclatura di switch e nodi:
-
Switch cluster Nexus 3232C, C1 e C2.
-
I nodi sono n1 e n2.
Gli esempi in questa procedura utilizzano due nodi, ciascuno dei quali utilizza due porte di interconnessione cluster da 40 GbE e4a ed e4e. IL"Universo Hardware" contiene dettagli sulle porte del cluster sulle tue piattaforme.
-
n1_clus1 è la prima interfaccia logica del cluster (LIF) da connettere allo switch del cluster C1 per il nodo n1.
-
n1_clus2 è il primo cluster LIF ad essere connesso allo switch del cluster C2 per il nodo n1.
-
n2_clus1 è il primo cluster LIF ad essere connesso allo switch del cluster C1 per il nodo n2.
-
n2_clus2 è il secondo cluster LIF da connettere allo switch del cluster C2 per il nodo n2.
-
Il numero di porte 10 GbE e 40/100 GbE è definito nei file di configurazione di riferimento (RCF) disponibili all'indirizzo"Download del file di configurazione di riferimento dello switch di rete Cisco® Cluster" .
|
|
La procedura richiede l'uso sia dei comandi ONTAP sia dei comandi degli switch Cisco Nexus serie 3000; salvo diversa indicazione, vengono utilizzati i comandi ONTAP . |
Passaggio 1: visualizzare e migrare le porte fisiche e logiche
-
Se AutoSupport è abilitato su questo cluster, sopprimere la creazione automatica dei casi richiamando un messaggio AutoSupport :
system node autosupport invoke -node * -type all - message MAINT=xhx è la durata della finestra di manutenzione in ore.
Il messaggio AutoSupport avvisa il supporto tecnico di questa attività di manutenzione, in modo che la creazione automatica dei casi venga soppressa durante la finestra di manutenzione.
-
Determinare lo stato amministrativo o operativo per ciascuna interfaccia del cluster:
-
Visualizza gli attributi della porta di rete:
network port show -role clusterMostra esempio
cluster::*> network port show -role cluster (network port show) Node: n1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - - Node: n2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - 4 entries were displayed. -
Visualizza informazioni sulle interfacce logiche e sui nodi home designati:
network interface show -role clusterMostra esempio
cluster::*> network interface show -role cluster (network interface show) Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- --- Cluster n1_clus1 up/up 10.10.0.1/24 n1 e4a true n1_clus2 up/up 10.10.0.2/24 n1 e4e true n2_clus1 up/up 10.10.0.3/24 n2 e4a true n2_clus2 up/up 10.10.0.4/24 n2 e4e true 4 entries were displayed. -
Verificare che il rilevamento del cluster senza switch sia abilitato utilizzando il comando con privilegi avanzati:
network options detect-switchless-cluster show`
Mostra esempio
L'output nell'esempio seguente mostra che il rilevamento del cluster senza switch è abilitato:
cluster::*> network options detect-switchless-cluster show Enable Switchless Cluster Detection: true
-
-
Verificare che sui nuovi switch 3232C siano installati gli RCF e l'immagine appropriati ed effettuare le personalizzazioni necessarie al sito, ad esempio aggiungendo utenti, password e indirizzi di rete.
A questo punto è necessario preparare entrambi gli switch. Se è necessario aggiornare il software RCF e quello delle immagini, è necessario seguire questi passaggi:
-
Vai alla pagina Switch Ethernet Cisco sul sito di supporto NetApp .
-
Annota il tuo switch e le versioni software richieste nella tabella in quella pagina.
-
Scarica la versione appropriata di RCF.
-
Fare clic su CONTINUA nella pagina Descrizione, accettare il contratto di licenza e quindi seguire le istruzioni nella pagina Download per scaricare l'RCF.
-
Scarica la versione appropriata del software per le immagini.
-
-
Fare clic su CONTINUA nella pagina Descrizione, accettare il contratto di licenza e quindi seguire le istruzioni nella pagina Download per scaricare l'RCF.
-
Sugli switch Nexus 3232C C1 e C2, disabilitare tutte le porte C1 e C2 rivolte al nodo, ma non disabilitare le porte ISL e1/31-32.
Per ulteriori informazioni sui comandi Cisco , consultare le guide elencate in "Riferimenti ai comandi NX-OS della serie Cisco Nexus 3000" .
Mostra esempio
L'esempio seguente mostra le porte da 1 a 30 disabilitate sugli switch cluster Nexus 3232C C1 e C2 utilizzando una configurazione supportata in RCF
NX3232_RCF_v1.0_24p10g_24p100g.txt:C1# copy running-config startup-config [] 100% Copy complete. C1# configure C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30 C1(config-if-range)# shutdown C1(config-if-range)# exit C1(config)# exit C2# copy running-config startup-config [] 100% Copy complete. C2# configure C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30 C2(config-if-range)# shutdown C2(config-if-range)# exit C2(config)# exit
-
Collegare le porte 1/31 e 1/32 su C1 alle stesse porte su C2 utilizzando il cablaggio supportato.
-
Verificare che le porte ISL siano operative su C1 e C2:
show port-channel summaryPer ulteriori informazioni sui comandi Cisco , consultare le guide elencate in "Riferimenti ai comandi NX-OS della serie Cisco Nexus 3000" .
Mostra esempio
L'esempio seguente mostra Cisco
show port-channel summarycomando utilizzato per verificare che le porte ISL siano operative su C1 e C2:C1# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed S - Switched R - Routed U - Up (port-channel) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Port- Group Channel Type Protocol Member Ports ------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/31(P) Eth1/32(P) C2# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed S - Switched R - Routed U - Up (port-channel) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/31(P) Eth1/32(P) -
Visualizza l'elenco dei dispositivi adiacenti sullo switch.
Per ulteriori informazioni sui comandi Cisco , consultare le guide elencate in "Riferimenti ai comandi NX-OS della serie Cisco Nexus 3000" .
Mostra esempio
L'esempio seguente mostra il comando Cisco
show cdp neighborsutilizzato per visualizzare i dispositivi vicini sullo switch:C1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID C2 Eth1/31 174 R S I s N3K-C3232C Eth1/31 C2 Eth1/32 174 R S I s N3K-C3232C Eth1/32 Total entries displayed: 2 C2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID C1 Eth1/31 178 R S I s N3K-C3232C Eth1/31 C1 Eth1/32 178 R S I s N3K-C3232C Eth1/32 Total entries displayed: 2 -
Visualizza la connettività delle porte del cluster su ciascun nodo:
network device-discovery showMostra esempio
L'esempio seguente mostra la connettività delle porte del cluster visualizzata per una configurazione di cluster switchless a due nodi:
cluster::*> network device-discovery show Local Discovered Node Port Device Interface Platform ----------- ------ ------------------- ---------------- ---------------- n1 /cdp e4a n2 e4a FAS9000 e4e n2 e4e FAS9000 n2 /cdp e4a n1 e4a FAS9000 e4e n1 e4e FAS9000 -
Migrare i LIF n1_clus1 e n2_clus1 alle porte fisiche dei loro nodi di destinazione:
network interface migrate -vserver vserver-name -lif lif-name source-node source-node-name -destination-port destination-port-nameMostra esempio
È necessario eseguire il comando per ciascun nodo locale come mostrato nell'esempio seguente:
cluster::*> network interface migrate -vserver cluster -lif n1_clus1 -source-node n1 -destination-node n1 -destination-port e4e cluster::*> network interface migrate -vserver cluster -lif n2_clus1 -source-node n2 -destination-node n2 -destination-port e4e
Passaggio 2: spegnere i LIF riassegnati e scollegare i cavi
-
Verificare che le interfacce del cluster siano state migrate correttamente:
network interface show -role clusterMostra esempio
L'esempio seguente mostra che lo stato "Is Home" per i LIF n1_clus1 e n2_clus1 è diventato "false" dopo il completamento della migrazione:
cluster::*> network interface show -role cluster (network interface show) Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster n1_clus1 up/up 10.10.0.1/24 n1 e4e false n1_clus2 up/up 10.10.0.2/24 n1 e4e true n2_clus1 up/up 10.10.0.3/24 n2 e4e false n2_clus2 up/up 10.10.0.4/24 n2 e4e true 4 entries were displayed. -
Arrestare le porte del cluster per i LIF n1_clus1 e n2_clus1, migrati nel passaggio 9:
network port modify -node node-name -port port-name -up-admin falseMostra esempio
È necessario eseguire il comando per ogni porta come mostrato nell'esempio seguente:
cluster::*> network port modify -node n1 -port e4a -up-admin false cluster::*> network port modify -node n2 -port e4a -up-admin false
-
Verificare la connettività delle interfacce del cluster remoto:
Puoi usare il network interface check cluster-connectivity comando per avviare un controllo di accessibilità per la connettività del cluster e quindi visualizzare i dettagli:
network interface check cluster-connectivity start`E `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
NOTA: Attendere alcuni secondi prima di eseguire il show comando per visualizzare i dettagli.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
n1
3/5/2022 19:21:18 -06:00 n1_clus2 n2-clus1 none
3/5/2022 19:21:20 -06:00 n1_clus2 n2_clus2 none
n2
3/5/2022 19:21:18 -06:00 n2_clus2 n1_clus1 none
3/5/2022 19:21:20 -06:00 n2_clus2 n1_clus2 none
Per tutte le versioni ONTAP , è anche possibile utilizzare cluster ping-cluster -node <name> comando per verificare la connettività:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1 e4a 10.10.0.1
Cluster n1_clus2 n1 e4e 10.10.0.2
Cluster n2_clus1 n2 e4a 10.10.0.3
Cluster n2_clus2 n2 e4e 10.10.0.4
Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293 Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s) ................
Detected 9000 byte MTU on 32 path(s):
Local 10.10.0.1 to Remote 10.10.0.3
Local 10.10.0.1 to Remote 10.10.0.4
Local 10.10.0.2 to Remote 10.10.0.3
Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s) RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)
Passaggio 3: abilitare le porte del cluster
-
Scollegare il cavo da e4a sul nodo n2.
È possibile fare riferimento alla configurazione in esecuzione e collegare e4a alla successiva porta 40 GbE disponibile su C1, porta 1/8, utilizzando il cablaggio supportato.
-
Abilitare tutte le porte rivolte al nodo su C1.
Per ulteriori informazioni sui comandi Cisco , consultare le guide elencate in "Riferimenti ai comandi NX-OS della serie Cisco Nexus 3000" .
Mostra esempio
L'esempio seguente mostra le porte da 1 a 30 abilitate sugli switch cluster Nexus 3232C C1 e C2 utilizzando la configurazione supportata in RCF
NX3232_RCF_v1.0_24p10g_26p100g.txt:C1# configure C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30 C1(config-if-range)# no shutdown C1(config-if-range)# exit C1(config)# exit
-
Abilitare la prima porta del cluster, e4a, su ciascun nodo:
network port modify -node node-name -port port-name -up-admin trueMostra esempio
cluster::*> network port modify -node n1 -port e4a -up-admin true cluster::*> network port modify -node n2 -port e4a -up-admin true
-
Verificare che i cluster siano attivi su entrambi i nodi:
network port show -role clusterMostra esempio
cluster::*> network port show -role cluster (network port show) Node: n1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - - Node: n2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ----- e4a Cluster Cluster up 9000 auto/40000 - e4e Cluster Cluster up 9000 auto/40000 - 4 entries were displayed. -
Per ogni nodo, ripristinare tutti i LIF di interconnessione del cluster migrati:
network interface revert -vserver cluster -lif lif-nameMostra esempio
È necessario ripristinare ogni LIF alla propria porta di origine singolarmente, come mostrato nell'esempio seguente:
cluster::*> network interface revert -vserver cluster -lif n1_clus1 cluster::*> network interface revert -vserver cluster -lif n2_clus1
-
Verificare che tutti i LIF siano ora ripristinati alle loro porte di origine:
network interface show -role clusterIL
Is Homela colonna dovrebbe visualizzare un valore ditrueper tutte le porte elencate nelCurrent Portcolonna. Se il valore visualizzato èfalse, la porta non è stata ripristinata.Mostra esempio
cluster::*> network interface show -role cluster (network interface show) Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster n1_clus1 up/up 10.10.0.1/24 n1 e4a true n1_clus2 up/up 10.10.0.2/24 n1 e4e true n2_clus1 up/up 10.10.0.3/24 n2 e4a true n2_clus2 up/up 10.10.0.4/24 n2 e4e true 4 entries were displayed.
Passaggio 4: abilitare i LIF riassegnati
-
Visualizza la connettività delle porte del cluster su ciascun nodo:
network device-discovery showMostra esempio
cluster::*> network device-discovery show Local Discovered Node Port Device Interface Platform ----------- ------ ------------------- ---------------- ---------------- n1 /cdp e4a C1 Ethernet1/7 N3K-C3232C e4e n2 e4e FAS9000 n2 /cdp e4a C1 Ethernet1/8 N3K-C3232C e4e n1 e4e FAS9000 -
Migrare clus2 sulla porta e4a sulla console di ciascun nodo:
network interface migrate cluster -lif lif-name -source-node source-node-name -destination-node destination-node-name -destination-port destination-port-nameMostra esempio
È necessario migrare ogni LIF alla sua porta home individualmente, come mostrato nell'esempio seguente:
cluster::*> network interface migrate -vserver cluster -lif n1_clus2 -source-node n1 -destination-node n1 -destination-port e4a cluster::*> network interface migrate -vserver cluster -lif n2_clus2 -source-node n2 -destination-node n2 -destination-port e4a
-
Arrestare le porte del cluster clus2 LIF su entrambi i nodi:
network port modifyMostra esempio
L'esempio seguente mostra le porte specificate impostate su
false, chiudendo le porte su entrambi i nodi:cluster::*> network port modify -node n1 -port e4e -up-admin false cluster::*> network port modify -node n2 -port e4e -up-admin false
-
Verificare lo stato LIF del cluster:
network interface showMostra esempio
cluster::*> network interface show -role cluster (network interface show) Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster n1_clus1 up/up 10.10.0.1/24 n1 e4a true n1_clus2 up/up 10.10.0.2/24 n1 e4a false n2_clus1 up/up 10.10.0.3/24 n2 e4a true n2_clus2 up/up 10.10.0.4/24 n2 e4a false 4 entries were displayed. -
Scollegare il cavo da e4e sul nodo n1.
È possibile fare riferimento alla configurazione in esecuzione e collegare la prima porta 40 GbE sullo switch C2 (porta 1/7 in questo esempio) a e4e sul nodo n1, utilizzando il cablaggio appropriato per il modello di switch Nexus 3232C.
-
Scollegare il cavo da e4e sul nodo n2.
È possibile fare riferimento alla configurazione in esecuzione e collegare e4e alla successiva porta 40 GbE disponibile su C2, porta 1/8, utilizzando il cablaggio appropriato per il modello di switch Nexus 3232C.
-
Abilitare tutte le porte rivolte verso il nodo su C2.
Mostra esempio
L'esempio seguente mostra le porte da 1 a 30 abilitate sugli switch cluster Nexus 3132Q-V C1 e C2 utilizzando una configurazione supportata in RCF
NX3232C_RCF_v1.0_24p10g_26p100g.txt:C2# configure C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30 C2(config-if-range)# no shutdown C2(config-if-range)# exit C2(config)# exit
-
Abilitare la seconda porta del cluster, e4e, su ciascun nodo:
network port modifyMostra esempio
L'esempio seguente mostra la seconda porta del cluster e4e attivata su ciascun nodo:
cluster::*> network port modify -node n1 -port e4e -up-admin true cluster::*> *network port modify -node n2 -port e4e -up-admin true*s
-
Per ogni nodo, ripristinare tutti i LIF di interconnessione del cluster migrati:
network interface revertMostra esempio
L'esempio seguente mostra i LIF migrati che vengono ripristinati alle loro porte di origine.
cluster::*> network interface revert -vserver Cluster -lif n1_clus2 cluster::*> network interface revert -vserver Cluster -lif n2_clus2
-
Verificare che tutte le porte di interconnessione del cluster siano ora ripristinate alle loro porte home:
network interface show -role clusterIL
Is Homela colonna dovrebbe visualizzare un valore ditrueper tutte le porte elencate nelCurrent Portcolonna. Se il valore visualizzato èfalse, la porta non è stata ripristinata.Mostra esempio
cluster::*> network interface show -role cluster (network interface show) Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster n1_clus1 up/up 10.10.0.1/24 n1 e4a true n1_clus2 up/up 10.10.0.2/24 n1 e4e true n2_clus1 up/up 10.10.0.3/24 n2 e4a true n2_clus2 up/up 10.10.0.4/24 n2 e4e true 4 entries were displayed. -
Verificare che tutte le porte di interconnessione del cluster siano in
upstato:network port show -role cluster -
Visualizza i numeri delle porte dello switch del cluster tramite cui ogni porta del cluster è connessa a ciascun nodo:
network device-discovery showMostra esempio
cluster::*> network device-discovery show Local Discovered Node Port Device Interface Platform ----------- ------ ------------------- ---------------- ---------------- n1 /cdp e4a C1 Ethernet1/7 N3K-C3232C e4e C2 Ethernet1/7 N3K-C3232C n2 /cdp e4a C1 Ethernet1/8 N3K-C3232C e4e C2 Ethernet1/8 N3K-C3232C -
Visualizza gli switch del cluster rilevati e monitorati:
system cluster-switch showMostra esempio
cluster::*> system cluster-switch show Switch Type Address Model --------------------------- ------------------ ---------------- --------------- C1 cluster-network 10.10.1.101 NX3232CV Serial Number: FOX000001 Is Monitored: true Reason: Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP C2 cluster-network 10.10.1.102 NX3232CV Serial Number: FOX000002 Is Monitored: true Reason: Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1) Version Source: CDP 2 entries were displayed.
-
Verificare che il rilevamento del cluster senza switch abbia modificato l'opzione del cluster senza switch in disabilitata:
network options switchless-cluster show -
Verificare la connettività delle interfacce del cluster remoto:
Puoi usare il network interface check cluster-connectivity comando per avviare un controllo di accessibilità per la connettività del cluster e quindi visualizzare i dettagli:
network interface check cluster-connectivity start`E `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
NOTA: Attendere alcuni secondi prima di eseguire il show comando per visualizzare i dettagli.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
n1
3/5/2022 19:21:18 -06:00 n1_clus2 n2-clus1 none
3/5/2022 19:21:20 -06:00 n1_clus2 n2_clus2 none
n2
3/5/2022 19:21:18 -06:00 n2_clus2 n1_clus1 none
3/5/2022 19:21:20 -06:00 n2_clus2 n1_clus2 none
Per tutte le versioni ONTAP , è anche possibile utilizzare cluster ping-cluster -node <name> comando per verificare la connettività:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1 e4a 10.10.0.1
Cluster n1_clus2 n1 e4e 10.10.0.2
Cluster n2_clus1 n2 e4a 10.10.0.3
Cluster n2_clus2 n2 e4e 10.10.0.4
Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s) ................
Detected 9000 byte MTU on 32 path(s):
Local 10.10.0.1 to Remote 10.10.0.3
Local 10.10.0.1 to Remote 10.10.0.4
Local 10.10.0.2 to Remote 10.10.0.3
Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s) RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)