Installa o aggiorna il file di configurazione di riferimento (RCF)
Seguire questa procedura per installare l'RCF dopo aver configurato lo switch Nexus 3132Q-V per la prima volta. Puoi usare questa procedura anche per aggiornare la tua versione RCF.
Requisiti di revisione
-
Un backup attuale della configurazione dello switch.
-
Un cluster completamente funzionante (nessun errore nei log o problemi simili).
-
L'attuale file di configurazione di riferimento (RCF).
-
Durante l'installazione dell'RCF è necessario un collegamento della console allo switch. Questo requisito è facoltativo se hai utilizzato l'articolo della Knowledge Base "Come cancellare la configurazione su uno switch di interconnessione Cisco mantenendo la connettività remota" per cancellare la configurazione in anticipo.
-
"Switch Ethernet Cisco". Consultare la tabella di compatibilità degli switch per le versioni ONTAP e RCF supportate. Si noti che possono esserci dipendenze tra la sintassi dei comandi nella RCF e quella presente nelle versioni di NX-OS.
-
"Switch Cisco Nexus serie 3000". Per la documentazione completa sulle procedure di upgrade e downgrade degli switch Cisco , consultare le guide software e di aggiornamento appropriate disponibili sul sito Web Cisco .
Installa il file
Gli esempi in questa procedura utilizzano la seguente nomenclatura di switch e nodi:
-
I nomi dei due switch Cisco sono
cs1Ecs2. -
I nomi dei nodi sono
cluster1-01,cluster1-02,cluster1-03, Ecluster1-04. -
I nomi LIF del cluster sono
cluster1-01_clus1,cluster1-01_clus2,cluster1-02_clus1,cluster1-02_clus2,cluster1-03_clus1,cluster1-03_clus2,cluster1-04_clus1, Ecluster1-04_clus2. -
IL
cluster1::*>il prompt indica il nome del cluster.
La procedura richiede l'uso sia dei comandi ONTAP sia dei comandi degli switch Cisco Nexus serie 3000; salvo diversa indicazione, vengono utilizzati i comandi ONTAP .
Durante questa procedura non è necessario alcun collegamento inter-switch (ISL) operativo. Ciò è voluto perché le modifiche alla versione RCF possono influire temporaneamente sulla connettività ISL. Per garantire operazioni del cluster senza interruzioni, la seguente procedura migra tutti i LIF del cluster allo switch partner operativo, eseguendo al contempo i passaggi sullo switch di destinazione.
Assicurati di completare la procedura in"Prepararsi all'installazione del software NX-OS e del file di configurazione di riferimento" e poi seguire i passaggi sottostanti.
Passaggio 1: verificare lo stato della porta
-
Visualizza le porte del cluster su ciascun nodo connesso agli switch del cluster:
network device-discovery showMostra esempio
cluster1::*> network device-discovery show Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ------------ cluster1-01/cdp e0a cs1 Ethernet1/7 N3K-C3132Q-V e0d cs2 Ethernet1/7 N3K-C3132Q-V cluster1-02/cdp e0a cs1 Ethernet1/8 N3K-C3132Q-V e0d cs2 Ethernet1/8 N3K-C3132Q-V cluster1-03/cdp e0a cs1 Ethernet1/1/1 N3K-C3132Q-V e0b cs2 Ethernet1/1/1 N3K-C3132Q-V cluster1-04/cdp e0a cs1 Ethernet1/1/2 N3K-C3132Q-V e0b cs2 Ethernet1/1/2 N3K-C3132Q-V cluster1::*> -
Controllare lo stato amministrativo e operativo di ogni porta del cluster.
-
Verificare che tutte le porte del cluster siano attive e integre:
network port show -ipspace ClusterMostra esempio
cluster1::*> network port show -ipspace Cluster Node: cluster1-01 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false Node: cluster1-02 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false 8 entries were displayed. Node: cluster1-03 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-04 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false cluster1::*> -
Verificare che tutte le interfacce cluster (LIF) siano sulla porta home:
network interface show -vserver ClusterMostra esempio
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ----------------- ------------ ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0a true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0d true cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0a true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0d true cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0a true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0b true cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0a true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0b true cluster1::*> -
Verificare che il cluster visualizzi le informazioni per entrambi gli switch del cluster:
system cluster-switch show -is-monitoring-enabled-operational trueMostra esempio
cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true Switch Type Address Model --------------------------- ------------------ ---------------- --------------- cs1 cluster-network 10.0.0.1 NX3132QV Serial Number: FOXXXXXXXGS Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP cs2 cluster-network 10.0.0.2 NX3132QV Serial Number: FOXXXXXXXGD Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP 2 entries were displayed.
Per ONTAP 9.8 e versioni successive, utilizzare il comando system switch ethernet show -is-monitoring-enabled-operational true. -
-
Disabilitare il ripristino automatico sui LIF del cluster.
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
Dopo aver eseguito questo comando, assicurarsi che il ripristino automatico sia disabilitato.
-
Sullo switch del cluster cs2, chiudere le porte connesse alle porte del cluster dei nodi.
cs2> enable cs2# configure cs2(config)# interface eth1/1/1-2,eth1/7-8 cs2(config-if-range)# shutdown cs2(config-if-range)# exit cs2# exit
Il numero di porte visualizzate varia in base al numero di nodi nel cluster. -
Verificare che le porte del cluster siano state migrate alle porte ospitate sullo switch del cluster cs1. Potrebbero volerci alcuni secondi.
network interface show -vserver ClusterMostra esempio
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ----------------- ---------- ------------------ ------------- ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0a true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0a false cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0a true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0a false cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0a true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0a false cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0a true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0a false cluster1::*> -
Verificare che il cluster sia integro:
cluster showMostra esempio
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------ ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false cluster1::*>
Passaggio 2: configurare e verificare l'installazione
-
Se non lo hai già fatto, salva una copia della configurazione corrente dello switch copiando l'output del seguente comando in un file di testo:
show running-config -
Registrare eventuali aggiunte personalizzate tra il file running-config corrente e il file RCF in uso.
-
Salva i dettagli di configurazione di base nel
write_erase.cfgfile sul bootflash.Quando si aggiorna o si applica un nuovo RCF, è necessario cancellare le impostazioni dello switch ed eseguire la configurazione di base. Per configurare nuovamente lo switch, è necessario essere connessi alla porta della console seriale. cs2# show run | section "switchname" > bootflash:write_erase.cfgcs2# show run | section "hostname" >> bootflash:write_erase.cfgcs2# show run | i "username admin password" >> bootflash:write_erase.cfgcs2# show run | section "vrf context management" >> bootflash:write_erase.cfgcs2# show run | section "interface mgmt0" >> bootflash:write_erase.cfg -
Per RCF versione 1.12 e successive, eseguire i seguenti comandi:
cs2# echo "hardware access-list tcam region vpc-convergence 256" >> bootflash:write_erase.cfgcs2# echo "hardware access-list tcam region racl 256" >> bootflash:write_erase.cfgcs2# echo "hardware access-list tcam region e-racl 256" >> bootflash:write_erase.cfgcs2# echo "hardware access-list tcam region qos 256" >> bootflash:write_erase.cfgVedi l'articolo della Knowledge Base"Come cancellare la configurazione su uno switch di interconnessione Cisco mantenendo la connettività remota" per ulteriori dettagli.
-
Verificare che il
write_erase.cfgil file è popolato come previsto:show file bootflash:write_erase.cfg -
Emettere il
write erasecomando per cancellare la configurazione salvata corrente:cs2# write eraseWarning: This command will erase the startup-configuration.Do you wish to proceed anyway? (y/n) [n] y -
Copiare la configurazione di base salvata in precedenza nella configurazione di avvio.
cs2# copy bootflash:write_erase.cfg startup-config -
Eseguire un riavvio dello switch:
cs2# reloadThis command will reboot the system. (y/n)? [n] y -
Copiare l'RCF nel bootflash dello switch cs2 utilizzando uno dei seguenti protocolli di trasferimento: FTP, TFTP, SFTP o SCP. Per ulteriori informazioni sui comandi Cisco , consultare la guida appropriata nel"Riferimento ai comandi NX-OS della serie Cisco Nexus 3000" guide.
Mostra esempio
cs2# copy tftp: bootflash: vrf management Enter source filename: Nexus_3132QV_RCF_v1.6-Cluster-HA-Breakout.txt Enter hostname for the tftp server: 172.22.201.50 Trying to connect to tftp server......Connection to Server Established. TFTP get operation was successful Copy complete, now saving to disk (please wait)...
-
Applicare l'RCF precedentemente scaricato al bootflash.
Per ulteriori informazioni sui comandi Cisco , consultare la guida appropriata nel"Riferimento ai comandi NX-OS della serie Cisco Nexus 3000" guide.
Mostra esempio
cs2# copy Nexus_3132QV_RCF_v1.6-Cluster-HA-Breakout.txt running-config echo-commands
-
Esaminare l'output del banner dal
show banner motdcomando. Per garantire la corretta configurazione e il corretto funzionamento dello switch, è necessario leggere e seguire le istruzioni riportate nella sezione Note importanti.Mostra esempio
cs2# show banner motd ****************************************************************************** * NetApp Reference Configuration File (RCF) * * Switch : Cisco Nexus 3132Q-V * Filename : Nexus_3132QV_RCF_v1.6-Cluster-HA-Breakout.txt * Date : Nov-02-2020 * Version : v1.6 * * Port Usage : Breakout configuration * Ports 1- 6: Breakout mode (4x10GbE) Intra-Cluster Ports, int e1/1/1-4, * e1/2/1-4, e1/3/1-4,int e1/4/1-4, e1/5/1-4, e1/6/1-4 * Ports 7-30: 40GbE Intra-Cluster/HA Ports, int e1/7-30 * Ports 31-32: Intra-Cluster ISL Ports, int e1/31-32 * * IMPORTANT NOTES * - Load Nexus_3132QV_RCF_v1.6-Cluster-HA.txt for non breakout config * * - This RCF utilizes QoS and requires specific TCAM configuration, requiring * cluster switch to be rebooted before the cluster becomes operational. * * - Perform the following steps to ensure proper RCF installation: * * (1) Apply RCF, expect following messages: * - Please save config and reload the system... * - Edge port type (portfast) should only be enabled on ports... * - TCAM region is not configured for feature QoS class IPv4... * * (2) Save running-configuration and reboot Cluster Switch * * (3) After reboot, apply same RCF second time and expect following messages: * - % Invalid command at '^' marker * * (4) Save running-configuration again * * - If running NX-OS versions 9.3(5) 9.3(6), 9.3(7), or 9.3(8) * - Downgrade the NX-OS firmware to version 9.3(5) or earlier if * NX-OS using a version later than 9.3(5). * - Do not upgrade NX-OS prior to applying v1.9 RCF file. * - After the RCF is applied and switch rebooted, then proceed to upgrade * NX-OS to version 9.3(5) or later. * * - If running 9.3(9) 10.2(2) or later the RCF can be applied to the switch * after the upgrade. * * - Port 1 multiplexed H/W configuration options: * hardware profile front portmode qsfp (40G H/W port 1/1 is active - default) * hardware profile front portmode sfp-plus (10G H/W ports 1/1/1 - 1/1/4 are active) * hardware profile front portmode qsfp (To reset to QSFP) * ******************************************************************************
-
Verificare che il file RCF sia la versione più recente corretta:
show running-configQuando controlli l'output per verificare di avere l'RCF corretto, assicurati che le seguenti informazioni siano corrette:
-
Lo striscione RCF
-
Le impostazioni del nodo e della porta
-
Personalizzazioni
L'output varia in base alla configurazione del sito. Controllare le impostazioni della porta e fare riferimento alle note di rilascio per eventuali modifiche specifiche all'RCF installato.
Per i passaggi su come portare online le porte 10GbE dopo un aggiornamento dell'RCF, consultare l'articolo della Knowledge Base "Le porte 10GbE su uno switch cluster Cisco 3132Q non sono online" . -
-
Dopo aver verificato che le versioni RCF e le impostazioni dello switch siano corrette, copiare il file running-config nel file startup-config.
Per ulteriori informazioni sui comandi Cisco , consultare la guida appropriata nel "Riferimento ai comandi NX-OS della serie Cisco Nexus 3000" guide.
Mostra esempio
cs2# copy running-config startup-config [########################################] 100% Copy complete
-
Riavviare lo switch cs2. È possibile ignorare sia gli eventi "porte cluster inattive" segnalati sui nodi mentre lo switch si riavvia sia l'errore
% Invalid command at '^' markerproduzione.Mostra esempio
cs2# reload This command will reboot the system. (y/n)? [n] y
-
Applicare lo stesso RCF e salvare la configurazione in esecuzione per una seconda volta. Ciò è necessario poiché l'RCF utilizza QoS e richiede la riconfigurazione del TCAM, che comporta il caricamento dell'RCF due volte, con lo switch riavviato nel frattempo.
Mostra esempio
cs2# copy Nexus_3132QV_RCF_v1.6-Cluster-HA-Breakout.txt running-config echo-commands cs2# copy running-config startup-config [########################################] 100% Copy complete
-
Riapplicare eventuali personalizzazioni precedenti alla configurazione dello switch. Fare riferimento a"Esaminare le considerazioni sul cablaggio e sulla configurazione" per i dettagli di eventuali ulteriori modifiche richieste.
-
Verificare lo stato delle porte del cluster sul cluster.
-
Verificare che le porte del cluster siano attive e funzionanti su tutti i nodi del cluster:
network port show -ipspace ClusterMostra esempio
cluster1::*> network port show -ipspace Cluster Node: cluster1-01 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-02 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-03 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false Node: cluster1-04 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false -
Verificare lo stato di integrità dello switch dal cluster.
network device-discovery show -protocol cdpMostra esempio
cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ----------------- -------- cluster1-01/cdp e0a cs1 Ethernet1/7 N3K-C3132Q-V e0d cs2 Ethernet1/7 N3K-C3132Q-V cluster01-2/cdp e0a cs1 Ethernet1/8 N3K-C3132Q-V e0d cs2 Ethernet1/8 N3K-C3132Q-V cluster01-3/cdp e0a cs1 Ethernet1/1/1 N3K-C3132Q-V e0b cs2 Ethernet1/1/1 N3K-C3132Q-V cluster1-04/cdp e0a cs1 Ethernet1/1/2 N3K-C3132Q-V e0b cs2 Ethernet1/1/2 N3K-C3132Q-V cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true Switch Type Address Model --------------------------- ------------------ ---------------- ----- cs1 cluster-network 10.233.205.90 N3K-C3132Q-V Serial Number: FOXXXXXXXGD Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP cs2 cluster-network 10.233.205.91 N3K-C3132Q-V Serial Number: FOXXXXXXXGS Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP 2 entries were displayed.Per ONTAP 9.8 e versioni successive, utilizzare il comando system switch ethernet show -is-monitoring-enabled-operational true.
A seconda della versione RCF precedentemente caricata sullo switch, è possibile che venga visualizzato il seguente output sulla console dello switch cs1:
2020 Nov 17 16:07:18 cs1 %$ VDC-1 %$ %STP-2-UNBLOCK_CONSIST_PORT: Unblocking port port-channel1 on VLAN0092. Port consistency restored. 2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_PEER: Blocking port-channel1 on VLAN0001. Inconsistent peer vlan. 2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_LOCAL: Blocking port-channel1 on VLAN0092. Inconsistent local vlan.+
Possono essere necessari fino a 5 minuti prima che i nodi del cluster vengano segnalati come integri. -
-
Sullo switch del cluster cs1, chiudere le porte collegate alle porte del cluster dei nodi.
Mostra esempio
cs1> enable cs1# configure cs1(config)# interface eth1/1/1-2,eth1/7-8 cs1(config-if-range)# shutdown cs1(config-if-range)# exit cs1# exit
Il numero di porte visualizzate varia in base al numero di nodi nel cluster. -
Verificare che i LIF del cluster siano stati migrati alle porte ospitate sullo switch cs2. Potrebbero volerci alcuni secondi.
network interface show -vserver ClusterMostra esempio
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ------------------ ------------------- ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0d false cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0d true cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0d false cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0d true cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0b false cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0b true cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0b false cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0b true cluster1::*> -
Verificare che il cluster sia integro:
cluster showMostra esempio
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- -------- ------------- ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false 4 entries were displayed. cluster1::*>
-
Ripetere i passaggi da 1 a 17 sullo switch cs1.
-
Abilita il ripristino automatico sui LIF del cluster.
Mostra esempio
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert True
-
Riavviare l'interruttore cs1. In questo modo si attiva il ripristino dei LIF del cluster alle rispettive porte home. È possibile ignorare gli eventi "porte cluster inattive" segnalati sui nodi mentre lo switch si riavvia.
cs1# reload This command will reboot the system. (y/n)? [n] y
Passaggio 3: verificare la configurazione
-
Verificare che le porte dello switch collegate alle porte del cluster siano attive.
show interface brief | grep upMostra esempio
cs1# show interface brief | grep up . . Eth1/1/1 1 eth access up none 10G(D) -- Eth1/1/2 1 eth access up none 10G(D) -- Eth1/7 1 eth trunk up none 100G(D) -- Eth1/8 1 eth trunk up none 100G(D) -- . .
-
Verificare che l'ISL tra cs1 e cs2 sia funzionante:
show port-channel summaryMostra esempio
cs1# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed b - BFD Session Wait S - Switched R - Routed U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/31(P) Eth1/32(P) cs1# -
Verificare che i LIF del cluster siano tornati alla loro porta home:
network interface show -vserver ClusterMostra esempio
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ------------------ ------------------- ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0d true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0d true cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0d true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0d true cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0b true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0b true cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0b true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0b true cluster1::*> -
Verificare che il cluster sia integro:
cluster showMostra esempio
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------- ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false cluster1::*>
-
Verificare la connettività delle interfacce del cluster remoto:
Puoi usare il network interface check cluster-connectivity comando per avviare un controllo di accessibilità per la connettività del cluster e quindi visualizzare i dettagli:
network interface check cluster-connectivity start`E `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
NOTA: attendere alcuni secondi prima di eseguire il comando show per visualizzare i dettagli.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ------------------- ------------------- -----------
cluster1-01
3/5/2022 19:21:18 -06:00 cluster1-01_clus2 cluster1-02_clus1 none
3/5/2022 19:21:20 -06:00 cluster1-01_clus2 cluster1-02_clus2 none
cluster1-02
3/5/2022 19:21:18 -06:00 cluster1-02_clus2 cluster1-01_clus1 none
3/5/2022 19:21:20 -06:00 cluster1-02_clus2 cluster1-01_clus2 none
Per tutte le versioni ONTAP , è anche possibile utilizzare cluster ping-cluster -node <name> comando per verificare la connettività:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local
Host is cluster1-02
Getting addresses from network interface table...
Cluster cluster1-01_clus1 169.254.209.69 cluster1-01 e0a
Cluster cluster1-01_clus2 169.254.49.125 cluster1-01 e0b
Cluster cluster1-02_clus1 169.254.47.194 cluster1-02 e0a
Cluster cluster1-02_clus2 169.254.19.183 cluster1-02 e0b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
Local 169.254.19.183 to Remote 169.254.209.69
Local 169.254.19.183 to Remote 169.254.49.125
Local 169.254.47.194 to Remote 169.254.209.69
Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)