Installare il file di configurazione di riferimento (RCF)
È possibile installare l'RCF dopo aver configurato per la prima volta lo switch Nexus 92300YC. Puoi usare questa procedura anche per aggiornare la tua versione RCF.
Vedi l'articolo della Knowledge Base"Come cancellare la configurazione su uno switch di interconnessione Cisco mantenendo la connettività remota" per ulteriori informazioni sull'installazione o l'aggiornamento del tuo RCF.
Gli esempi in questa procedura utilizzano la seguente nomenclatura di switch e nodi:
-
I nomi dei due switch Cisco sono
cs1Ecs2. -
I nomi dei nodi sono
node1Enode2. -
I nomi LIF del cluster sono
node1_clus1,node1_clus2,node2_clus1, Enode2_clus2. -
IL
cluster1::*>il prompt indica il nome del cluster.
|
|
|
-
Visualizza le porte del cluster su ciascun nodo connesso agli switch del cluster:
network device-discovery showMostra esempio
cluster1::*> *network device-discovery show* Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ------------ node1/cdp e0a cs1 Ethernet1/1/1 N9K-C92300YC e0b cs2 Ethernet1/1/1 N9K-C92300YC node2/cdp e0a cs1 Ethernet1/1/2 N9K-C92300YC e0b cs2 Ethernet1/1/2 N9K-C92300YC cluster1::*> -
Controllare lo stato amministrativo e operativo di ogni porta del cluster.
-
Verificare che tutte le porte del cluster siano attive e integre:
network port show -ipspace ClusterMostra esempio
cluster1::*> *network port show -ipspace Cluster* Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0c Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0c Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false cluster1::*> -
Verificare che tutte le interfacce cluster (LIF) siano sulla porta home:
network interface show -vserver ClusterMostra esempio
cluster1::*> *network interface show -vserver Cluster* Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ----------------- ------------ ------- ---- Cluster node1_clus1 up/up 169.254.3.4/23 node1 e0c true node1_clus2 up/up 169.254.3.5/23 node1 e0d true node2_clus1 up/up 169.254.3.8/23 node2 e0c true node2_clus2 up/up 169.254.3.9/23 node2 e0d true cluster1::*> -
Verificare che il cluster visualizzi le informazioni per entrambi gli switch del cluster:
system cluster-switch show -is-monitoring-enabled-operational trueMostra esempio
cluster1::*> *system cluster-switch show -is-monitoring-enabled-operational true* Switch Type Address Model --------------------------- ------------------ ---------------- --------------- cs1 cluster-network 10.233.205.92 N9K-C92300YC Serial Number: FOXXXXXXXGS Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP cs2 cluster-network 10.233.205.93 N9K-C92300YC Serial Number: FOXXXXXXXGD Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP 2 entries were displayed.
-
-
Disabilitare il ripristino automatico sui LIF del cluster.
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
-
Sullo switch del cluster cs2, chiudere le porte connesse alle porte del cluster dei nodi.
cs2(config)# interface e1/1-64 cs2(config-if-range)# shutdown
-
Verificare che le porte del cluster siano state migrate alle porte ospitate sullo switch del cluster cs1. Potrebbero volerci alcuni secondi.
network interface show -vserver ClusterMostra esempio
cluster1::*> *network interface show -vserver Cluster* Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ----------------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.3.4/23 node1 e0c true node1_clus2 up/up 169.254.3.5/23 node1 e0c false node2_clus1 up/up 169.254.3.8/23 node2 e0c true node2_clus2 up/up 169.254.3.9/23 node2 e0c false cluster1::*> -
Verificare che il cluster sia integro:
cluster showMostra esempio
cluster1::*> *cluster show* Node Health Eligibility Epsilon -------------- ------- ------------ ------- node1 true true false node2 true true false cluster1::*>
-
Se non lo hai già fatto, salva una copia della configurazione corrente dello switch copiando l'output del seguente comando in un file di testo:
show running-config -
Pulire la configurazione sullo switch cs2 ed eseguire una configurazione di base.
Quando si aggiorna o si applica un nuovo RCF, è necessario cancellare le impostazioni dello switch ed eseguire la configurazione di base. Per configurare nuovamente lo switch, è necessario essere connessi alla porta della console seriale. -
Pulisci la configurazione:
Mostra esempio
(cs2)# write erase Warning: This command will erase the startup-configuration. Do you wish to proceed anyway? (y/n) [n] y
-
Eseguire un riavvio dello switch:
Mostra esempio
(cs2)# reload Are you sure you would like to reset the system? (y/n) y
-
-
Copiare l'RCF nel bootflash dello switch cs2 utilizzando uno dei seguenti protocolli di trasferimento: FTP, TFTP, SFTP o SCP. Per ulteriori informazioni sui comandi Cisco , consultare la guida appropriata nel "Switch Cisco Nexus serie 9000" guide.
Questo esempio mostra come TFTP viene utilizzato per copiare un RCF nel bootflash sullo switch cs2:
cs2# copy tftp: bootflash: vrf management Enter source filename: /code/Nexus_92300YC_RCF_v1.0.2.txt Enter hostname for the tftp server: 172.19.2.1 Enter username: user1 Outbound-ReKey for 172.19.2.1:22 Inbound-ReKey for 172.19.2.1:22 user1@172.19.2.1's password: tftp> progress Progress meter enabled tftp> get /code/Nexus_92300YC_RCF_v1.0.2.txt /bootflash/nxos.9.2.2.bin /code/Nexus_92300YC_R 100% 9687 530.2KB/s 00:00 tftp> exit Copy complete, now saving to disk (please wait)... Copy complete.
-
Applicare l'RCF precedentemente scaricato al bootflash.
Per ulteriori informazioni sui comandi Cisco , consultare la guida appropriata nel "Switch Cisco Nexus serie 9000" guide.
Questo esempio mostra il file RCF
Nexus_92300YC_RCF_v1.0.2.txtin fase di installazione sullo switch cs2:cs2# copy Nexus_92300YC_RCF_v1.0.2.txt running-config echo-commands Disabling ssh: as its enabled right now: generating ecdsa key(521 bits)...... generated ecdsa key Enabling ssh: as it has been disabled this command enables edge port type (portfast) by default on all interfaces. You should now disable edge port type (portfast) explicitly on switched ports leading to hubs, switches and bridges as they may create temporary bridging loops. Edge port type (portfast) should only be enabled on ports connected to a single host. Connecting hubs, concentrators, switches, bridges, etc... to this interface when edge port type (portfast) is enabled, can cause temporary bridging loops. Use with CAUTION Edge Port Type (Portfast) has been configured on Ethernet1/1 but will only have effect when the interface is in a non-trunking mode. ... Copy complete, now saving to disk (please wait)... Copy complete.
-
Verificare sullo switch che l'RCF sia stato unito correttamente:
show running-configcs2# show running-config !Command: show running-config !Running configuration last done at: Wed Apr 10 06:32:27 2019 !Time: Wed Apr 10 06:36:00 2019 version 9.2(2) Bios:version 05.33 switchname cs2 vdc cs2 id 1 limit-resource vlan minimum 16 maximum 4094 limit-resource vrf minimum 2 maximum 4096 limit-resource port-channel minimum 0 maximum 511 limit-resource u4route-mem minimum 248 maximum 248 limit-resource u6route-mem minimum 96 maximum 96 limit-resource m4route-mem minimum 58 maximum 58 limit-resource m6route-mem minimum 8 maximum 8 feature lacp no password strength-check username admin password 5 $5$HY9Kk3F9$YdCZ8iQJ1RtoiEFa0sKP5IO/LNG1k9C4lSJfi5kesl 6 role network-admin ssh key ecdsa 521 banner motd # * * * Nexus 92300YC Reference Configuration File (RCF) v1.0.2 (10-19-2018) * * * * Ports 1/1 - 1/48: 10GbE Intra-Cluster Node Ports * * Ports 1/49 - 1/64: 40/100GbE Intra-Cluster Node Ports * * Ports 1/65 - 1/66: 40/100GbE Intra-Cluster ISL Ports * * *
|
|
Quando si applica RCF per la prima volta, è previsto il messaggio ERROR: Failed to write VSH commands, che può essere ignorato. |
-
Verificare che il file RCF sia la versione più recente corretta:
show running-configQuando controlli l'output per verificare di avere l'RCF corretto, assicurati che le seguenti informazioni siano corrette:
-
Lo striscione RCF
-
Le impostazioni del nodo e della porta
-
Personalizzazioni
L'output varia in base alla configurazione del sito. Controllare le impostazioni della porta e fare riferimento alle note di rilascio per eventuali modifiche specifiche all'RCF installato.
-
-
Riapplicare eventuali personalizzazioni precedenti alla configurazione dello switch. Fare riferimento a"Esaminare le considerazioni sul cablaggio e sulla configurazione" per i dettagli di eventuali ulteriori modifiche richieste.
-
Dopo aver verificato che le versioni RCF e le impostazioni dello switch siano corrette, copiare il file running-config nel file startup-config.
Per ulteriori informazioni sui comandi Cisco , consultare la guida appropriata nel "Switch Cisco Nexus serie 9000" guide.
cs2# copy running-config startup-config [] 100% Copy complete
-
Riavviare lo switch cs2. È possibile ignorare gli eventi "porte cluster inattive" segnalati sui nodi mentre lo switch si riavvia.
cs2# reload This command will reboot the system. (y/n)? [n] y
-
Verificare lo stato delle porte del cluster sul cluster.
-
Verificare che le porte e0d siano attive e funzionanti su tutti i nodi del cluster:
network port show -ipspace ClusterMostra esempio
cluster1::*> *network port show -ipspace Cluster* Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false -
Verificare lo stato di integrità dello switch dal cluster (potrebbe non essere visualizzato lo switch cs2, poiché i LIF non sono posizionati su e0d).
Mostra esempio
cluster1::*> *network device-discovery show -protocol cdp* Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ----------------- ------------ node1/cdp e0a cs1 Ethernet1/1 N9K-C92300YC e0b cs2 Ethernet1/1 N9K-C92300YC node2/cdp e0a cs1 Ethernet1/2 N9K-C92300YC e0b cs2 Ethernet1/2 N9K-C92300YC cluster1::*> *system cluster-switch show -is-monitoring-enabled-operational true* Switch Type Address Model --------------------------- ------------------ ---------------- ------------ cs1 cluster-network 10.233.205.90 N9K-C92300YC Serial Number: FOXXXXXXXGD Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP cs2 cluster-network 10.233.205.91 N9K-C92300YC Serial Number: FOXXXXXXXGS Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP 2 entries were displayed.
Potresti osservare il seguente output sulla console dello switch cs1 a seconda della versione RCF precedentemente caricata sullo switch
2020 Nov 17 16:07:18 cs1 %$ VDC-1 %$ %STP-2-UNBLOCK_CONSIST_PORT: Unblocking port port-channel1 on VLAN0092. Port consistency restored. 2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_PEER: Blocking port-channel1 on VLAN0001. Inconsistent peer vlan. 2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_LOCAL: Blocking port-channel1 on VLAN0092. Inconsistent local vlan.
-
-
Sullo switch del cluster cs1, chiudere le porte collegate alle porte del cluster dei nodi.
L'esempio seguente utilizza l'output dell'esempio di interfaccia del passaggio 1:
cs1(config)# interface e1/1-64 cs1(config-if-range)# shutdown
-
Verificare che i LIF del cluster siano stati migrati alle porte ospitate sullo switch cs2. Potrebbero volerci alcuni secondi.
network interface show -vserver ClusterMostra esempio
cluster1::*> *network interface show -vserver Cluster* Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------------- ---------- ------------------ ----------------- ------- ---- Cluster node1_clus1 up/up 169.254.3.4/23 node1 e0d false node1_clus2 up/up 169.254.3.5/23 node1 e0d true node2_clus1 up/up 169.254.3.8/23 node2 e0d false node2_clus2 up/up 169.254.3.9/23 node2 e0d true cluster1::*> -
Verificare che il cluster sia integro:
cluster showMostra esempio
cluster1::*> *cluster show* Node Health Eligibility Epsilon -------------- -------- ------------- ------- node1 true true false node2 true true false cluster1::*>
-
Ripetere i passaggi da 7 a 14 sullo switch cs1.
-
Abilita il ripristino automatico sui LIF del cluster.
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert True
-
Riavviare l'interruttore cs1. In questo modo si attiva il ripristino dei LIF del cluster alle rispettive porte home. È possibile ignorare gli eventi "porte cluster inattive" segnalati sui nodi mentre lo switch si riavvia.
cs1# reload This command will reboot the system. (y/n)? [n] y
-
Verificare che le porte dello switch collegate alle porte del cluster siano attive.
cs1# show interface brief | grep up . . Ethernet1/1 1 eth access up none 10G(D) -- Ethernet1/2 1 eth access up none 10G(D) -- Ethernet1/3 1 eth trunk up none 100G(D) -- Ethernet1/4 1 eth trunk up none 100G(D) -- . .
-
Verificare che l'ISL tra cs1 e cs2 sia funzionante:
show port-channel summaryMostra esempio
cs1# *show port-channel summary* Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed b - BFD Session Wait S - Switched R - Routed U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/65(P) Eth1/66(P) cs1# -
Verificare che i LIF del cluster siano tornati alla loro porta home:
network interface show -vserver ClusterMostra esempio
cluster1::*> *network interface show -vserver Cluster* Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.3.4/23 node1 e0d true node1_clus2 up/up 169.254.3.5/23 node1 e0d true node2_clus1 up/up 169.254.3.8/23 node2 e0d true node2_clus2 up/up 169.254.3.9/23 node2 e0d true cluster1::*> -
Verificare che il cluster sia integro:
cluster showMostra esempio
cluster1::*> *cluster show* Node Health Eligibility Epsilon -------------- ------- ------------- ------- node1 true true false node2 true true false
-
Verificare la connettività delle interfacce del cluster remoto:
Puoi usare il network interface check cluster-connectivity comando per avviare un controllo di accessibilità per la connettività del cluster e quindi visualizzare i dettagli:
network interface check cluster-connectivity start`E `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
NOTA: Attendere alcuni secondi prima di eseguire il show comando per visualizzare i dettagli.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
node1
3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none
3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none
node2
3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none
3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Per tutte le versioni ONTAP , è anche possibile utilizzare cluster ping-cluster -node <name> comando per verificare la connettività:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local
Host is node1
Getting addresses from network interface table...
Cluster node1_clus1 169.254.3.4 node1 e0a
Cluster node1_clus2 169.254.3.5 node1 e0b
Cluster node2_clus1 169.254.3.8 node2 e0a
Cluster node2_clus2 169.254.3.9 node2 e0b
Local = 169.254.1.3 169.254.1.1
Remote = 169.254.1.6 169.254.1.7 169.254.3.4 169.254.3.5 169.254.3.8 169.254.3.9
Cluster Vserver Id = 4294967293
Ping status:
............
Basic connectivity succeeds on 12 path(s)
Basic connectivity fails on 0 path(s)
................................................
Detected 9000 byte MTU on 12 path(s):
Local 169.254.1.3 to Remote 169.254.1.6
Local 169.254.1.3 to Remote 169.254.1.7
Local 169.254.1.3 to Remote 169.254.3.4
Local 169.254.1.3 to Remote 169.254.3.5
Local 169.254.1.3 to Remote 169.254.3.8
Local 169.254.1.3 to Remote 169.254.3.9
Local 169.254.1.1 to Remote 169.254.1.6
Local 169.254.1.1 to Remote 169.254.1.7
Local 169.254.1.1 to Remote 169.254.3.4
Local 169.254.1.1 to Remote 169.254.3.5
Local 169.254.1.1 to Remote 169.254.3.8
Local 169.254.1.1 to Remote 169.254.3.9
Larger than PMTU communication succeeds on 12 path(s)
RPC status:
6 paths up, 0 paths down (tcp check)
6 paths up, 0 paths down (udp check)
Dopo aver installato l'RCF, puoi "verificare la configurazione SSH".