Actualiza tu archivo de configuración de referencia (RCF).
Actualizas tu versión de RCF cuando tienes una versión existente del archivo RCF instalada en tus switches operativos.
Asegúrese de tener lo siguiente:
-
Una copia de seguridad actualizada de la configuración del switch.
-
Un clúster en pleno funcionamiento (sin errores en los registros ni problemas similares).
-
El RCF actual.
-
Si está actualizando su versión de RCF, necesita una configuración de arranque en RCF que refleje las imágenes de arranque deseadas.
Si necesita cambiar la configuración de arranque para que refleje las imágenes de arranque actuales, debe hacerlo antes de volver a aplicar el RCF para que se instancie la versión correcta en futuros reinicios.
|
|
No se necesita ningún enlace entre conmutadores (ISL) operativo durante este procedimiento. Esto es así por diseño porque los cambios de versión de RCF pueden afectar la conectividad de ISL temporalmente. Para garantizar un funcionamiento ininterrumpido del clúster, el siguiente procedimiento migra todas las LIF del clúster al conmutador asociado operativo mientras se realizan los pasos en el conmutador de destino. |
|
|
Antes de instalar una nueva versión del software del switch y los RCF, debe borrar la configuración del switch y realizar una configuración básica. Debe estar conectado al switch mediante la consola serie o haber guardado la información de configuración básica antes de borrar la configuración del switch. |
Paso 1: Prepárese para la actualización
-
Muestra los puertos del clúster en cada nodo que están conectados a los conmutadores del clúster:
network device-discovery showMostrar ejemplo
cluster1::*> network device-discovery show Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- -------- cluster1-01/cdp e0a cs1 Ethernet1/7 N3K-C3232C e0d cs2 Ethernet1/7 N3K-C3232C cluster1-02/cdp e0a cs1 Ethernet1/8 N3K-C3232C e0d cs2 Ethernet1/8 N3K-C3232C cluster1-03/cdp e0a cs1 Ethernet1/1/1 N3K-C3232C e0b cs2 Ethernet1/1/1 N3K-C3232C cluster1-04/cdp e0a cs1 Ethernet1/1/2 N3K-C3232C e0b cs2 Ethernet1/1/2 N3K-C3232C cluster1::*> -
Verifique el estado administrativo y operativo de cada puerto del clúster.
-
Verifique que todos los puertos del clúster estén activos y en buen estado:
network port show –role clusterMostrar ejemplo
cluster1::*> network port show -role cluster Node: cluster1-01 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false Node: cluster1-02 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false 8 entries were displayed. Node: cluster1-03 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-04 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false cluster1::*> -
Verifique que todas las interfaces del clúster (LIF) estén en el puerto principal:
network interface show -role clusterMostrar ejemplo
cluster1::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ----------------- ------------ ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0a true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0d true cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0a true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0d true cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0a true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0b true cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0a true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0b true 8 entries were displayed. cluster1::*> -
Verifique que el clúster muestre información para ambos conmutadores del clúster:
system cluster-switch show -is-monitoring-enabled-operational true
Mostrar ejemplo
cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true Switch Type Address Model --------------------------- ------------------ ---------------- --------------- cs1 cluster-network 10.233.205.92 NX3232C Serial Number: FOXXXXXXXGS Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP cs2 cluster-network 10.233.205.93 NX3232C Serial Number: FOXXXXXXXGD Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP 2 entries were displayed. -
-
Desactive la reversión automática en los LIF del clúster.
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
Paso 2: Configurar puertos
-
En el conmutador de clúster cs2, apague los puertos conectados a los puertos de clúster de los nodos.
cs2> enable cs2# configure cs2(config)# interface eth1/1/1-2,eth1/7-8 cs2(config-if-range)# shutdown cs2(config-if-range)# exit cs2# exit
Asegúrese de apagar todos los puertos del clúster conectados para evitar problemas de conexión de red. Consulte el artículo de la base de conocimientos "Nodo fuera de quórum al migrar la LIF del clúster durante la actualización del sistema operativo del switch" Para obtener más detalles. -
Verifique que los puertos del clúster hayan conmutado por error a los puertos alojados en el conmutador de clúster cs1. Esto podría tardar unos segundos.
network interface show -role clusterMostrar ejemplo
cluster1::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ----------------- ---------- ------------------ ------------- ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0a true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0a false cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0a true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0a false cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0a true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0a false cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0a true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0a false 8 entries were displayed. cluster1::*> -
Verifique que el clúster esté en buen estado:
cluster showMostrar ejemplo
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------ ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false 4 entries were displayed. cluster1::*>
-
Si aún no lo ha hecho, guarde una copia de la configuración actual del switch copiando el resultado del siguiente comando en un archivo de texto:
show running-config -
Registre cualquier adición personalizada entre el actual
running-configy el archivo RCF en uso (como una configuración SNMP para su organización). -
Guarde los detalles de configuración básicos en el
write_erase.cfgarchivo en la memoria flash de arranque.Asegúrese de configurar lo siguiente: * Nombre de usuario y contraseña * Dirección IP de administración * Puerta de enlace predeterminada * Nombre del conmutador
cs2# show run | section "switchname" > bootflash:write_erase.cfgcs2# show run | section "hostname" >> bootflash:write_erase.cfgcs2# show run | i "username admin password" >> bootflash:write_erase.cfgcs2# show run | section "vrf context management" >> bootflash:write_erase.cfgcs2# show run | section "interface mgmt0" >> bootflash:write_erase.cfg -
Al actualizar a la versión 1.12 de RCF o posterior, ejecute los siguientes comandos:
cs2# echo "hardware access-list tcam region racl-lite 512" >> bootflash:write_erase.cfgcs2# echo "hardware access-list tcam region qos 256" >> bootflash:write_erase.cfgConsulte el artículo de la base de conocimientos "Cómo borrar la configuración de un switch de interconexión Cisco manteniendo la conectividad remota" Para obtener más detalles.
-
Verifique que el
write_erase.cfgEl archivo se ha rellenado según lo previsto:show file bootflash:write_erase.cfg -
Emitir el
write erasecomando para borrar la configuración guardada actual:cs2# write eraseWarning: This command will erase the startup-configuration.Do you wish to proceed anyway? (y/n) [n] y -
Copie la configuración básica guardada previamente en la configuración de inicio.
cs2# copy bootflash:write_erase.cfg startup-config -
Reiniciar el switch cs2:
cs2# reloadThis command will reboot the system. (y/n)? [n] y -
Una vez que la dirección IP de administración vuelva a ser accesible, inicie sesión en el switch a través de SSH.
Es posible que deba actualizar las entradas del archivo host relacionadas con las claves SSH.
-
Copie el RCF al bootflash del conmutador cs2 utilizando uno de los siguientes protocolos de transferencia: FTP, TFTP, SFTP o SCP. Para obtener más información sobre los comandos de Cisco , consulte la guía correspondiente en "Referencia de comandos de Cisco Nexus serie 3000 NX-OS" guías.
Mostrar ejemplo
Este ejemplo muestra cómo se utiliza TFTP para copiar un RCF a la memoria flash de arranque del switch cs2:
cs2# copy tftp: bootflash: vrf management Enter source filename: Nexus_3232C_RCF_v1.6-Cluster-HA-Breakout.txt Enter hostname for the tftp server: 172.22.201.50 Trying to connect to tftp server......Connection to Server Established. TFTP get operation was successful Copy complete, now saving to disk (please wait)...
-
Aplique el RCF descargado previamente a la memoria flash de arranque.
Para obtener más información sobre los comandos de Cisco , consulte la guía correspondiente en "Referencia de comandos de Cisco Nexus serie 3000 NX-OS" guías.
Mostrar ejemplo
Este ejemplo muestra el archivo RCF.
Nexus_3232C_RCF_v1.6-Cluster-HA-Breakout.txtInstalando en el switch cs2:cs2# copy Nexus_3232C_RCF_v1.6-Cluster-HA-Breakout.txt running-config echo-commands
Asegúrese de leer detenidamente las secciones Notas de instalación, Notas importantes y banner de su RCF. Debe leer y seguir estas instrucciones para garantizar la configuración y el funcionamiento adecuados del conmutador.
-
Verifique que el archivo RCF sea la versión más reciente correcta:
show running-configAl comprobar la salida para verificar que tiene el RCF correcto, asegúrese de que la siguiente información sea correcta:
-
El estandarte de RCF
-
Configuración del nodo y del puerto
-
Personalizaciones
El resultado varía según la configuración de su sitio. Compruebe la configuración del puerto y consulte las notas de la versión para conocer los cambios específicos del RCF que haya instalado.
-
-
Vuelva a aplicar cualquier personalización anterior a la configuración del switch. Referirse a"Revisar las consideraciones de cableado y configuración" Para obtener detalles sobre cualquier otro cambio necesario.
-
Después de verificar que las versiones de RCF y la configuración del switch sean correctas, copie el archivo running-config al archivo startup-config.
Para obtener más información sobre los comandos de Cisco , consulte la guía correspondiente en "Referencia de comandos de Cisco Nexus serie 3000 NX-OS" guías.
cs2# copy running-config startup-config [########################################] 100% Copy complete
-
Reiniciar interruptor cs2. Puede ignorar los eventos de "puertos del clúster caídos" que se reportan en los nodos mientras se reinicia el conmutador.
cs2# reload This command will reboot the system. (y/n)? [n] y
-
Verifique el estado de los puertos del clúster.
-
Verifique que los puertos e0d estén activos y en buen estado en todos los nodos del clúster:
network port show -role clusterMostrar ejemplo
cluster1::*> network port show -role cluster Node: cluster1-01 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-02 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-03 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false Node: cluster1-04 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false 8 entries were displayed. -
Verifique el estado del switch desde el clúster (esto podría no mostrar el switch cs2, ya que las LIF no están alojadas en e0d).
Mostrar ejemplo
cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ----------------- -------- cluster1-01/cdp e0a cs1 Ethernet1/7 N3K-C3232C e0d cs2 Ethernet1/7 N3K-C3232C cluster01-2/cdp e0a cs1 Ethernet1/8 N3K-C3232C e0d cs2 Ethernet1/8 N3K-C3232C cluster01-3/cdp e0a cs1 Ethernet1/1/1 N3K-C3232C e0b cs2 Ethernet1/1/1 N3K-C3232C cluster1-04/cdp e0a cs1 Ethernet1/1/2 N3K-C3232C e0b cs2 Ethernet1/1/2 N3K-C3232C cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true Switch Type Address Model --------------------------- ------------------ ---------------- ----- cs1 cluster-network 10.233.205.90 N3K-C3232C Serial Number: FOXXXXXXXGD Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP cs2 cluster-network 10.233.205.91 N3K-C3232C Serial Number: FOXXXXXXXGS Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP 2 entries were displayed.Es posible que observe la siguiente salida en la consola del conmutador cs1 según la versión de RCF cargada previamente en el conmutador 2020 Nov 17 16:07:18 cs1 %$ VDC-1 %$ %STP-2-UNBLOCK_CONSIST_PORT: Unblocking port port-channel1 on VLAN0092. Se restableció la consistencia del puerto. 17 nov 2020 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_PEER: Bloqueo del canal de puerto 1 en VLAN0001. VLAN de pares inconsistente. 17 nov 2020 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_LOCAL: Bloqueando el canal de puerto 1 en VLAN0092. VLAN local inconsistente.
Los nodos del clúster pueden tardar hasta 5 minutos en informar que están en buen estado. -
-
En el conmutador de clúster cs1, apague los puertos conectados a los puertos de clúster de los nodos.
Mostrar ejemplo
El siguiente ejemplo utiliza la salida de ejemplo de interfaz del paso 1:
cs1(config)# interface eth1/1/1-2,eth1/7-8 cs1(config-if-range)# shutdown
-
Verifique que las LIF del clúster se hayan migrado a los puertos alojados en el switch cs2. Esto podría tardar unos segundos.
network interface show -role clusterMostrar ejemplo
cluster1::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ------------------ ------------------- ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0d false cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0d true cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0d false cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0d true cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0b false cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0b true cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0b false cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0b true 8 entries were displayed. cluster1::*> -
Verifique que el clúster esté en buen estado:
cluster showMostrar ejemplo
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- -------- ------------- ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false 4 entries were displayed. cluster1::*>
-
Repita los pasos 4 a 19 en el interruptor cs1.
-
Habilitar la reversión automática en los LIF del clúster.
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true
Paso 3: Verifique la configuración de red y el estado del clúster.
-
Verifique que los puertos del switch conectados a los puertos del clúster estén activos.
show interface brief | grep upMostrar ejemplo
cs1# show interface brief | grep up . . Eth1/1/1 1 eth access up none 10G(D) -- Eth1/1/2 1 eth access up none 10G(D) -- Eth1/7 1 eth trunk up none 100G(D) -- Eth1/8 1 eth trunk up none 100G(D) -- . .
-
Verifique que el ISL entre cs1 y cs2 sea funcional:
show port-channel summaryMostrar ejemplo
cs1# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed b - BFD Session Wait S - Switched R - Routed U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/31(P) Eth1/32(P) cs1# -
Verifique que los LIF del clúster hayan vuelto a su puerto de origen:
network interface show -role clusterMostrar ejemplo
cluster1::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ------------------ ------------------- ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0d true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0d true cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0d true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0d true cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0b true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0b true cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0b true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0b true 8 entries were displayed. cluster1::*>Si algún LIFS del clúster no ha regresado a sus puertos de origen, reviértalo manualmente:
network interface revert -vserver vserver_name -lif lif_name -
Verifique que el clúster esté en buen estado:
cluster showMostrar ejemplo
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------- ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false 4 entries were displayed. cluster1::*>
-
Verifique la conectividad de las interfaces del clúster remoto:
Puedes utilizar el network interface check cluster-connectivity Comando para iniciar una verificación de accesibilidad para la conectividad del clúster y luego mostrar los detalles:
network interface check cluster-connectivity start y network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
NOTA: Espere unos segundos antes de ejecutar el programa. show comando para mostrar los detalles.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ------------------- ------------------- -----------
cluster1-01
3/5/2022 19:21:18 -06:00 cluster1-01_clus2 cluster1-02_clus1 none
3/5/2022 19:21:20 -06:00 cluster1-01_clus2 cluster1-02_clus2 none
.
.
cluster1-02
3/5/2022 19:21:18 -06:00 cluster1-02_clus2 cluster1-01_clus1 none
3/5/2022 19:21:20 -06:00 cluster1-02_clus2 cluster1-01_clus2 none
.
.
cluster1-03
.
.
.
.
cluster1-04
.
.
.
.
Para todas las versiones de ONTAP , también puedes usar el
cluster ping-cluster -node <name> Comando para comprobar la conectividad:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local
Host is cluster1-03
Getting addresses from network interface table...
Cluster cluster1-03_clus1 169.254.1.3 cluster1-03 e0a
Cluster cluster1-03_clus2 169.254.1.1 cluster1-03 e0b
Cluster cluster1-04_clus1 169.254.1.6 cluster1-04 e0a
Cluster cluster1-04_clus2 169.254.1.7 cluster1-04 e0b
Cluster cluster1-01_clus1 169.254.3.4 cluster1-01 e0a
Cluster cluster1-01_clus2 169.254.3.5 cluster1-01 e0d
Cluster cluster1-02_clus1 169.254.3.8 cluster1-02 e0a
Cluster cluster1-02_clus2 169.254.3.9 cluster1-02 e0d
Local = 169.254.1.3 169.254.1.1
Remote = 169.254.1.6 169.254.1.7 169.254.3.4 169.254.3.5 169.254.3.8 169.254.3.9
Cluster Vserver Id = 4294967293
Ping status:
............
Basic connectivity succeeds on 12 path(s)
Basic connectivity fails on 0 path(s)
................................................
Detected 9000 byte MTU on 12 path(s):
Local 169.254.1.3 to Remote 169.254.1.6
Local 169.254.1.3 to Remote 169.254.1.7
Local 169.254.1.3 to Remote 169.254.3.4
Local 169.254.1.3 to Remote 169.254.3.5
Local 169.254.1.3 to Remote 169.254.3.8
Local 169.254.1.3 to Remote 169.254.3.9
Local 169.254.1.1 to Remote 169.254.1.6
Local 169.254.1.1 to Remote 169.254.1.7
Local 169.254.1.1 to Remote 169.254.3.4
Local 169.254.1.1 to Remote 169.254.3.5
Local 169.254.1.1 to Remote 169.254.3.8
Local 169.254.1.1 to Remote 169.254.3.9
Larger than PMTU communication succeeds on 12 path(s)
RPC status:
6 paths up, 0 paths down (tcp check)
6 paths up, 0 paths down (udp check)
Después de actualizar tu RCF, puedes"verificar la configuración de SSH" .