Substitua um switch Cisco Nexus 92300YC
Substituir um switch Nexus 92300YC defeituoso em uma rede de cluster é um procedimento sem interrupções (NDU).
Rever os requisitos
Antes de efetuar a substituição do interrutor, certifique-se de que:
-
No cluster existente e infra-estrutura de rede:
-
O cluster existente é verificado como completamente funcional, com pelo menos um switch de cluster totalmente conetado.
-
Todas as portas do cluster estão ativas.
-
Todas as interfaces lógicas de cluster (LIFs) estão ativas e em suas portas domésticas.
-
O comando ping-cluster -nó node1 do cluster do ONTAP deve indicar que a conetividade básica e a comunicação maior do que a PMTU são bem-sucedidas em todos os caminhos.
-
-
Para o interrutor de substituição do Nexus 92300YC:
-
A conetividade de rede de gerenciamento no switch de substituição está funcional.
-
O acesso do console ao interrutor de substituição está no lugar.
-
As conexões de nó são as portas 1/1 a 1/64.
-
Todas as portas ISL (Inter-Switch Link) estão desativadas nas portas 1/65 e 1/66.
-
O arquivo de configuração de referência desejado (RCF) e o switch de imagem do sistema operacional NX-os são carregados no switch.
-
A personalização inicial do interrutor está completa, como detalhado em: "Configure o switch Cisco Nexus 92300YC".
Quaisquer personalizações de sites anteriores, como STP, SNMP e SSH, são copiadas para o novo switch.
-
Ativar o registo da consola
O NetApp recomenda fortemente que você ative o log do console nos dispositivos que você está usando e execute as seguintes ações ao substituir o switch:
-
Deixe o AutoSupport ativado durante a manutenção.
-
Acione um AutoSupport de manutenção antes e depois da manutenção para desativar a criação de casos durante a manutenção. Consulte este artigo da base de dados de Conhecimento "SU92: Como suprimir a criação automática de casos durante as janelas de manutenção programada" para obter mais detalhes.
-
Ativar o registo de sessão para quaisquer sessões CLI. Para obter instruções sobre como ativar o registo de sessão, consulte a secção "saída de sessão de registo" neste artigo da base de dados de conhecimento "Como configurar o PuTTY para uma conetividade ideal aos sistemas ONTAP" .
Substitua o interrutor
Os exemplos deste procedimento utilizam a seguinte nomenclatura de switch e nó:
-
Os nomes dos switches Nexus 92300YC existentes são CS1 e CS2.
-
O nome do novo switch Nexus 92300YC é newcs2.
-
Os nomes dos nós são node1 e node2.
-
As portas de cluster em cada nó são denominadas e0a e e0b.
-
Os nomes de LIF do cluster são node1_clus1 e node1_clus2 para node1, e node2_clus1 e node2_clus2 para node2.
-
O prompt para alterações em todos os nós de cluster é cluster1::*>
Você deve executar o comando para migração de um cluster LIF do nó onde o cluster LIF está hospedado.
O procedimento a seguir é baseado na seguinte topologia de rede de cluster:
Mostrar topologia
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false 4 entries were displayed. cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e0a true node1_clus2 up/up 169.254.49.125/16 node1 e0b true node2_clus1 up/up 169.254.47.194/16 node2 e0a true node2_clus2 up/up 169.254.19.183/16 node2 e0b true 4 entries were displayed. cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node2 /cdp e0a cs1 Eth1/2 N9K-C92300YC e0b cs2 Eth1/2 N9K-C92300YC node1 /cdp e0a cs1 Eth1/1 N9K-C92300YC e0b cs2 Eth1/1 N9K-C92300YC 4 entries were displayed. cs1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 144 H FAS2980 e0a node2 Eth1/2 145 H FAS2980 e0a cs2(FDO220329V5) Eth1/65 176 R S I s N9K-C92300YC Eth1/65 cs2(FDO220329V5) Eth1/66 176 R S I s N9K-C92300YC Eth1/66 Total entries displayed: 4 cs2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 139 H FAS2980 e0b node2 Eth1/2 124 H FAS2980 e0b cs1(FDO220329KU) Eth1/65 178 R S I s N9K-C92300YC Eth1/65 cs1(FDO220329KU) Eth1/66 178 R S I s N9K-C92300YC Eth1/66 Total entries displayed: 4
Passo 1: Prepare-se para a substituição
-
Instale o RCF e a imagem apropriados no interrutor, newcs2, e faça os preparativos necessários para o local.
Se necessário, verifique, baixe e instale as versões apropriadas do software RCF e NX-os para o novo switch. Se tiver verificado que o novo switch está corretamente configurado e não precisa de atualizações para o software RCF e NX-os, avance para o passo 2.
-
Vá para a página NetApp Cluster and Management Network switches Referência Configuração do arquivo Descrição no site de suporte da NetApp.
-
Clique no link para a Cluster Network and Management Network Compatibility Matrix e observe a versão necessária do software do switch.
-
Clique na seta de volta do seu navegador para retornar à página Descrição, clique em CONTINUAR, aceite o contrato de licença e, em seguida, vá para a página Download.
-
Siga as etapas na página Download para baixar os arquivos RCF e NX-os corretos para a versão do software ONTAP que você está instalando.
-
-
No novo switch, faça login como administrador e encerre todas as portas que serão conetadas às interfaces do cluster de nós (portas 1/1 a 1/64).
Se o interrutor que está a substituir não estiver funcional e estiver desligado, avance para o passo 4. As LIFs nos nós de cluster já devem ter falhado para a outra porta de cluster para cada nó.
Mostrar exemplo
newcs2# config Enter configuration commands, one per line. End with CNTL/Z. newcs2(config)# interface e1/1-64 newcs2(config-if-range)# shutdown
-
Verifique se todas as LIFs do cluster têm a reversão automática ativada:
network interface show -vserver Cluster -fields auto-revert
Mostrar exemplo
cluster1::> network interface show -vserver Cluster -fields auto-revert Logical Vserver Interface Auto-revert ------------ ------------- ------------- Cluster node1_clus1 true Cluster node1_clus2 true Cluster node2_clus1 true Cluster node2_clus2 true 4 entries were displayed.
-
Verifique a conectividade das interfaces de cluster remotas:
Você pode usar o network interface check cluster-connectivity
comando para iniciar uma verificação de acessibilidade para conetividade de cluster e, em seguida, exibir os detalhes:
network interface check cluster-connectivity start
e network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
NOTA: espere alguns segundos antes de executar o show
comando para exibir os detalhes.
cluster1::*> network interface check cluster-connectivity show Source Destination Packet Node Date LIF LIF Loss ------ -------------------------- ---------------- ---------------- ----------- node1 3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none 3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none node2 3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none 3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Para todas as versões do ONTAP, você também pode usar o cluster ping-cluster -node <name>
comando para verificar a conetividade:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e0a Cluster node1_clus2 169.254.49.125 node1 e0b Cluster node2_clus1 169.254.47.194 node2 e0a Cluster node2_clus2 169.254.19.183 node2 e0b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
Etapa 2: Configurar cabos e portas
-
Desligue as portas ISL 1/65 e 1/66 no switch Nexus 92300YC CS1:
Mostrar exemplo
cs1# configure Enter configuration commands, one per line. End with CNTL/Z. cs1(config)# interface e1/65-66 cs1(config-if-range)# shutdown cs1(config-if-range)#
-
Remova todos os cabos do switch Nexus 92300YC CS2 e conete-os às mesmas portas do switch Nexus 92300YC newcs2.
-
Abra as portas ISLs 1/65 e 1/66 entre os switches CS1 e newcs2 e verifique o status da operação do canal da porta.
O Canal de porta deve indicar PO1(SU) e os portos Membros devem indicar eth1/65(P) e eth1/66(P).
Mostrar exemplo
Este exemplo ativa as portas ISL 1/65 e 1/66 e apresenta o resumo do canal da porta no interrutor CS1:
cs1# configure Enter configuration commands, one per line. End with CNTL/Z. cs1(config)# int e1/65-66 cs1(config-if-range)# no shutdown cs1(config-if-range)# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed b - BFD Session Wait S - Switched R - Routed U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/65(P) Eth1/66(P) cs1(config-if-range)#
-
Verifique se a porta e0b está ativa em todos os nós:
network port show ipspace Cluster
Mostrar exemplo
A saída deve ser semelhante ao seguinte:
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ----- ----------- -------- ------- e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ----- ----------- -------- ------- e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/auto - false 4 entries were displayed.
-
No mesmo nó usado na etapa anterior, reverta o LIF do cluster associado à porta na etapa anterior usando o comando de reversão da interface de rede.
Mostrar exemplo
Neste exemplo, LIF node1_clus2 no node1 é revertido com sucesso se o valor Casa for verdadeiro e a porta for e0b.
Os comandos a seguir retornam LIF
node1_clus2
node1
à porta iniciale0a
e exibem informações sobre os LIFs em ambos os nós. Abrir o primeiro nó é bem-sucedido se a coluna is Home for verdadeira para ambas as interfaces de cluster e elas mostrarem as atribuições de porta corretas, nestee0a
exemplo ee0b
no node1.cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------ ---------- ------------------ ---------- ------- ----- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e0a true node1_clus2 up/up 169.254.49.125/16 node1 e0b true node2_clus1 up/up 169.254.47.194/16 node2 e0a true node2_clus2 up/up 169.254.19.183/16 node2 e0a false 4 entries were displayed.
-
Exibir informações sobre os nós em um cluster:
cluster show
Mostrar exemplo
Este exemplo mostra que a integridade do nó para node1 e node2 neste cluster é verdadeira:
cluster1::*> cluster show Node Health Eligibility ------------- ------- ------------ node1 false true node2 true true
-
Verifique se todas as portas de cluster físico estão ativas:
network port show ipspace Cluster
Mostrar exemplo
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ----------- ----------------- ----- ----- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ----- ----- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false 4 entries were displayed.
Passo 3: Conclua o procedimento
-
Verifique a conectividade das interfaces de cluster remotas:
Você pode usar o network interface check cluster-connectivity
comando para iniciar uma verificação de acessibilidade para conetividade de cluster e, em seguida, exibir os detalhes:
network interface check cluster-connectivity start
e network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
NOTA: espere alguns segundos antes de executar o show
comando para exibir os detalhes.
cluster1::*> network interface check cluster-connectivity show Source Destination Packet Node Date LIF LIF Loss ------ -------------------------- ---------------- ---------------- ----------- node1 3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none 3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none node2 3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none 3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Para todas as versões do ONTAP, você também pode usar o cluster ping-cluster -node <name>
comando para verificar a conetividade:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e0a Cluster node1_clus2 169.254.49.125 node1 e0b Cluster node2_clus1 169.254.47.194 node2 e0a Cluster node2_clus2 169.254.19.183 node2 e0b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
-
Confirme a seguinte configuração de rede de cluster:
network port show
Mostrar exemplo
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ----------- ---------------- ---- ----- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false 4 entries were displayed. cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e0a true node1_clus2 up/up 169.254.49.125/16 node1 e0b true node2_clus1 up/up 169.254.47.194/16 node2 e0a true node2_clus2 up/up 169.254.19.183/16 node2 e0b true 4 entries were displayed. cluster1::> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node2 /cdp e0a cs1 0/2 N9K-C92300YC e0b newcs2 0/2 N9K-C92300YC node1 /cdp e0a cs1 0/1 N9K-C92300YC e0b newcs2 0/1 N9K-C92300YC 4 entries were displayed. cs1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 144 H FAS2980 e0a node2 Eth1/2 145 H FAS2980 e0a newcs2(FDO296348FU) Eth1/65 176 R S I s N9K-C92300YC Eth1/65 newcs2(FDO296348FU) Eth1/66 176 R S I s N9K-C92300YC Eth1/66 Total entries displayed: 4 cs2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 139 H FAS2980 e0b node2 Eth1/2 124 H FAS2980 e0b cs1(FDO220329KU) Eth1/65 178 R S I s N9K-C92300YC Eth1/65 cs1(FDO220329KU) Eth1/66 178 R S I s N9K-C92300YC Eth1/66 Total entries displayed: 4