Skip to main content
O português é fornecido por meio de tradução automática para sua conveniência. O inglês precede o português em caso de inconsistências.

Substitua um switch compartilhado Cisco Nexus 9336C-FX2

Colaboradores netapp-yvonneo netapp-jolieg

Você pode substituir um switch compartilhado Nexus 9336C-FX2 defeituoso. Este é um procedimento não disruptivo (NDU).

Antes de começar

Antes de substituir o interruptor, certifique-se de que:

  • Na infraestrutura de cluster e rede existente:

    • O cluster existente foi verificado como totalmente funcional, com pelo menos um switch de cluster totalmente conectado.

    • Todas as portas do cluster estão ativas.

    • Todas as interfaces lógicas do cluster (LIFs) estão ativas e em suas portas de origem.

    • O comando ping-cluster -node node1 do cluster ONTAP deve indicar que a conectividade básica e a comunicação com largura de banda superior a PMTU estão funcionando corretamente em todos os caminhos.

  • Para o interruptor de substituição Nexus 9336C-FX2:

    • A conectividade da rede de gerenciamento no switch de substituição está funcionando corretamente.

    • O acesso ao console para o interruptor de substituição já está instalado.

    • As conexões de nó são as portas 1/1 a 1/34:

    • Todas as portas de Interconexão de Switches (ISL) estão desativadas nas portas 1/35 e 1/36.

    • O arquivo de configuração de referência (RCF) desejado e a imagem do sistema operacional NX-OS são carregados no switch.

    • Quaisquer personalizações anteriores do site, como STP, SNMP e SSH, devem ser copiadas para o novo switch.

Sobre os exemplos

Você deve executar o comando para migrar um LIF de cluster a partir do nó onde o LIF de cluster está hospedado.

Os exemplos neste procedimento utilizam a seguinte nomenclatura de interruptor e nó:

  • Os nomes dos switches Nexus 9336C-FX2 existentes são sh1 e sh2.

  • Os nomes dos novos switches Nexus 9336C-FX2 são newsh1 e newsh2.

  • Os nomes dos nós são node1 e node2.

  • As portas do cluster em cada nó são denominadas e3a e e3b.

  • Os nomes LIF do cluster são node1_clus1 e node1_clus2 para o nó 1 e node2_clus1 e node2_clus2 para o nó 2.

  • O prompt para alterações em todos os nós do cluster é cluster1::*>.

    Observação O procedimento a seguir baseia-se na seguinte topologia de rede:
Mostrar exemplo de topologia
cluster1::*> network port show -ipspace Cluster

Node: node1
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false

Node: node2
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false
4 entries were displayed.


cluster1::*> network interface show -vserver Cluster
            Logical    Status     Network            Current       Current Is
Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
----------- ---------- ---------- ------------------ ------------- ------- ----
Cluster
            node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
            node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
            node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
            node2_clus2  up/up    169.254.19.183/16  node2         e3b     true
4 entries were displayed.

cluster1::*> network device-discovery show -protocol cdp
Node/       Local  Discovered
Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
----------- ------ ------------------------- ----------------  ----------------
node2      /cdp
            e3a    sh1                       Eth1/2            N9K-C9336C
            e3b    sh2                       Eth1/2            N9K-C9336C

node1      /cdp
            e3a    sh1                       Eth1/1            N9K-C9336C
            e3b    sh2                       Eth1/1            N9K-C9336C
4 entries were displayed.

sh1# show cdp neighbors
Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                  S - Switch, H - Host, I - IGMP, r - Repeater,
                  V - VoIP-Phone, D - Remotely-Managed-Device,
                  s - Supports-STP-Dispute
Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
node1              Eth1/1         144    H           FAS2980       e3a
node2              Eth1/2         145    H           FAS2980       e3a
sh2                Eth1/35        176    R S I s     N9K-C9336C    Eth1/35
sh2 (FDO220329V5)   Eth1/36       176    R S I s     N9K-C9336C    Eth1/36
Total entries displayed: 4

sh2# show cdp neighbors
Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                  S - Switch, H - Host, I - IGMP, r - Repeater,
                  V - VoIP-Phone, D - Remotely-Managed-Device,
                  s - Supports-STP-Dispute
Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
node1              Eth1/1         139    H           FAS2980       eb
node2              Eth1/2         124    H           FAS2980       eb
sh1                Eth1/35        178    R S I s     N9K-C9336C    Eth1/35
sh1                Eth1/36        178    R S I s     N9K-C9336C    Eth1/36
Total entries displayed: 4
Passos
  1. Se o AutoSupport estiver ativado neste cluster, suprima a criação automática de casos invocando uma mensagem do AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=xh

    Onde x representa a duração do período de manutenção em horas.

  2. Opcional: Instale o RCF e a imagem apropriados no switch, newsh2, e faça todos os preparativos necessários no local.

    1. Caso necessário, verifique, baixe e instale as versões apropriadas dos softwares RCF e NX-OS para o novo switch. Se você verificou que o novo switch está configurado corretamente e não precisa de atualizações nos softwares RCF e NX-OS, prossiga paraPasso 3 .

    2. Acesse a página de descrição do arquivo de configuração de referência dos switches de cluster e de rede de gerenciamento da NetApp no ​​site de suporte da NetApp .

    3. Clique no link para a Matriz de Compatibilidade de Rede de Cluster e Rede de Gerenciamento e, em seguida, observe a versão de software do switch necessária.

    4. Clique na seta "Voltar" do seu navegador para retornar à página de Descrição, clique em CONTINUAR, aceite o contrato de licença e, em seguida, acesse a página de Download.

    5. Siga os passos na página de Download para baixar os arquivos RCF e NX-OS corretos para a versão do software ONTAP que você está instalando.

  3. [[passo 3]]No novo switch, faça login como administrador e desligue todas as portas que serão conectadas às interfaces do cluster de nós (portas 1/1 a 1/34). Se o interruptor que você está substituindo não estiver funcionando e estiver desligado, vá paraPasso 4 . As LIFs nos nós do cluster já devem ter migrado para a outra porta do cluster em cada nó.

    Mostrar exemplo
    newsh2# config
    Enter configuration commands, one per line. End with CNTL/Z.
    newsh2(config)# interface e1/1-34
    newsh2(config-if-range)# shutdown
  4. [[passo 4]]Verifique se todas as LIFs do cluster têm a reversão automática ativada.

    network interface show - vserver Cluster -fields auto-revert

    Mostrar exemplo
    cluster1::> network interface show -vserver Cluster -fields auto-revert
                 Logical
    Vserver      Interface     Auto-revert
    ------------ ------------- -------------
    Cluster      node1_clus1   true
    Cluster      node1_clus2   true
    Cluster      node2_clus1   true
    Cluster      node2_clus2   true
    4 entries were displayed.
  5. [[passo 5]] Verifique a conectividade das interfaces do cluster remoto:

ONTAP 9.9.1 e posterior

Você pode usar o network interface check cluster-connectivity Comando para iniciar uma verificação de acessibilidade para conectividade do cluster e, em seguida, exibir os detalhes:

network interface check cluster-connectivity start`e `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

NOTA: Aguarde alguns segundos antes de executar o show comando para exibir os detalhes.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Todas as versões do ONTAP

Para todas as versões do ONTAP , você também pode usar o cluster ping-cluster -node <name> comando para verificar a conectividade:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1 e3a
Cluster node1_clus2 169.254.49.125 node1 e3b
Cluster node2_clus1 169.254.47.194 node2 e3a
Cluster node2_clus2 169.254.19.183 node2 e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
Local 169.254.47.194 to Remote 169.254.209.69
Local 169.254.47.194 to Remote 169.254.49.125
Local 169.254.19.183 to Remote 169.254.209.69
Local 169.254.19.183 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. [[passo 6]]Desligue as portas ISL 1/35 e 1/36 no switch Nexus 9336C-FX2 sh1.

    Mostrar exemplo
    sh1# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    sh1(config)# interface e1/35-36
    sh1(config-if-range)# shutdown
  2. [[passo 7]]Remova todos os cabos do switch Nexus 9336C-FX2 sh2 e, em seguida, conecte-os às mesmas portas no switch Nexus C9336C-FX2 newsh2.

  3. Abra as portas ISLs 1/35 e 1/36 entre os switches sh1 e newsh2 e, em seguida, verifique o status da operação do canal da porta.

    Port-Channel deve indicar Po1(SU) e Member Ports deve indicar Eth1/35(P) e Eth1/36(P).

    Mostrar exemplo

    Este exemplo habilita as portas ISL 1/35 e 1/36 e exibe o resumo do canal de porta no switch sh1.

    sh1# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    sh1 (config)# int e1/35-36
    sh1 (config-if-range)# no shutdown
    sh1 (config-if-range)# show port-channel summary
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member       Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/35(P)   Eth1/36(P)
    
    sh1 (config-if-range)#
  4. [[passo 9]]Verifique se a porta e3b está ativa em todos os nós:

    network port show ipspace Cluster

    Mostrar exemplo

    O resultado deverá ser semelhante ao seguinte:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ----- ---------- - - -------- ----
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ----- ----------- -  -------- ----
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/auto    -        false
    4 entries were displayed.
  5. No mesmo nó que você usou na etapa anterior, reverta o LIF do cluster associado à porta na etapa anterior usando o comando de reversão da interface de rede.

    Neste exemplo, a LIF node1_clus2 no nó 1 é revertida com sucesso se o valor de Home for verdadeiro e a porta for e3b.

    Os comandos a seguir retornam o LIF node1_clus2 no nó 1 para a porta home e3a e exibem informações sobre os LIFs em ambos os nós. A inicialização do primeiro nó é bem-sucedida se a coluna "Is Home" estiver definida como verdadeira para ambas as interfaces do cluster e se elas exibirem as atribuições de porta corretas, neste exemplo, e3a e e3b no nó 1.

    Mostrar exemplo
    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current    Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node       Port    Home
    ----------- ------------ ---------- ------------------ ---------- ------- -----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1      e3a     true
                node1_clus2  up/up      169.254.49.125/16  node1      e3b     true
                node2_clus1  up/up      169.254.47.194/16  node2      e3a     true
                node2_clus2  up/up      169.254.19.183/16  node2      e3a     false
    4 entries were displayed.
  6. Exibir informações sobre os nós em um cluster:

    cluster show

    Mostrar exemplo

    Este exemplo mostra que o estado de saúde dos nós node1 e node2 neste cluster é verdadeiro:

    cluster1::*> cluster show
    Node          Health  Eligibility
    ------------- ------- ------------
    node1         false   true
    node2         true    true
  7. [[passo 12]]Verifique se todas as portas físicas do cluster estão ativas:

    network port show ipspace Cluster

    Mostrar exemplo
    cluster1::*> network port show -ipspace Cluster
    
    Node node1                                                                Ignore
                                                        Speed(Mbps)  Health   Health
    Port      IPspace     Broadcast Domain  Link  MTU   Admin/Oper   Status   Status
    --------- ----------- ----------------- ----- ----- ------------ -------- ------
    e3a       Cluster     Cluster           up    9000  auto/100000  healthy  false
    e3b       Cluster     Cluster           up    9000  auto/100000  healthy  false
    
    Node: node2
                                                                              Ignore
                                                        Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link  MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ----- ----- ------------ -------- ------
    e3a       Cluster      Cluster          up    9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up    9000  auto/100000  healthy  false
    4 entries were displayed.
  8. [[passo 13]] Verifique a conectividade das interfaces do cluster remoto:

ONTAP 9.9.1 e posterior

Você pode usar o network interface check cluster-connectivity Comando para iniciar uma verificação de acessibilidade para conectividade do cluster e, em seguida, exibir os detalhes:

network interface check cluster-connectivity start`e `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

NOTA: Aguarde alguns segundos antes de executar o show comando para exibir os detalhes.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Todas as versões do ONTAP

Para todas as versões do ONTAP , você também pode usar o cluster ping-cluster -node <name> comando para verificar a conectividade:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1 e3a
Cluster node1_clus2 169.254.49.125 node1 e3b
Cluster node2_clus1 169.254.47.194 node2 e3a
Cluster node2_clus2 169.254.19.183 node2 e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
Local 169.254.47.194 to Remote 169.254.209.69
Local 169.254.47.194 to Remote 169.254.49.125
Local 169.254.19.183 to Remote 169.254.209.69
Local 169.254.19.183 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. [[passo 14]]Confirme a seguinte configuração de rede do cluster:

    network port show

    Mostrar exemplo
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                            Ignore
                                           Speed(Mbps)             Health   Health
    Port      IPspace     Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ----------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster     Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster     Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                            Ignore
                                            Speed(Mbps)            Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ---- ------------ -------- ------
    e3a       Cluster      Cluster          up   9000 auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000 auto/100000  healthy  false
    4 entries were displayed.
    
    cluster1::*> network interface show -vserver Cluster
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
                node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
                node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
                node2_clus2  up/up    169.254.19.183/16  node2         e3b     true
    4 entries were displayed.
    
    cluster1::> network device-discovery show -protocol cdp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e3a    sh1    0/2               N9K-C9336C
                e3b    newsh2                    0/2               N9K-C9336C
    node1      /cdp
                e3a    sh1                       0/1               N9K-C9336C
                e3b    newsh2                    0/1               N9K-C9336C
    4 entries were displayed.
    
    sh1# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    Device-ID            Local Intrfce  Hldtme Capability  Platform      Port ID
    node1                Eth1/1         144    H           FAS2980       e3a
    node2                Eth1/2         145    H           FAS2980       e3a
    newsh2               Eth1/35        176    R S I s     N9K-C9336C    Eth1/35
    newsh2               Eth1/36        176    R S I s     N9K-C9336C    Eth1/36
    Total entries displayed: 4
    
    sh2# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    node1              Eth1/1         139    H           FAS2980       e3b
    node2              Eth1/2         124    H           FAS2980       eb
    sh1                Eth1/35        178    R S I s     N9K-C9336C    Eth1/35
    sh1                Eth1/36        178    R S I s     N9K-C9336C    Eth1/36
    Total entries displayed: 4
  2. Mova as portas de armazenamento do switch antigo sh2 para o novo switch newsh2.

  3. Verifique se o armazenamento conectado ao par HA 1, switch compartilhado newsh2, está íntegro.

  4. Verifique se o armazenamento conectado ao par HA 2, switch compartilhado newsh2, está íntegro:

    storage port show -port-type ENET

    Mostrar exemplo
    storage::*> storage port show -port-type ENET
                                       Speed                            VLAN
    Node    Port    Type    Mode       (Gb/s)      State     Status       ID
    ------- ------- ------- ---------- ----------- --------- --------- -----
    node1
            e3a     ENET    storage          100   enabled   online       30
            e3b     ENET    storage            0   enabled   offline      30
            e7a     ENET    storage            0   enabled   offline      30
            e7b     ENET    storage          100   enabled   online       30
    
    node2
            e3a     ENET    storage          100   enabled   online       30
            e3b     ENET    storage            0   enabled   offline      30
            e7a     ENET    storage            0   enabled   offline      30
            e7b     ENET    storage          100   enabled   online       30
  5. [[passo 18]]Verifique se as prateleiras estão corretamente cabeadas:

    storage shelf port show -fields remote- device,remote-port

    Mostrar exemplo
    cluster1::*> storage shelf port show -fields remote-device,remote-port
    shelf id remote-port  remote-device
    ----- -- ------------ ----------------------------
    3.20  0  Ethernet1/13 sh1
    3.20  1  Ethernet1/13 newsh2
    3.20  2  Ethernet1/14 sh1
    3.20  3  Ethernet1/14 newsh2
    3.30  0  Ethernet1/15 sh1
    3.30  1  Ethernet1/15 newsh2
    3.30  2  Ethernet1/16 sh1
    3.30  3  Ethernet1/16 newsh2
    8 entries were displayed.
  6. Remova o interruptor antigo sh2.

  7. Repita esses passos para o switch sh1 e para o novo switch newsh1.

  8. Se você desativou a criação automática de casos, reative-a enviando uma mensagem do AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=END

O que vem a seguir?

Depois de substituir os interruptores, você pode "configurar monitoramento de integridade do switch".