Skip to main content
Cluster and storage switches
O português é fornecido por meio de tradução automática para sua conveniência. O inglês precede o português em caso de inconsistências.

Migre de um switch de cluster Cisco para um switch de cluster NVIDIA SN2100

Colaboradores

É possível migrar os switches de cluster do Cisco para um cluster do ONTAP para os switches de cluster do NVIDIA SN2100. Este é um procedimento sem interrupções.

Rever os requisitos

Você deve estar ciente de certas informações de configuração, conexões de portas e requisitos de cabeamento ao substituir alguns switches de cluster Cisco mais antigos por switches de cluster NVIDIA SN2100. "Visão geral da instalação e configuração dos switches NVIDIA SN2100"Consulte .

Interrutores suportados

Os seguintes switches de cluster Cisco são suportados:

  • Nexus 9336C-FX2

  • Nexus 92300YC

  • Nexus 5596UP

  • Nexus 3232C

  • Nexus 3132Q-V

Para obter detalhes sobre as portas suportadas e suas configurações, consulte o "Hardware Universe" .

O que você vai precisar

Certifique-se de que:

  • O cluster existente está corretamente configurado e funcionando.

  • Todas as portas de cluster estão no estado up para garantir operações ininterruptas.

  • Os switches de cluster NVIDIA SN2100 são configurados e operando sob a versão adequada do Cumulus Linux instalado com o arquivo de configuração de referência (RCF) aplicado.

  • A configuração de rede de cluster existente tem o seguinte:

    • Um cluster NetApp redundante e totalmente funcional usando ambos os switches Cisco mais antigos.

    • Conetividade de gerenciamento e acesso ao console aos switches Cisco mais antigos e aos novos switches.

    • Todas as LIFs de cluster no estado up com os LIfs de cluster estão em suas portas iniciais.

    • Portas ISL ativadas e cabeadas entre os switches Cisco mais antigos e entre os novos switches.

  • Algumas das portas são configuradas nos switches NVIDIA SN2100 para serem executadas a 40 GbE ou 100 GbE.

  • Você planejou, migrou e documentou a conectividade de 40 GbE e 100 GbE de nós para os switches de cluster NVIDIA SN2100.

Observação Se você estiver alterando a velocidade da porta das portas de cluster e0a e e1a em sistemas AFF A800 ou AFF C800, você pode observar pacotes mal formados sendo recebidos após a conversão de velocidade. Consulte "Erro 1570339" e o artigo da base de dados de Conhecimento "Erros de CRC em portas T6 após a conversão de 40GbE para 100GbE" para obter orientação.

Migrar os switches

Sobre os exemplos

Neste procedimento, os switches de cluster Cisco Nexus 3232C são usados, por exemplo, comandos e saídas.

Os exemplos deste procedimento utilizam a seguinte nomenclatura de switch e nó:

  • Os switches de cluster Cisco Nexus 3232C existentes são C1 e C2.

  • Os novos switches de cluster do NVIDIA SN2100 são SW1 e SW2.

  • Os nós são node1 e node2.

  • Os LIFs de cluster são node1_clus1 e node1_clus2 no nó 1 e node2_clus1 e node2_clus2 no nó 2 respetivamente.

  • O cluster1::*> prompt indica o nome do cluster.

  • As portas de cluster usadas neste procedimento são E3A e e3b.

  • As portas breakout tomam o formato: swp[port]s[breakout port 0-3]. Por exemplo, quatro portas breakout no swp1 são swp1s0, swp1s1, swp1s2 e swp1s3.

Sobre esta tarefa

Este procedimento abrange o seguinte cenário:

  • O interrutor C2 é substituído primeiro pelo interrutor SW2.

    • Encerre as portas para os nós de cluster. Todas as portas devem ser fechadas simultaneamente para evitar a instabilidade do cluster.

    • O cabeamento entre os nós e o C2 é desconetado do C2 e reconetado ao SW2.

  • O interrutor C1 é substituído pelo interrutor SW1.

    • Encerre as portas para os nós de cluster. Todas as portas devem ser fechadas simultaneamente para evitar a instabilidade do cluster.

    • O cabeamento entre os nós e o C1 é desconetado do C1 e reconetado ao SW1.

Passo 1: Prepare-se para a migração

  1. Se o AutoSupport estiver ativado neste cluster, suprimir a criação automática de casos invocando uma mensagem AutoSupport:

    system node autosupport invoke -node * -type all -message MAINT=xh

    onde x é a duração da janela de manutenção em horas.

  2. Altere o nível de privilégio para avançado, inserindo y quando solicitado a continuar:

    set -privilege advanced

    É apresentado o aviso avançado (*>).

  3. Desativar a reversão automática nos LIFs do cluster:

    network interface modify -vserver Cluster -lif * -auto-revert false

Etapa 2: Configurar portas e cabeamento

  1. Determine o status administrativo ou operacional de cada interface de cluster.

    Cada porta deve ser exibida para Link e saudável para Health Status.

    1. Exibir os atributos da porta de rede:

      network port show -ipspace Cluster

      Mostrar exemplo
      cluster1::*> network port show -ipspace Cluster
      
      Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
      
      Node: node2
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    2. Exibir informações sobre as interfaces lógicas e seus nós iniciais designados:

      network interface show -vserver Cluster

      Cada LIF deve ser exibido up/up para Status Admin/Oper e verdadeiro para Is Home.

    Mostrar exemplo
    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current     Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node        Port    Home
    ----------- -----------  ---------- ------------------ ----------- ------- ----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1       e3a     true
                node1_clus2  up/up      169.254.49.125/16  node1       e3b     true
                node2_clus1  up/up      169.254.47.194/16  node2       e3a     true
                node2_clus2  up/up      169.254.19.183/16  node2       e3b     true
  2. As portas de cluster em cada nó são conetadas aos switches de cluster existentes da seguinte maneira (da perspetiva dos nós):

    network device-discovery show -protocol lldp

    Mostrar exemplo
    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /lldp
                e3a    c1 (6a:ad:4f:98:3b:3f)    Eth1/1            -
                e3b    c2 (6a:ad:4f:98:4c:a4)    Eth1/1            -
    node2      /lldp
                e3a    c1 (6a:ad:4f:98:3b:3f)    Eth1/2            -
                e3b    c2 (6a:ad:4f:98:4c:a4)    Eth1/2            -
  3. As portas e os switches do cluster são conetados da seguinte maneira (da perspetiva dos switches):

    show cdp neighbors

    Mostrar exemplo
    c1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 Eth1/1         124   H           AFF-A400         e3a
    node2                 Eth1/2         124   H           AFF-A400         e3a
    c2                    Eth1/31        179   S I s       N3K-C3232C       Eth1/31
    c2                    Eth1/32        175   S I s       N3K-C3232C       Eth1/32
    
    c2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 Eth1/1        124    H           AFF-A400         e3b
    node2                 Eth1/2        124    H           AFF-A400         e3b
    c1                    Eth1/31       175    S I s       N3K-C3232C       Eth1/31
    c1                    Eth1/32       175    S I s       N3K-C3232C       Eth1/32
  4. Verifique a conectividade das interfaces de cluster remotas:

ONTAP 9.9,1 e posterior

Você pode usar o network interface check cluster-connectivity comando para iniciar uma verificação de acessibilidade para conetividade de cluster e, em seguida, exibir os detalhes:

network interface check cluster-connectivity start e network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

NOTA: espere alguns segundos antes de executar o show comando para exibir os detalhes.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Todos os lançamentos do ONTAP

Para todas as versões do ONTAP, você também pode usar o cluster ping-cluster -node <name> comando para verificar a conetividade:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e3a
Cluster node1_clus2 169.254.49.125 node1     e3b
Cluster node2_clus1 169.254.47.194 node2     e3a
Cluster node2_clus2 169.254.19.183 node2     e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. no switch C2, encerre as portas conetadas às portas do cluster dos nós para fazer failover dos LIFs do cluster.

    (c2)# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    
    (c2)(Config)# interface
    (c2)(config-if-range)# shutdown <interface_list>
    (c2)(config-if-range)# exit
    (c2)(Config)# exit
    (c2)#
  2. Mova as portas do cluster de nós do switch antigo C2 para o novo switch SW2, usando o cabeamento apropriado suportado pelo NVIDIA SN2100.

  3. Exibir os atributos da porta de rede:

    network port show -ipspace Cluster

    Mostrar exemplo
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  4. As portas do cluster em cada nó agora são conetadas aos switches do cluster da seguinte maneira, da perspetiva dos nós:

    Mostrar exemplo
    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   Eth1/1            -
                e3b    sw2 (b8:ce:f6:19:1a:7e)   swp3              -
    node2      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   Eth1/2            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4              -
  5. No switch SW2, verifique se todas as portas do cluster de nós estão ativas:

    net show interface

    Mostrar exemplo
    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  6. No switch C1, encerre as portas conetadas às portas do cluster dos nós para fazer failover das LIFs do cluster.

    (c1)# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    
    (c1)(Config)# interface
    (c1)(config-if-range)# shutdown <interface_list>
    (c1)(config-if-range)# exit
    (c1)(Config)# exit
    (c1)#
  7. Mova as portas do cluster de nós do switch antigo C1 para o novo switch SW1, usando o cabeamento apropriado suportado pelo NVIDIA SN2100.

  8. Verifique a configuração final do cluster:

    network port show -ipspace Cluster

    Cada porta deve ser exibida up para Link e saudável para Health Status.

    Mostrar exemplo
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  9. As portas do cluster em cada nó agora são conetadas aos switches do cluster da seguinte maneira, da perspetiva dos nós:

    Mostrar exemplo
    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface       Platform
    ----------- ------ ------------------------- --------------  ----------------
    node1      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp3            -
    node2      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4            -
  10. Nos switches SW1 e SW2, verifique se todas as portas do cluster de nós estão ativas:

    net show interface

    Mostrar exemplo
    cumulus@sw1:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw2 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw2 (swp16)       Master: cluster_isl(UP)
    
    
    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- -----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  11. Verifique se ambos os nós têm uma conexão com cada switch:

    net show lldp

    Mostrar exemplo

    O exemplo a seguir mostra os resultados apropriados para ambos os switches:

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3a
    swp4       100G   Trunk/L2    node2               e3a
    swp15      100G   BondMember  sw2                 swp15
    swp16      100G   BondMember  sw2                 swp16
    
    cumulus@sw2:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3b
    swp4       100G   Trunk/L2    node2               e3b
    swp15      100G   BondMember  sw1                 swp15
    swp16      100G   BondMember  sw1                 swp16

Etapa 3: Verifique a configuração

  1. Ativar a reversão automática nos LIFs do cluster:

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  2. Verifique se todas as LIFs de rede do cluster estão de volta em suas portas domésticas:

    network interface show

    Mostrar exemplo
    cluster1::*> network interface show -vserver Cluster
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
                node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
                node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
                node2_clus2  up/up    169.254.19.183/16  node2         e3b     true
  3. Altere o nível de privilégio de volta para admin:

    set -privilege admin

  4. Se você suprimiu a criação automática de casos, reative-a invocando uma mensagem AutoSupport:

    system node autosupport invoke -node * -type all -message MAINT=END