Skip to main content
O português é fornecido por meio de tradução automática para sua conveniência. O inglês precede o português em caso de inconsistências.

Migrar de um switch de cluster Cisco para um switch de cluster NVIDIA SN2100

Colaboradores netapp-yvonneo netapp-jolieg

Você pode migrar switches de cluster Cisco de um cluster ONTAP para switches de cluster NVIDIA SN2100. Este é um procedimento não disruptivo.

Requisitos de revisão

É preciso estar ciente de certas informações de configuração, conexões de porta e requisitos de cabeamento ao substituir switches de cluster Cisco mais antigos por switches de cluster NVIDIA SN2100. Ver"Visão geral da instalação e configuração dos switches NVIDIA SN2100" .

Interruptores suportados

Os seguintes switches de cluster da Cisco são suportados:

  • Nexus 9336C-FX2

  • Nexus 92300YC

  • Nexus 5596UP

  • Nexus 3232C

  • Nexus 3132Q-V

Para obter detalhes sobre as portas suportadas e suas configurações, consulte o "Hardware Universe" .

O que você vai precisar

Assegure-se de que:

  • O cluster existente está configurado corretamente e funcionando.

  • Todas as portas do cluster estão no estado ativo para garantir operações sem interrupções.

  • Os switches de cluster NVIDIA SN2100 estão configurados e operando sob a versão adequada do Cumulus Linux instalada com o arquivo de configuração de referência (RCF) aplicado.

  • A configuração de rede do cluster existente apresenta as seguintes características:

    • Um cluster NetApp redundante e totalmente funcional, utilizando switches Cisco mais antigos.

    • Conectividade de gerenciamento e acesso ao console tanto para os switches Cisco mais antigos quanto para os novos.

    • Todas as LIFs do cluster estão ativas e conectadas às suas portas de origem.

    • As portas ISL foram habilitadas e cabeadas entre os switches Cisco mais antigos e entre os novos switches.

  • Algumas portas dos switches NVIDIA SN2100 estão configuradas para operar em 40 GbE ou 100 GbE.

  • Você planejou, migrou e documentou a conectividade de 40 GbE e 100 GbE dos nós para os switches de cluster NVIDIA SN2100.

Observação Se você estiver alterando a velocidade das portas de cluster e0a e e1a nos sistemas AFF A800 ou AFF C800 , poderá observar o recebimento de pacotes malformados após a conversão de velocidade. Ver "Erro 1570339" e o artigo da Base de Conhecimento "Erros de CRC em portas T6 após conversão de 40GbE para 100GbE" para orientação.

Migre os switches

Sobre os exemplos

Neste procedimento, os switches de cluster Cisco Nexus 3232C são usados ​​como exemplos de comandos e saídas.

Os exemplos neste procedimento utilizam a seguinte nomenclatura de interruptor e nó:

  • Os switches de cluster Cisco Nexus 3232C existentes são c1 e c2.

  • Os novos switches de cluster NVIDIA SN2100 são sw1 e sw2.

  • Os nós são node1 e node2.

  • Os LIFs do cluster são node1_clus1 e node1_clus2 no nó 1, e node2_clus1 e node2_clus2 no nó 2, respectivamente.

  • O cluster1::*> O prompt indica o nome do cluster.

  • As portas de cluster usadas neste procedimento são e3a e e3b.

  • As portas de breakout têm o seguinte formato: swp[porta]s[porta de breakout 0-3]. Por exemplo, quatro portas breakout em swp1 são swp1s0, swp1s1, swp1s2 e swp1s3.

Sobre esta tarefa

Este procedimento abrange o seguinte cenário:

  • O interruptor c2 é substituído primeiro pelo interruptor sw2.

    • Desative as portas dos nós do cluster. Todas as portas devem ser desligadas simultaneamente para evitar instabilidade no cluster.

    • A fiação entre os nós e o c2 é então desconectada do c2 e reconectada ao sw2.

  • O interruptor c1 é substituído pelo interruptor sw1.

    • Desative as portas dos nós do cluster. Todas as portas devem ser desligadas simultaneamente para evitar instabilidade no cluster.

    • A fiação entre os nós e c1 é então desconectada de c1 e reconectada a sw1.

Etapa 1: Prepare-se para a migração

  1. Se o AutoSupport estiver ativado neste cluster, suprima a criação automática de casos invocando uma mensagem do AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=xh

    onde x é a duração da janela de manutenção em horas.

  2. Altere o nível de privilégio para avançado, digitando y quando solicitado a continuar:

    set -privilege advanced

    A mensagem avançada (*>) é exibida.

  3. Desativar a reversão automática nas LIFs do cluster:

    network interface modify -vserver Cluster -lif * -auto-revert false

Etapa 2: Configurar portas e cabos

  1. Determine o status administrativo ou operacional de cada interface de cluster.

    Cada porta deve aparecer para cima. Link e saudável para Health Status .

    1. Exibir os atributos da porta de rede:

      network port show -ipspace Cluster

      Mostrar exemplo
      cluster1::*> network port show -ipspace Cluster
      
      Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
      
      Node: node2
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    2. Exibir informações sobre as interfaces lógicas e seus respectivos nós de origem:

      network interface show -vserver Cluster

      Cada LIF deve exibir up/up para Status Admin/Oper e é verdade para Is Home .

    Mostrar exemplo
    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current     Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node        Port    Home
    ----------- -----------  ---------- ------------------ ----------- ------- ----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1       e3a     true
                node1_clus2  up/up      169.254.49.125/16  node1       e3b     true
                node2_clus1  up/up      169.254.47.194/16  node2       e3a     true
                node2_clus2  up/up      169.254.19.183/16  node2       e3b     true
  2. As portas do cluster em cada nó estão conectadas aos switches de cluster existentes da seguinte forma (da perspectiva dos nós):

    network device-discovery show -protocol lldp

    Mostrar exemplo
    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /lldp
                e3a    c1 (6a:ad:4f:98:3b:3f)    Eth1/1            -
                e3b    c2 (6a:ad:4f:98:4c:a4)    Eth1/1            -
    node2      /lldp
                e3a    c1 (6a:ad:4f:98:3b:3f)    Eth1/2            -
                e3b    c2 (6a:ad:4f:98:4c:a4)    Eth1/2            -
  3. As portas e switches do cluster estão conectados da seguinte forma (do ponto de vista dos switches):

    show cdp neighbors

    Mostrar exemplo
    c1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 Eth1/1         124   H           AFF-A400         e3a
    node2                 Eth1/2         124   H           AFF-A400         e3a
    c2                    Eth1/31        179   S I s       N3K-C3232C       Eth1/31
    c2                    Eth1/32        175   S I s       N3K-C3232C       Eth1/32
    
    c2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 Eth1/1        124    H           AFF-A400         e3b
    node2                 Eth1/2        124    H           AFF-A400         e3b
    c1                    Eth1/31       175    S I s       N3K-C3232C       Eth1/31
    c1                    Eth1/32       175    S I s       N3K-C3232C       Eth1/32
  4. Verifique a conectividade das interfaces do cluster remoto:

ONTAP 9.9.1 e posterior

Você pode usar o network interface check cluster-connectivity Comando para iniciar uma verificação de acessibilidade para conectividade do cluster e, em seguida, exibir os detalhes:

network interface check cluster-connectivity start`e `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

NOTA: Aguarde alguns segundos antes de executar o show comando para exibir os detalhes.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Todas as versões do ONTAP

Para todas as versões do ONTAP , você também pode usar o cluster ping-cluster -node <name> comando para verificar a conectividade:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e3a
Cluster node1_clus2 169.254.49.125 node1     e3b
Cluster node2_clus1 169.254.47.194 node2     e3a
Cluster node2_clus2 169.254.19.183 node2     e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. [[passo 5]] No switch c2, desligue as portas conectadas às portas do cluster dos nós para realizar o failover dos LIFs do cluster.

    (c2)# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    
    (c2)(Config)# interface
    (c2)(config-if-range)# shutdown <interface_list>
    (c2)(config-if-range)# exit
    (c2)(Config)# exit
    (c2)#
  2. Mova as portas do cluster de nós do switch antigo c2 para o novo switch sw2, usando a cablagem apropriada compatível com o NVIDIA SN2100.

  3. Exibir os atributos da porta de rede:

    network port show -ipspace Cluster

    Mostrar exemplo
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  4. As portas do cluster em cada nó agora estão conectadas aos switches do cluster da seguinte maneira, da perspectiva dos nós:

    Mostrar exemplo
    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   Eth1/1            -
                e3b    sw2 (b8:ce:f6:19:1a:7e)   swp3              -
    node2      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   Eth1/2            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4              -
  5. No switch sw2, verifique se todas as portas do cluster de nós estão ativas:

    net show interface

    Mostrar exemplo
    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  6. No switch c1, desligue as portas conectadas às portas do cluster dos nós para realizar o failover das LIFs do cluster.

    (c1)# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    
    (c1)(Config)# interface
    (c1)(config-if-range)# shutdown <interface_list>
    (c1)(config-if-range)# exit
    (c1)(Config)# exit
    (c1)#
  7. Mova as portas do cluster de nós do switch antigo c1 para o novo switch sw1, usando a cablagem apropriada compatível com o NVIDIA SN2100.

  8. Verifique a configuração final do cluster:

    network port show -ipspace Cluster

    Cada porta deve exibir up para Link e saudável para Health Status .

    Mostrar exemplo
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  9. As portas do cluster em cada nó agora estão conectadas aos switches do cluster da seguinte maneira, da perspectiva dos nós:

    Mostrar exemplo
    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface       Platform
    ----------- ------ ------------------------- --------------  ----------------
    node1      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp3            -
    node2      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4            -
  10. Nos switches sw1 e sw2, verifique se todas as portas do cluster de nós estão ativas:

    net show interface

    Mostrar exemplo
    cumulus@sw1:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw2 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw2 (swp16)       Master: cluster_isl(UP)
    
    
    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- -----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  11. Verifique se ambos os nós possuem uma conexão com cada switch:

    net show lldp

    Mostrar exemplo

    O exemplo a seguir mostra os resultados apropriados para ambas as opções:

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3a
    swp4       100G   Trunk/L2    node2               e3a
    swp15      100G   BondMember  sw2                 swp15
    swp16      100G   BondMember  sw2                 swp16
    
    cumulus@sw2:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3b
    swp4       100G   Trunk/L2    node2               e3b
    swp15      100G   BondMember  sw1                 swp15
    swp16      100G   BondMember  sw1                 swp16

Etapa 3: Verifique a configuração

  1. Ativar reversão automática nos LIFs do cluster:

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  2. No switch sw2, desligue e reinicie todas as portas do cluster para acionar uma reversão automática de todas as LIFs do cluster que não estejam em suas portas de origem.

Cumulus 4.4.3
cumulus@sw2:mgmt:~$ net add interface swp1-14 link down
cumulus@sw2:mgmt:~$ net pending
cumulus@sw2:mgmt:~$ net commit

(Wait for 5-10 seconds before re-enabling the ports)

cumulus@sw2:mgmt:~$ net add interface swp1-14 link up
cumulus@sw2:mgmt:~$ net pending
cumulus@sw2:mgmt:~$ net commit

(After executing the link state up command, the nodes detect the change and begin to auto-revert the cluster LIFs to their home ports)
Cumulus 5.x
cumulus@sw2:mgmt:~$ nv set interface swp1-14 link state down
cumulus@sw2:mgmt:~$ nv config apply
cumulus@sw2:mgmt:~$ nv show interface

(Wait for 5-10 seconds before re-enabling the ports)

cumulus@sw2:mgmt:~$ nv set interface swp1-14 link state up
cumulus@sw2:mgmt:~$ nv config apply
cumulus@sw2:mgmt:~$ nv show interface

(After executing the link state up command, the nodes detect the change and begin to auto-revert the cluster LIFs to their home ports)
  1. [[passo 3]]Verifique se as LIFs do cluster retornaram às suas portas originais (isso pode levar um minuto):

    network interface show -vserver Cluster

    Se alguma das LIFs do cluster não tiver retornado à sua porta original, reverta-as manualmente. Você deve se conectar a cada console de gerenciamento de nó LIF ou SP/ BMC do nó local que possui o LIF:

    network interface revert -vserver Cluster -lif *

  2. Altere o nível de privilégio de volta para administrador:

    set -privilege admin

  3. Se você desativou a criação automática de casos, reative-a enviando uma mensagem do AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=END

O que vem a seguir?

Depois de migrar seus switches, você pode "configurar monitoramento de integridade do switch".