Skip to main content
Cluster and storage switches
O português é fornecido por meio de tradução automática para sua conveniência. O inglês precede o português em caso de inconsistências.

Migre de um switch de cluster Cisco para um switch de cluster NVIDIA SN2100

Colaboradores

Você pode migrar switches de cluster Cisco sem interrupções para um cluster ONTAP para switches de cluster NVIDIA SN2100. Você deve estar ciente de certas informações de configuração, conexões de portas e requisitos de cabeamento ao substituir alguns switches de cluster Cisco mais antigos por switches de cluster NVIDIA SN2100.

Os seguintes switches de cluster Cisco são suportados:

  • Nexus 9336C-FX2

  • Nexus 92300YC

  • Nexus 5596UP

  • Nexus 3232C

  • Nexus 3132Q-V

Antes de começar

Você pode migrar os switches de cluster Cisco mais antigos sem interrupções para um cluster ONTAP para os switches de cluster do NVIDIA SN2100.

  • O cluster existente deve estar configurado e funcionando corretamente.

  • Todas as portas de cluster devem estar no estado operacional para garantir operações ininterruptas.

  • Os switches de cluster do NVIDIA SN2100 devem ser configurados e operando sob a versão adequada do Cumulus Linux instalado com o arquivo de configuração de referência (RCF) aplicado.

  • A configuração de rede de cluster existente deve ter o seguinte:

    • Um cluster NetApp redundante e totalmente funcional usando ambos os switches Cisco mais antigos.

    • Conetividade de gerenciamento e acesso ao console aos switches Cisco mais antigos e aos novos switches.

    • Todas as LIFs de cluster no estado up com os LIfs de cluster estão em suas portas iniciais.

    • Portas ISL ativadas e cabeadas entre os switches Cisco mais antigos e entre os novos switches.

  • Consulte o "Hardware Universe" para obter detalhes completos sobre as portas suportadas e respetivas configurações.

  • Você configurou algumas das portas nos switches NVIDIA SN2100 para serem executadas a 40 GbE ou 100 GbE.

  • Você planejou, migrou e documentou a conectividade de 40 GbE e 100 GbE de nós para os switches de cluster NVIDIA SN2100.

    Observação Neste procedimento, os switches de cluster Cisco Nexus 3232C são usados, por exemplo, comandos e saídas.
Sobre esta tarefa

Os exemplos deste procedimento utilizam a seguinte nomenclatura de switch e nó:

  • Os switches de cluster Cisco Nexus 3232C existentes são C1 e C2.

  • Os novos switches de cluster do NVIDIA SN2100 são SW1 e SW2.

  • Os nós são node1 e node2.

  • Os LIFs de cluster são node1_clus1 e node1_clus2 no nó 1 e node2_clus1 e node2_clus2 no nó 2 respetivamente.

  • O cluster1::*> prompt indica o nome do cluster.

  • As portas de cluster usadas neste procedimento são E3A e e3b.

  • As portas breakout tomam o formato: swp[port]s[breakout port 0-3]. Por exemplo, quatro portas breakout no swp1 são swp1s0, swp1s1, swp1s2 e swp1s3.

  • O interrutor C2 é substituído primeiro pelo interrutor SW2 e, em seguida, o interrutor C1 é substituído pelo interrutor SW1.

    • O cabeamento entre os nós e o C2 é desconetado do C2 e reconetado ao SW2.

    • O cabeamento entre os nós e o C1 é desconetado do C1 e reconetado ao SW1.

Passos
  1. Se o AutoSupport estiver ativado neste cluster, suprimir a criação automática de casos invocando uma mensagem AutoSupport: system node autosupport invoke -node * -type all -message MAINT=xh

    onde x é a duração da janela de manutenção em horas.

  2. Altere o nível de privilégio para avançado, inserindo y quando solicitado a continuar: set -privilege advanced

    É apresentado o aviso avançado (*>).

  3. Desativar a reversão automática nos LIFs do cluster: network interface modify -vserver Cluster -lif * -auto-revert false

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
    
    Warning: Disabling the auto-revert feature of the cluster logical interface may effect the availability of your cluster network. Are you sure you want to continue? {y|n}: y
  4. Determine o status administrativo ou operacional de cada interface de cluster:

    Cada porta deve ser exibida para Link e saudável para Health Status.

    1. Exibir os atributos da porta de rede: network port show -ipspace Cluster

      cluster1::*> network port show -ipspace Cluster
      
      Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
      
      Node: node2
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    2. Exibir informações sobre as interfaces lógicas e seus nós iniciais designados: network interface show -vserver Cluster

      Cada LIF deve exibir up/up para Status Admin/Oper e true para Is Home.

    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current     Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node        Port    Home
    ----------- -----------  ---------- ------------------ ----------- ------- ----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1       e3a     true
                node1_clus2  up/up      169.254.49.125/16  node1       e3b     true
                node2_clus1  up/up      169.254.47.194/16  node2       e3a     true
                node2_clus2  up/up      169.254.19.183/16  node2       e3b     true
  5. As portas de cluster em cada nó são conetadas aos switches de cluster existentes da seguinte maneira (da perspetiva dos nós) usando o comando: network device-discovery show -protocol lldp

    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /lldp
                e3a    c1 (6a:ad:4f:98:3b:3f)    Eth1/1            -
                e3b    c2 (6a:ad:4f:98:4c:a4)    Eth1/1            -
    node2      /lldp
                e3a    c1 (6a:ad:4f:98:3b:3f)    Eth1/2            -
                e3b    c2 (6a:ad:4f:98:4c:a4)    Eth1/2            -
  6. As portas e os switches do cluster são conetados da seguinte maneira (da perspetiva dos switches) usando o comando: show cdp neighbors

    c1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 Eth1/1         124   H           AFF-A400         e3a
    node2                 Eth1/2         124   H           AFF-A400         e3a
    c2                    Eth1/31        179   S I s       N3K-C3232C       Eth1/31
    c2                    Eth1/32        175   S I s       N3K-C3232C       Eth1/32
    
    c2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 Eth1/1        124    H           AFF-A400         e3b
    node2                 Eth1/2        124    H           AFF-A400         e3b
    c1                    Eth1/31       175    S I s       N3K-C3232C       Eth1/31
    c1                    Eth1/32       175    S I s       N3K-C3232C       Eth1/32
  7. Verifique a conectividade das interfaces de cluster remotas:

ONTAP 9.9,1 e posterior

Você pode usar o network interface check cluster-connectivity comando para iniciar uma verificação de acessibilidade para conetividade de cluster e, em seguida, exibir os detalhes:

network interface check cluster-connectivity start e network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

NOTA: espere alguns segundos antes de executar o show comando para exibir os detalhes.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Todos os lançamentos do ONTAP

Para todas as versões do ONTAP, você também pode usar o cluster ping-cluster -node <name> comando para verificar a conetividade:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e3a
Cluster node1_clus2 169.254.49.125 node1     e3b
Cluster node2_clus1 169.254.47.194 node2     e3a
Cluster node2_clus2 169.254.19.183 node2     e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. no switch C2, encerre as portas conetadas às portas do cluster dos nós.

    (c2)# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    
    (c2)(Config)# interface
    (c2)(config-if-range)# shutdown <interface_list>
    (c2)(config-if-range)# exit
    (c2)(Config)# exit
    (c2)#
  2. Mova as portas do cluster de nós do switch antigo C2 para o novo switch SW2, usando o cabeamento apropriado suportado pelo NVIDIA SN2100.

  3. Exibir os atributos da porta de rede: network port show -ipspace Cluster

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  4. As portas do cluster em cada nó agora são conetadas aos switches do cluster da seguinte maneira, da perspetiva dos nós:

    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   Eth1/1            -
                e3b    sw2 (b8:ce:f6:19:1a:7e)   swp3              -
    node2      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   Eth1/2            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4              -
  5. No switch SW2, verifique se todas as portas do cluster de nós estão ativas: net show interface

    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  6. No switch C1, encerre as portas conetadas às portas do cluster dos nós.

    (c1)# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    
    (c1)(Config)# interface
    (c1)(config-if-range)# shutdown <interface_list>
    (c1)(config-if-range)# exit
    (c1)(Config)# exit
    (c1)#
  7. Mova as portas do cluster de nós do switch antigo C1 para o novo switch SW1, usando o cabeamento apropriado suportado pelo NVIDIA SN2100.

  8. Verifique a configuração final do cluster: network port show -ipspace Cluster

    Cada porta deve ser exibida para Link e saudável para Health Status.

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  9. As portas do cluster em cada nó agora são conetadas aos switches do cluster da seguinte maneira, da perspetiva dos nós:

    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface       Platform
    ----------- ------ ------------------------- --------------  ----------------
    node1      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp3            -
    node2      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4            -
  10. Nos switches SW1 e SW2, verifique se todas as portas do cluster de nós estão ativas: net show interface

    cumulus@sw1:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw2 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw2 (swp16)       Master: cluster_isl(UP)
    
    
    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- -----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  11. Verifique se ambos os nós têm uma conexão com cada switch: net show lldp

    O exemplo a seguir mostra os resultados apropriados para ambos os switches:

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3a
    swp4       100G   Trunk/L2    node2               e3a
    swp15      100G   BondMember  sw2                 swp15
    swp16      100G   BondMember  sw2                 swp16
    
    cumulus@sw2:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3b
    swp4       100G   Trunk/L2    node2               e3b
    swp15      100G   BondMember  sw1                 swp15
    swp16      100G   BondMember  sw1                 swp16
  12. Ativar a reversão automática nos LIFs do cluster: cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  13. Verifique se todas as LIFs de rede do cluster estão de volta em suas portas domésticas: network interface show

    cluster1::*> network interface show -vserver Cluster
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
                node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
                node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
                node2_clus2  up/up    169.254.19.183/16  node2         e3b     true
  14. Ative o recurso de coleta de logs do monitor de integridade do switch Ethernet para coletar arquivos de log relacionados ao switch, usando os dois comandos: system switch ethernet log setup-password E. system switch ethernet log enable-collection

    Introduza: system switch ethernet log setup-password

    cluster1::*> system switch ethernet log setup-password
    Enter the switch name: <return>
    The switch name entered is not recognized.
    Choose from the following list:
    sw1
    sw2
    
    cluster1::*> system switch ethernet log setup-password
    
    Enter the switch name: sw1
    RSA key fingerprint is e5:8b:c6:dc:e2:18:18:09:36:63:d9:63:dd:03:d9:cc
    Do you want to continue? {y|n}::[n] y
    
    Enter the password: <enter switch password>
    Enter the password again: <enter switch password>
    
    cluster1::*> system switch ethernet log setup-password
    
    Enter the switch name: sw2
    RSA key fingerprint is 57:49:86:a1:b9:80:6a:61:9a:86:8e:3c:e3:b7:1f:b1
    Do you want to continue? {y|n}:: [n] y
    
    Enter the password: <enter switch password>
    Enter the password again: <enter switch password>

    Seguido por: system switch ethernet log enable-collection

    cluster1::*> system  switch ethernet log enable-collection
    
    Do you want to enable cluster log collection for all nodes in the cluster?
    {y|n}: [n] y
    
    Enabling cluster switch log collection.
    
    cluster1::*>
    Observação Se algum desses comandos retornar um erro, entre em Contato com o suporte do NetApp.
  15. Inicie o recurso de coleta de logs de switch: system switch ethernet log collect -device *

    Aguarde 10 minutos e, em seguida, verifique se a coleção de logs foi bem-sucedida usando o comando: system switch ethernet log show

    cluster1::*> system switch ethernet log show
    Log Collection Enabled: true
    
    Index  Switch                       Log Timestamp        Status
    ------ ---------------------------- -------------------  ---------    
    1      sw1 (b8:ce:f6:19:1b:42)      4/29/2022 03:05:25   complete   
    2      sw2 (b8:ce:f6:19:1b:96)      4/29/2022 03:07:42   complete
  16. Altere o nível de privilégio de volta para admin: set -privilege admin

  17. Se você suprimiu a criação automática de casos, reative-a invocando uma mensagem AutoSupport: system node autosupport invoke -node * -type all -message MAINT=END