Skip to main content
Cluster and storage switches
Se proporciona el idioma español mediante traducción automática para su comodidad. En caso de alguna inconsistencia, el inglés precede al español.

Sustituya un conmutador de clúster NVIDIA SN2100

Colaboradores

Siga este procedimiento para sustituir un conmutador NVIDIA SN2100 defectuoso en una red de clúster. Este es un procedimiento no disruptivo (NDU).

Revise los requisitos

Infraestructura de red y clúster existente

Asegúrese de que:

  • El clúster existente se ha verificado como completamente funcional, con al menos un switch de clúster completamente conectado.

  • Todos los puertos del clúster están activos.

  • Todas las interfaces lógicas de clúster (LIF) están en funcionamiento y en sus puertos raíz.

  • La ONTAP cluster ping-cluster -node node1 El comando indica que la conectividad básica y la comunicación más grande que PMTU se realizan correctamente en todas las rutas.

Conmutador de sustitución NVIDIA SN2100

Asegúrese de que:

  • La conectividad de la red de gestión en el switch de reemplazo es funcional.

  • El acceso de la consola al interruptor de sustitución está en su lugar.

  • Las conexiones de nodos son los puertos swp1 a swp14.

  • Todos los puertos de enlace entre switches (ISL) están deshabilitados en los puertos swp15 y swp16.

  • El archivo de configuración de referencia (RCF) y el interruptor de imagen del sistema operativo Cumulus se cargan en el conmutador.

  • Se ha completado la personalización inicial del conmutador.

Asegúrese también de que cualquier personalización de sitio anterior, como STP, SNMP y SSH, se copie al nuevo switch.

Nota Debe ejecutar el comando para migrar una LIF de clúster desde el nodo donde se aloja la LIF del clúster.

Sustituya el interruptor

Acerca de los ejemplos

Los ejemplos de este procedimiento utilizan la nomenclatura de conmutador y nodo siguiente:

  • Los nombres de los conmutadores NVIDIA SN2100 existentes son sw1 y sw2.

  • El nombre del nuevo switch NVIDIA SN2100 es nsw2.

  • Los nombres de nodo son 1 y 2.

  • Los puertos de clúster de cada nodo se denominan e3a y e3b.

  • Los nombres de LIF del clúster son 1_clus1 y 1_clus2 para los nodos 1, y 2_clus1 y 2_clus2 para los nodos 2.

  • El prompt de cambios en todos los nodos del clúster es cluster1::*>

  • Los puertos de arranque tienen el formato: swp[Port]s[breakout Port 0-3]. Por ejemplo, cuatro puertos de arranque en swp1 son swp1s0, swp1s1, swp1s2 y swp1s3.

Acerca de la topología de red del clúster

Este procedimiento se basa en la siguiente topología de red de clúster:

Mostrar topología de ejemplo
cluster1::*> network port show -ipspace Cluster

Node: node1
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false

Node: node2
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false


cluster1::*> network interface show -vserver Cluster

            Logical    Status     Network            Current       Current Is
Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
----------- ---------- ---------- ------------------ ------------- ------- ----
Cluster
            node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
            node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
            node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
            node2_clus2  up/up    169.254.19.183/16  node2         e3b     true


cluster1::*> network device-discovery show -protocol lldp
Node/       Local  Discovered
Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
----------- ------ ------------------------- ------------  ----------------
node1      /lldp
            e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3          -
            e3b    sw2 (b8:ce:f6:19:1b:96)   swp3          -
node2      /lldp
            e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4          -
            e3b    sw2 (b8:ce:f6:19:1b:96)   swp4          -

+

cumulus@sw1:~$ net show lldp

LocalPort  Speed  Mode        RemoteHost         RemotePort
---------  -----  ----------  -----------------  -----------
swp3       100G   Trunk/L2    sw2                e3a
swp4       100G   Trunk/L2    sw2                e3a
swp15      100G   BondMember  sw2                swp15
swp16      100G   BondMember  sw2                swp16


cumulus@sw2:~$ net show lldp

LocalPort  Speed  Mode        RemoteHost         RemotePort
---------  -----  ----------  -----------------  -----------
swp3       100G   Trunk/L2    sw1                e3b
swp4       100G   Trunk/L2    sw1                e3b
swp15      100G   BondMember  sw1                swp15
swp16      100G   BondMember  sw1                swp16

Paso 1: Prepararse para la sustitución

  1. Si se habilita AutoSupport en este clúster, elimine la creación automática de casos invocando un mensaje de AutoSupport:

    system node autosupport invoke -node * -type all -message MAINT=xh

    donde x es la duración de la ventana de mantenimiento en horas.

  2. Cambie el nivel de privilegio a avanzado, introduciendo y cuando se le solicite continuar:

    set -privilege advanced

    Aparece el mensaje avanzado (*>).

  3. Instale el RCF y la imagen adecuados en el interruptor, nsw2, y realice las preparaciones necesarias del sitio.

    Si es necesario, verifique, descargue e instale las versiones apropiadas del software RCF y Cumulus para el nuevo interruptor.

    1. Puede descargar el software Cumulus correspondiente para los switches de clúster del sitio NVIDIA Support. Siga los pasos de la página de descarga para descargar Cumulus Linux para la versión del software ONTAP que está instalando.

    2. El RCF adecuado está disponible en "Cluster de NVIDIA y switches de almacenamiento" página. Siga los pasos de la página de descarga para descargar el RCF correcto para la versión del software ONTAP que está instalando.

Paso 2: Configure los puertos y el cableado

  1. En el nuevo switch nsw2, inicie sesión como administrador y apague todos los puertos que se conectarán a las interfaces de clúster del nodo (puertos swp1 a swp14).

    Los LIF de los nodos del clúster ya deberían haber realizado la conmutación al otro puerto del clúster para cada nodo.

    Muestra el ejemplo
    cumulus@nsw2:~$ net add interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@nsw2:~$ net pending
    cumulus@nsw2:~$ net commit
  2. Deshabilite la reversión automática en las LIF del clúster:

    network interface modify -vserver Cluster -lif * -auto-revert false

    Muestra el ejemplo
    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
    
    Warning: Disabling the auto-revert feature of the cluster logical interface may effect the availability of your cluster network. Are you sure you want to continue? {y|n}: y
  3. Compruebe que todas las LIF del clúster tengan la reversión automática habilitada:

    net interface show -vserver Cluster -fields auto-revert

  4. Apague los puertos ISL swp15 y swp16 en el conmutador SN2100 sw1.

    Muestra el ejemplo
    cumulus@sw1:~$ net add interface swp15-16 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit
  5. Retire todos los cables del conmutador SN2100 sw1 y, a continuación, conéctelos a los mismos puertos del conmutador SN2100 nsw2.

  6. Suba los puertos ISL swp15 y swp16 entre los switches sw1 y nsw2.

    Muestra el ejemplo

    Los siguientes comandos habilitan los puertos ISL swp15 y swp16 en el switch sw1:

    cumulus@sw1:~$ net del interface swp15-16 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit

    En el siguiente ejemplo, se muestra que los puertos ISL están activos en la switch sw1:

    cumulus@sw1:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------- ----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  nsw2 (swp15)   Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  nsw2 (swp16)   Master: cluster_isl(UP)

    + el siguiente ejemplo muestra que los puertos ISL están activos en el switch nsw2:

    +

    cumulus@nsw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------  -----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  sw1 (swp15)    Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)    Master: cluster_isl(UP)
  7. Compruebe que el puerto e3b está activo en todos los nodos:

    network port show -ipspace Cluster

    Muestra el ejemplo

    La salida debe ser similar a la siguiente:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ----- ------------ -------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
    
    
    Node: node2
                                                                             Ignore
                                                       Speed(Mbps) Health    Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper  Status    Status
    --------- ------------ ---------------- ---- ----- ----------- --------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
  8. Los puertos de clúster de cada nodo ahora están conectados a los switches de clúster del siguiente modo, desde la perspectiva de los nodos:

    Muestra el ejemplo
    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
    ----------- ------ ------------------------- ------------  ----------------
    node1      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp3          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp3          -
    node2      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp4          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp4          -
  9. Compruebe que todos los puertos de clúster del nodo estén activos:

    net show interface

    Muestra el ejemplo
    cumulus@nsw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  10. Compruebe que ambos nodos tengan una conexión cada uno con cada switch:

    net show lldp

    Muestra el ejemplo

    En el siguiente ejemplo, se muestran los resultados adecuados para ambos switches:

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1              e3a
    swp4       100G   Trunk/L2    node2              e3a
    swp15      100G   BondMember  nsw2               swp15
    swp16      100G   BondMember  nsw2               swp16
    
    
    cumulus@nsw2:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1                e3b
    swp4       100G   Trunk/L2    node2                e3b
    swp15      100G   BondMember  sw1                swp15
    swp16      100G   BondMember  sw1                swp16
  11. Habilite la reversión automática en las LIF del clúster:

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  12. En el switch nsw2, conecte los puertos conectados a los puertos de red de los nodos.

    Muestra el ejemplo
    cumulus@nsw2:~$ net del interface swp1-14 link down
    cumulus@nsw2:~$ net pending
    cumulus@nsw2:~$ net commit
  13. Muestra información sobre los nodos de un clúster:

    cluster show

    Muestra el ejemplo

    En este ejemplo, se muestra que el estado del nodo para el nodo 1 y el nodo 2 en este clúster es TRUE.

    cluster1::*> cluster show
    
    Node          Health  Eligibility
    ------------- ------- ------------
    node1         true    true
    node2         true    true
  14. Compruebe que todos los puertos físicos del clúster estén en funcionamiento:

    network port show ipspace Cluster

    Muestra el ejemplo
    cluster1::*> network port show -ipspace Cluster
    
    Node node1                                                               Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace     Broadcast Domain  Link  MTU   Admin/Oper  Status   Status
    --------- ----------- ----------------- ----- ----- ----------- -------- ------
    e3a       Cluster     Cluster           up    9000  auto/10000  healthy  false
    e3b       Cluster     Cluster           up    9000  auto/10000  healthy  false
    
    Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link  MTU   Admin/Oper  Status   Status
    --------- ------------ ---------------- ----- ----- ----------- -------- ------
    e3a       Cluster      Cluster          up    9000  auto/10000  healthy  false
    e3b       Cluster      Cluster          up    9000  auto/10000  healthy  false

Paso 3: Complete el procedimiento

  1. Compruebe que la red de clúster esté en buen estado.

    Muestra el ejemplo
    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost      RemotePort
    ---------  -----  ----------  --------------  -----------
    swp3       100G   Trunk/L2    node1           e3a
    swp4       100G   Trunk/L2    node2           e3a
    swp15      100G   BondMember  nsw2            swp15
    swp16      100G   BondMember  nsw2            swp16
  2. Cree una contraseña para la función de recogida de registros de monitor de estado del switch Ethernet:

    system switch ethernet log setup-password

    Muestra el ejemplo
    cluster1::*> system switch ethernet log setup-password
    Enter the switch name: <return>
    The switch name entered is not recognized.
    Choose from the following list:
    cs1
    cs2
    
    cluster1::*> system switch ethernet log setup-password
    
    Enter the switch name: cs1
    Would you like to specify a user other than admin for log collection? {y|n}: n
    
    Enter the password: <enter switch password>
    Enter the password again: <enter switch password>
    
    cluster1::*> system switch ethernet log setup-password
    
    Enter the switch name: cs2
    Would you like to specify a user other than admin for log collection? {y|n}: n
    
    Enter the password: <enter switch password>
    Enter the password again: <enter switch password>
  3. Habilite la función de recogida de registros del monitor de estado del switch Ethernet.

    system switch ethernet log modify -device <switch-name> -log-request true

    Muestra el ejemplo
    cluster1::*> system switch ethernet log modify -device cs1 -log-request true
    
    Do you want to modify the cluster switch log collection configuration? {y|n}: [n] y
    
    Enabling cluster switch log collection.
    
    cluster1::*> system switch ethernet log modify -device cs2 -log-request true
    
    Do you want to modify the cluster switch log collection configuration? {y|n}: [n] y
    
    Enabling cluster switch log collection.

    Espere 10 minutos y compruebe que se complete la recopilación de registros:

    system switch ethernet log show

    Muestra el ejemplo
    cluster1::*> system switch ethernet log show
    Log Collection Enabled: true
    
    Index  Switch                       Log Timestamp        Status
    ------ ---------------------------- -------------------  ---------    
    1      cs1 (b8:ce:f6:19:1b:42)      4/29/2022 03:05:25   complete   
    2      cs2 (b8:ce:f6:19:1b:96)      4/29/2022 03:07:42   complete
    Precaución Si alguno de estos comandos devuelve un error o si la recogida de registros no se completa, póngase en contacto con el soporte de NetApp.
  4. Vuelva a cambiar el nivel de privilegio a admin:

    set -privilege admin

  5. Si ha suprimido la creación automática de casos, vuelva a habilitarla invocando un mensaje de AutoSupport:

    system node autosupport invoke -node * -type all -message MAINT=END