Skip to main content
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Sostituire uno switch cluster NVIDIA SN2100

Collaboratori netapp-yvonneo netapp-jolieg

Seguire questa procedura per sostituire uno switch NVIDIA SN2100 difettoso in una rete cluster. Si tratta di una procedura non distruttiva (NDU).

Requisiti di revisione

Cluster esistente e infrastruttura di rete

Assicurarsi che:

  • Il cluster esistente è stato verificato come completamente funzionale, con almeno uno switch del cluster completamente connesso.

  • Tutte le porte del cluster sono attive.

  • Tutte le interfacce logiche del cluster (LIF) sono attive e sulle rispettive porte home.

  • L' ONTAP cluster ping-cluster -node node1 il comando indica che la connettività di base e la comunicazione più grande di PMTU hanno esito positivo su tutti i percorsi.

Interruttore sostitutivo NVIDIA SN2100

Assicurarsi che:

  • La connettività della rete di gestione sullo switch sostitutivo è funzionante.

  • L'accesso alla console per l'interruttore sostitutivo è a posto.

  • Le connessioni dei nodi sono le porte da swp1 a swp14.

  • Tutte le porte Inter-Switch Link (ISL) sono disabilitate sulle porte swp15 e swp16.

  • Il file di configurazione di riferimento desiderato (RCF) e lo switch dell'immagine del sistema operativo Cumulus vengono caricati sullo switch.

  • La personalizzazione iniziale dello switch è completa.

Assicurarsi inoltre che tutte le personalizzazioni precedenti del sito, come STP, SNMP e SSH, vengano copiate sul nuovo switch.

Nota È necessario eseguire il comando per migrare un cluster LIF dal nodo in cui è ospitato il cluster LIF.

Abilita la registrazione della console

NetApp consiglia vivamente di abilitare la registrazione della console sui dispositivi utilizzati e di adottare le seguenti misure quando si sostituisce lo switch:

Sostituire l'interruttore

Informazioni sugli esempi

Gli esempi in questa procedura utilizzano la seguente nomenclatura di switch e nodi:

  • I nomi degli switch NVIDIA SN2100 esistenti sono sw1 e sw2.

  • Il nome del nuovo switch NVIDIA SN2100 è nsw2.

  • I nomi dei nodi sono node1 e node2.

  • Le porte del cluster su ciascun nodo sono denominate e3a e e3b.

  • I nomi LIF del cluster sono node1_clus1 e node1_clus2 per node1, e node2_clus1 e node2_clus2 per node2.

  • La richiesta di modifiche a tutti i nodi del cluster è cluster1::*>

  • Le porte breakout hanno il formato: swp[porta]s[porta breakout 0-3]. Ad esempio, quattro porte breakout su swp1 sono swp1s0, swp1s1, swp1s2 e swp1s3.

Informazioni sulla topologia della rete del cluster

Questa procedura si basa sulla seguente topologia di rete cluster:

Mostra topologia di esempio
cluster1::*> network port show -ipspace Cluster

Node: node1
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false

Node: node2
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false


cluster1::*> network interface show -vserver Cluster

            Logical    Status     Network            Current       Current Is
Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
----------- ---------- ---------- ------------------ ------------- ------- ----
Cluster
            node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
            node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
            node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
            node2_clus2  up/up    169.254.19.183/16  node2         e3b     true


cluster1::*> network device-discovery show -protocol lldp
Node/       Local  Discovered
Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
----------- ------ ------------------------- ------------  ----------------
node1      /lldp
            e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3          -
            e3b    sw2 (b8:ce:f6:19:1b:96)   swp3          -
node2      /lldp
            e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4          -
            e3b    sw2 (b8:ce:f6:19:1b:96)   swp4          -

+

cumulus@sw1:~$ net show lldp

LocalPort  Speed  Mode        RemoteHost         RemotePort
---------  -----  ----------  -----------------  -----------
swp3       100G   Trunk/L2    sw2                e3a
swp4       100G   Trunk/L2    sw2                e3a
swp15      100G   BondMember  sw2                swp15
swp16      100G   BondMember  sw2                swp16


cumulus@sw2:~$ net show lldp

LocalPort  Speed  Mode        RemoteHost         RemotePort
---------  -----  ----------  -----------------  -----------
swp3       100G   Trunk/L2    sw1                e3b
swp4       100G   Trunk/L2    sw1                e3b
swp15      100G   BondMember  sw1                swp15
swp16      100G   BondMember  sw1                swp16

Fase 1: Preparazione alla sostituzione

  1. Se AutoSupport è abilitato su questo cluster, sopprimere la creazione automatica dei casi richiamando un messaggio AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=xh

    dove x è la durata della finestra di manutenzione in ore.

  2. Modificare il livello di privilegio in avanzato, immettendo y quando richiesto per continuare:

    set -privilege advanced

    Viene visualizzato il prompt avanzato (*>).

  3. Installare l'RCF e l'immagine appropriati sullo switch, nsw2, ed effettuare tutti i preparativi necessari sul sito.

    Se necessario, verificare, scaricare e installare le versioni appropriate del software RCF e Cumulus per il nuovo switch.

    1. È possibile scaricare il software Cumulus applicabile agli switch del cluster dal sito NVIDIA Support. Seguire i passaggi indicati nella pagina Download per scaricare Cumulus Linux per la versione del software ONTAP che si sta installando.

    2. L'RCF appropriato è disponibile presso"Switch di cluster e storage NVIDIA" pagina. Seguire i passaggi indicati nella pagina Download per scaricare il file RCF corretto per la versione del software ONTAP che si sta installando.

Passaggio 2: configurare porte e cablaggio

Cumulus Linux 4.4.3
  1. Sul nuovo switch nsw2, accedi come amministratore e chiudi tutte le porte che saranno connesse alle interfacce del cluster di nodi (porte da swp1 a swp14).

    I LIF sui nodi del cluster dovrebbero già aver eseguito il failover sull'altra porta del cluster per ciascun nodo.

    cumulus@nsw2:~$ net add interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@nsw2:~$ net pending
    cumulus@nsw2:~$ net commit
  2. Disabilitare il ripristino automatico sui LIF del cluster:

    network interface modify -vserver Cluster -lif * -auto-revert false

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
    
    Warning: Disabling the auto-revert feature of the cluster logical interface may effect the availability of your cluster network. Are you sure you want to continue? {y|n}: y
  3. Verificare che il ripristino automatico sia disabilitato in tutti i cluster LIF:

    net interface show -vserver Cluster -fields auto-revert

  4. Chiudere le porte ISL swp15 e swp16 sullo switch SN2100 sw1.

    cumulus@sw1:~$ net add interface swp15-16 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit
  5. Rimuovere tutti i cavi dallo switch SN2100 sw1, quindi collegarli alle stesse porte sullo switch SN2100 nsw2.

  6. Attivare le porte ISL swp15 e swp16 tra gli switch sw1 e nsw2.

    I seguenti comandi abilitano le porte ISL swp15 e swp16 sullo switch sw1:

    cumulus@sw1:~$ net del interface swp15-16 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit

    L'esempio seguente mostra che le porte ISL sono attive sullo switch sw1:

    cumulus@sw1:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------- ----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  nsw2 (swp15)   Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  nsw2 (swp16)   Master: cluster_isl(UP)

    L'esempio seguente mostra che le porte ISL sono attive sullo switch nsw2:

    cumulus@nsw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------  -----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  sw1 (swp15)    Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)    Master: cluster_isl(UP)
  7. Verificare che la porta e3b è attivo su tutti i nodi:

    network port show -ipspace Cluster

    L'output dovrebbe essere simile al seguente:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ----- ------------ -------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
    
    
    Node: node2
                                                                             Ignore
                                                       Speed(Mbps) Health    Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper  Status    Status
    --------- ------------ ---------------- ---- ----- ----------- --------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
  8. Le porte del cluster su ciascun nodo sono ora collegate agli switch del cluster nel modo seguente, dal punto di vista dei nodi:

    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
    ----------- ------ ------------------------- ------------  ----------------
    node1      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp3          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp3          -
    node2      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp4          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp4          -
  9. Verificare che tutte le porte del cluster dei nodi siano attive:

    net show interface

    cumulus@nsw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  10. Verificare che entrambi i nodi abbiano una connessione a ciascun switch:

    net show lldp

    L'esempio seguente mostra i risultati appropriati per entrambi gli switch:

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1              e3a
    swp4       100G   Trunk/L2    node2              e3a
    swp15      100G   BondMember  nsw2               swp15
    swp16      100G   BondMember  nsw2               swp16
    
    
    cumulus@nsw2:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1                e3b
    swp4       100G   Trunk/L2    node2                e3b
    swp15      100G   BondMember  sw1                swp15
    swp16      100G   BondMember  sw1                swp16
  11. Abilita il ripristino automatico sui LIF del cluster:

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  12. Sullo switch nsw2, richiamare le porte connesse alle porte di rete dei nodi.

    cumulus@nsw2:~$ net del interface swp1-14 link down
    cumulus@nsw2:~$ net pending
    cumulus@nsw2:~$ net commit
  13. Visualizza informazioni sui nodi in un cluster:

    cluster show

    Questo esempio mostra che lo stato di integrità del nodo node1 e node2 in questo cluster è corretto:

    cluster1::*> cluster show
    
    Node          Health  Eligibility
    ------------- ------- ------------
    node1         true    true
    node2         true    true
  14. Verificare che tutte le porte fisiche del cluster siano attive:

    network port show ipspace Cluster

    cluster1::*> network port show -ipspace Cluster
    
    Node node1                                                               Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace     Broadcast Domain  Link  MTU   Admin/Oper  Status   Status
    --------- ----------- ----------------- ----- ----- ----------- -------- ------
    e3a       Cluster     Cluster           up    9000  auto/10000  healthy  false
    e3b       Cluster     Cluster           up    9000  auto/10000  healthy  false
    
    Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link  MTU   Admin/Oper  Status   Status
    --------- ------------ ---------------- ----- ----- ----------- -------- ------
    e3a       Cluster      Cluster          up    9000  auto/10000  healthy  false
    e3b       Cluster      Cluster          up    9000  auto/10000  healthy  false
Cumulus Linux 5.x
  1. Sul nuovo switch nsw2, accedi come amministratore e chiudi tutte le porte che saranno connesse alle interfacce del cluster di nodi (porte da swp1 a swp14).

    I LIF sui nodi del cluster dovrebbero già aver eseguito il failover sull'altra porta del cluster per ciascun nodo.

    cumulus@nsw2:~$ nv set interface swp15-16 link state down
    cumulus@nsw2:~$ nv config apply
  2. Disabilitare il ripristino automatico sui LIF del cluster:

    network interface modify -vserver Cluster -lif * -auto-revert false

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
    
    Warning: Disabling the auto-revert feature of the cluster logical interface may effect the availability of your cluster network. Are you sure you want to continue? {y|n}: y
  3. Verificare che il ripristino automatico sia disabilitato in tutti i cluster LIF:

    network interface show -vserver Cluster -fields auto-revert

  4. Chiudere le porte ISL swp15 e swp16 sullo switch SN2100 sw1.

    cumulus@sw1:~$ nv set interface swp15-16 link state down
    cumulus@sw1:~$ nv config apply
  5. Rimuovere tutti i cavi dallo switch SN2100 sw1, quindi collegarli alle stesse porte sullo switch SN2100 nsw2.

  6. Attivare le porte ISL swp15 e swp16 tra gli switch sw1 e nsw2.

    I seguenti comandi abilitano le porte ISL swp15 e swp16 sullo switch sw1:

    cumulus@sw1:~$ nv set interface swp15-16 link state down
    cumulus@sw1:~$ nv config apply

    L'esempio seguente mostra che le porte ISL sono attive sullo switch sw1:

    cumulus@sw1:~$ nv show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------- ----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  nsw2 (swp15)   Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  nsw2 (swp16)   Master: cluster_isl(UP)

    L'esempio seguente mostra che le porte ISL sono attive sullo switch nsw2:

    cumulus@nsw2:~$ nv show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------  -----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  sw1 (swp15)    Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)    Master: cluster_isl(UP)
  7. Verificare che la porta e3b è attivo su tutti i nodi:

    network port show -ipspace Cluster

    L'output dovrebbe essere simile al seguente:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ----- ------------ -------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
    
    
    Node: node2
                                                                             Ignore
                                                       Speed(Mbps) Health    Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper  Status    Status
    --------- ------------ ---------------- ---- ----- ----------- --------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
  8. Le porte del cluster su ciascun nodo sono ora collegate agli switch del cluster nel modo seguente, dal punto di vista dei nodi:

    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
    ----------- ------ ------------------------- ------------  ----------------
    node1      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp3          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp3          -
    node2      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp4          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp4          -
  9. Verificare che tutte le porte del cluster dei nodi siano attive:

    nv show interface

    cumulus@nsw2:~$ nv show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  10. Verificare che entrambi i nodi abbiano una connessione a ciascun switch:

    nv show interface lldp

    L'esempio seguente mostra i risultati appropriati per entrambi gli switch:

    cumulus@sw1:~$ nv show interface lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1              e3a
    swp4       100G   Trunk/L2    node2              e3a
    swp15      100G   BondMember  nsw2               swp15
    swp16      100G   BondMember  nsw2               swp16
    
    
    cumulus@nsw2:~$ nv show interface lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1                e3b
    swp4       100G   Trunk/L2    node2                e3b
    swp15      100G   BondMember  sw1                swp15
    swp16      100G   BondMember  sw1                swp16
  11. Abilita il ripristino automatico sui LIF del cluster:

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  12. Sullo switch nsw2, richiamare le porte connesse alle porte di rete dei nodi.

    cumulus@nsw2:~$ nv set interface swp1-14 link state up
    cumulus@nsw2:~$ nv config apply
  13. Visualizza informazioni sui nodi in un cluster:

    cluster show

    Questo esempio mostra che lo stato di integrità del nodo node1 e node2 in questo cluster è corretto:

    cluster1::*> cluster show
    
    Node          Health  Eligibility
    ------------- ------- ------------
    node1         true    true
    node2         true    true
  14. Verificare che tutte le porte fisiche del cluster siano attive:

    network port show ipspace Cluster

    cluster1::*> network port show -ipspace Cluster
    
    Node node1                                                               Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace     Broadcast Domain  Link  MTU   Admin/Oper  Status   Status
    --------- ----------- ----------------- ----- ----- ----------- -------- ------
    e3a       Cluster     Cluster           up    9000  auto/10000  healthy  false
    e3b       Cluster     Cluster           up    9000  auto/10000  healthy  false
    
    Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link  MTU   Admin/Oper  Status   Status
    --------- ------------ ---------------- ----- ----- ----------- -------- ------
    e3a       Cluster      Cluster          up    9000  auto/10000  healthy  false
    e3b       Cluster      Cluster          up    9000  auto/10000  healthy  false

Passaggio 3: verificare la configurazione

Cumulus Linux 4.4.3
  1. Verificare che la rete del cluster sia integra.

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost      RemotePort
    ---------  -----  ----------  --------------  -----------
    swp3       100G   Trunk/L2    node1           e3a
    swp4       100G   Trunk/L2    node2           e3a
    swp15      100G   BondMember  nsw2            swp15
    swp16      100G   BondMember  nsw2            swp16
Cumulus Linux 5.x
  1. Verificare che la rete del cluster sia integra.

    cumulus@sw1:~$ nv show interface lldp
    
    LocalPort  Speed  Mode        RemoteHost      RemotePort
    ---------  -----  ----------  --------------  -----------
    swp3       100G   Trunk/L2    node1           e3a
    swp4       100G   Trunk/L2    node2           e3a
    swp15      100G   BondMember  nsw2            swp15
    swp16      100G   BondMember  nsw2            swp16
  1. Ripristina il livello di privilegio su amministratore:

    set -privilege admin

  2. Se hai disattivato la creazione automatica dei casi, riattivala richiamando un messaggio AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=END

Cosa succederà ora?

Dopo aver sostituito gli interruttori, puoi "configurare il monitoraggio dello stato dello switch".