Skip to main content
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Migrazione dagli switch cluster NetApp CN1610 agli switch cluster Cisco 9336C-FX2 e 9336C-FX2-T

Collaboratori netapp-yvonneo

È possibile migrare gli switch cluster NetApp CN1610 per un cluster ONTAP verso gli switch cluster Cisco 9336C-FX2 e 9336C-FX2-T. Si tratta di una procedura non distruttiva.

Requisiti di revisione

Quando si sostituiscono gli switch cluster NetApp CN1610 con gli switch cluster Cisco 9336C-FX2 e 9336C-FX2-T, è necessario conoscere alcune informazioni sulla configurazione, sulle connessioni delle porte e sui requisiti di cablaggio. È inoltre necessario verificare il numero di serie dello switch per assicurarsi che venga migrato lo switch corretto.

Switch supportati

Sono supportati i seguenti switch cluster:

  • NetApp CN1610

  • Cisco 9336C-FX2

  • Cisco 9336C-FX2-T

Per i dettagli sulle porte supportate e le relative configurazioni, vedere "Hardware Universe" . Vedere "Quali informazioni aggiuntive mi servono per installare la mia attrezzatura che non è presente in HWU?" per maggiori informazioni sui requisiti di installazione degli switch.

Cosa ti servirà

Verifica che la tua configurazione soddisfi i seguenti requisiti:

  • Il cluster esistente è configurato e funzionante correttamente.

  • Tutte le porte del cluster sono nello stato attivo per garantire operazioni senza interruzioni.

  • Gli switch cluster Cisco 9336C-FX2 e 9336C-FX2-T sono configurati e funzionano con la versione corretta di NX-OS installata con il file di configurazione di riferimento (RCF) applicato.

  • La configurazione di rete del cluster esistente è la seguente:

    • Un cluster NetApp ridondante e completamente funzionale che utilizza switch NetApp CN1610.

    • Connettività di gestione e accesso alla console sia per gli switch NetApp CN1610 che per i nuovi switch.

    • Tutti i cluster LIF nello stato attivo con i cluster LIF sulle loro porte home.

  • Alcune porte sono configurate sugli switch Cisco 9336C-FX2 e 9336C-FX2-T per funzionare a 40GbE o 100GbE.

  • Hai pianificato, migrato e documentato la connettività 40GbE e 100GbE dai nodi agli switch cluster Cisco 9336C-FX2 e 9336C-FX2-T.

Migrare gli switch

Informazioni sugli esempi

Gli esempi in questa procedura utilizzano la seguente nomenclatura di switch e nodi:

  • Gli switch cluster CN1610 esistenti sono C1 e C2.

  • I nuovi switch cluster 9336C-FX2 sono cs1 e cs2.

  • I nodi sono node1 e node2.

  • I LIF del cluster sono node1_clus1 e node1_clus2 sul nodo 1, e node2_clus1 e node2_clus2 sul nodo 2, rispettivamente.

  • IL cluster1::*> il prompt indica il nome del cluster.

  • Le porte del cluster utilizzate in questa procedura sono e3a e e3b.

Informazioni su questo compito

Questa procedura copre il seguente scenario:

  • Lo switch C2 viene sostituito prima dallo switch cs2.

    • Chiudere le porte verso i nodi del cluster. Per evitare l'instabilità del cluster, tutte le porte devono essere chiuse contemporaneamente.

      • Tutti i cluster LIF eseguono il failover sul nuovo switch cs2.

    • Il cablaggio tra i nodi e C2 viene quindi scollegato da C2 e ricollegato a cs2.

  • Lo switch C1 è sostituito dallo switch cs1.

    • Chiudere le porte verso i nodi del cluster. Per evitare l'instabilità del cluster, tutte le porte devono essere chiuse contemporaneamente.

      • Tutti i cluster LIF eseguono il failover sul nuovo switch cs1.

    • Il cablaggio tra i nodi e C1 viene quindi scollegato da C1 e ricollegato a cs1.

Nota Durante questa procedura non è necessario alcun collegamento inter-switch (ISL) operativo. Ciò è voluto perché le modifiche alla versione RCF possono influire temporaneamente sulla connettività ISL. Per garantire operazioni del cluster senza interruzioni, la seguente procedura esegue il failover di tutti i LIF del cluster sullo switch partner operativo, eseguendo al contempo i passaggi sullo switch di destinazione.

Fase 1: Prepararsi alla migrazione

  1. Se AutoSupport è abilitato su questo cluster, sopprimere la creazione automatica dei casi richiamando un messaggio AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=xh

    dove x è la durata della finestra di manutenzione in ore.

  2. Modificare il livello di privilegio in avanzato, immettendo y quando richiesto per continuare:

    set -privilege advanced

    Viene visualizzato il prompt avanzato (*>).

  3. Disabilitare il ripristino automatico sui LIF del cluster.

    Disabilitando il ripristino automatico per questa procedura, i LIF del cluster non torneranno automaticamente alla loro porta home. Rimangono sulla porta attuale finché questa continua a essere attiva e operativa.

    network interface modify -vserver Cluster -lif * -auto-revert false

Passaggio 2: configurare porte e cablaggio

  1. Determinare lo stato amministrativo o operativo per ciascuna interfaccia del cluster.

    Ogni porta dovrebbe essere visualizzata per Link E healthy per Health Status .

    1. Visualizza gli attributi della porta di rete:

      network port show -ipspace Cluster

      Mostra esempio
      cluster1::*> network port show -ipspace Cluster
      
      Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
      
      Node: node2
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    2. Visualizza informazioni sui LIF e sui nodi domestici designati:

      network interface show -vserver Cluster

      Ogni LIF dovrebbe visualizzare up/up per Status Admin/Oper E true per Is Home .

    Mostra esempio
    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current     Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node        Port    Home
    ----------- -----------  ---------- ------------------ ----------- ------- ----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1       e3a     true
                node1_clus2  up/up      169.254.49.125/16  node1       e3b     true
                node2_clus1  up/up      169.254.47.194/16  node2       e3a     true
                node2_clus2  up/up      169.254.19.183/16  node2       e3b     true
  2. Le porte del cluster su ciascun nodo vengono collegate agli switch del cluster esistenti nel modo seguente (dal punto di vista dei nodi) utilizzando il comando:

    network device-discovery show -protocol

    Mostra esempio
    cluster1::*> network device-discovery show -protocol cdp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /cdp
                e3a    C1 (6a:ad:4f:98:3b:3f)    0/1               -
                e3b    C2 (6a:ad:4f:98:4c:a4)    0/1               -
    node2      /cdp
                e3a    C1 (6a:ad:4f:98:3b:3f)    0/2               -
                e3b    C2 (6a:ad:4f:98:4c:a4)    0/2               -
  3. Le porte e gli switch del cluster vengono collegati nel modo seguente (dal punto di vista degli switch) utilizzando il comando:

    show cdp neighbors

    Mostra esempio
    C1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 Eth1/1        124    H           AFF-A400         e3a
    node2                 Eth1/2        124    H           AFF-A400         e3a
    C2                    0/13          179    S I s       CN1610           0/13
    C2                    0/14          175    S I s       CN1610           0/14
    C2                    0/15          179    S I s       CN1610           0/15
    C2                    0/16          175    S I s       CN1610           0/16
    
    C2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 Eth1/1        124    H           AFF-A400         e3b
    node2                 Eth1/2        124    H           AFF-A400         e3b
    C1                    0/13          175    S I s       CN1610           0/13
    C1                    0/14          175    S I s       CN1610           0/14
    C1                    0/15          175    S I s       CN1610           0/15
    C1                    0/16          175    S I s       CN1610           0/16
  4. Verificare la connettività delle interfacce del cluster remoto:

ONTAP 9.9.1 e versioni successive

Puoi usare il network interface check cluster-connectivity comando per avviare un controllo di accessibilità per la connettività del cluster e quindi visualizzare i dettagli:

network interface check cluster-connectivity start`E `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

NOTA: Attendere alcuni secondi prima di eseguire il show comando per visualizzare i dettagli.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Tutte le versioni ONTAP

Per tutte le versioni ONTAP , è anche possibile utilizzare cluster ping-cluster -node <name> comando per verificare la connettività:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e3a
Cluster node1_clus2 169.254.49.125 node1     e3b
Cluster node2_clus1 169.254.47.194 node2     e3a
Cluster node2_clus2 169.254.19.183 node2     e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. Sullo switch C2, spegnere le porte connesse alle porte del cluster dei nodi per eseguire il failover dei LIF del cluster.

    Avvertenza Non tentare di migrare manualmente i LIF del cluster.
    (C2)# configure
    (C2)(Config)# interface 0/1-0/12
    (C2)(Interface 0/1-0/12)# shutdown
    (C2)(Interface 0/1-0/12)# exit
    (C2)(Config)# exit
  2. Spostare le porte del cluster di nodi dal vecchio switch C2 al nuovo switch cs2, utilizzando il cablaggio appropriato supportato da Cisco 9336C-FX2 e 9336C-FX2-T.

  3. Visualizza gli attributi della porta di rete:

    network port show -ipspace Cluster

    Mostra esempio
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  4. Le porte del cluster su ciascun nodo sono ora collegate agli switch del cluster nel modo seguente, dal punto di vista dei nodi:

    network device-discovery show -protocol

    Mostra esempio
    cluster1::*> network device-discovery show -protocol cdp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /cdp
                e3a    C1  (6a:ad:4f:98:3b:3f)   0/1               CN1610
                e3b    cs2 (b8:ce:f6:19:1a:7e)   Ethernet1/1/1     N9K-C9336C-FX2
    node2      /cdp
                e3a    C1  (6a:ad:4f:98:3b:3f)   0/2               CN1610
                e3b    cs2 (b8:ce:f6:19:1b:96)   Ethernet1/1/2     N9K-C9336C-FX2
  5. Sullo switch cs2, verificare che tutte le porte del cluster dei nodi siano attive:

    network interface show -vserver Cluster

    Mostra esempio
    cluster1::*> network interface show -vserver Cluster
                Logical      Status     Network            Current     Current Is
    Vserver     Interfac     Admin/Oper Address/Mask       Node        Port    Home
    ----------- ------------ ---------- ------------------ ----------- ------- ----
    Cluster
                node1_clus1  up/up      169.254.3.4/16     node1       e0b     false
                node1_clus2  up/up      169.254.3.5/16     node1       e0b     true
                node2_clus1  up/up      169.254.3.8/16     node2       e0b     false
                node2_clus2  up/up      169.254.3.9/16     node2       e0b     true
  6. Sullo switch C1, spegnere le porte collegate alle porte del cluster dei nodi per eseguire il failover dei LIF del cluster.

    (C1)# configure
    (C1)(Config)# interface 0/1-0/12
    (C1)(Interface 0/1-0/12)# shutdown
    (C1)(Interface 0/1-0/12)# exit
    (C1)(Config)# exit
  7. Spostare le porte del cluster di nodi dal vecchio switch C1 al nuovo switch cs1, utilizzando il cablaggio appropriato supportato da Cisco 9336C-FX2 e 9336C-FX2-T.

  8. Verificare la configurazione finale del cluster:

    network port show -ipspace Cluster

    Ogni porta dovrebbe visualizzare up per Link E healthy per Health Status .

    Mostra esempio
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  9. Le porte del cluster su ciascun nodo sono ora collegate agli switch del cluster nel modo seguente, dal punto di vista dei nodi:

    network device-discovery show -protocol

    Mostra esempio
    cluster1::*> network device-discovery show -protocol cdp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface       Platform
    ----------- ------ ------------------------- --------------  ----------------
    node1      /cdp
                e3a    cs1 (b8:ce:f6:19:1a:7e)   Ethernet1/1/1   N9K-C9336C-FX2
                e3b    cs2 (b8:ce:f6:19:1b:96)   Ethernet1/1/2   N9K-C9336C-FX2
    node2      /cdp
                e3a    cs1 (b8:ce:f6:19:1a:7e)   Ethernet1/1/1   N9K-C9336C-FX2
                e3b    cs2 (b8:ce:f6:19:1b:96)   Ethernet1/1/2   N9K-C9336C-FX2
  10. Sugli switch cs1 e cs2, verificare che tutte le porte del cluster di nodi siano attive:

    network port show -ipspace Cluster

    Mostra esempio
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
    e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
    
    Node: node2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
    e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
  11. Verificare che entrambi i nodi abbiano una connessione a ciascun switch:

    network device-discovery show -protocol

    Mostra esempio

    L'esempio seguente mostra i risultati appropriati per entrambi gli switch:

    cluster1::*> network device-discovery show -protocol cdp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface       Platform
    ----------- ------ ------------------------- --------------  --------------
    node1      /cdp
                e0a    cs1 (b8:ce:f6:19:1b:42)   Ethernet1/1/1   N9K-C9336C-FX2
                e0b    cs2 (b8:ce:f6:19:1b:96)   Ethernet1/1/2   N9K-C9336C-FX2
    
    node2      /cdp
                e0a    cs1 (b8:ce:f6:19:1b:42)   Ethernet1/1/1   N9K-C9336C-FX2
                e0b    cs2 (b8:ce:f6:19:1b:96)   Ethernet1/1/2   N9K-C9336C-FX2

Passaggio 3: verificare la configurazione

  1. Abilita il ripristino automatico sui LIF del cluster:

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  2. Sullo switch cs2, arrestare e riavviare tutte le porte del cluster per attivare un ripristino automatico di tutti i LIF del cluster che non si trovano sulle rispettive porte home.

    cs2> enable
    cs2# configure
    cs2(config)# interface eth1/1-1/2
    cs2(config-if-range)# shutdown
    
    (Wait for 5-10 seconds before re-enabling the ports)
    
    cs2(config-if-range)# no shutdown
    
    (After executing the no shutdown command, the nodes detect the change and begin to auto-revert the cluster LIFs to their home ports)
    
    cs2(config-if-range)# exit
    cs2(config)# exit
    cs2#
  3. Verificare che i LIF del cluster siano tornati alle loro porte home (l'operazione potrebbe richiedere un minuto):

    network interface show -vserver Cluster

    Se uno qualsiasi dei LIF del cluster non è tornato alla propria porta home, ripristinarlo manualmente. È necessario connettersi a ciascuna console di sistema LIF o SP/ BMC di gestione nodi del nodo locale proprietario del LIF:

    network interface revert -vserver Cluster -lif *

  4. Verificare che il cluster sia integro:

    cluster show

  5. Verificare la connettività delle interfacce del cluster remoto:

ONTAP 9.9.1 e versioni successive

Puoi usare il network interface check cluster-connectivity comando per avviare un controllo di accessibilità per la connettività del cluster e quindi visualizzare i dettagli:

network interface check cluster-connectivity start`E `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start
Nota Attendere alcuni secondi prima di eseguire il show comando per visualizzare i dettagli.
cluster1::*> network interface check cluster-connectivity show
                                  Source          Destination       Packet
Node   Date                       LIF             LIF               Loss
------ -------------------------- --------------- ----------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2_clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none

node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Tutte le versioni ONTAP

Per tutte le versioni ONTAP , è anche possibile utilizzare cluster ping-cluster -node <name> comando per verificare la connettività:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node node2
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e0a
Cluster node1_clus2 169.254.49.125 node1     e0b
Cluster node2_clus1 169.254.47.194 node2     e0a
Cluster node2_clus2 169.254.19.183 node2     e0b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:

Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. Riporta il livello di privilegio su amministratore:

    set -privilege admin

  2. Se hai disattivato la creazione automatica dei casi, riattivala richiamando un messaggio AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=END

Cosa succederà ora?

Dopo aver migrato gli switch, puoi "configurare il monitoraggio dello stato dello switch".