Skip to main content
Cluster and storage switches
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Sostituire uno switch condiviso Cisco Nexus 9336C-FX2

Collaboratori

È possibile sostituire uno switch condiviso Nexus 9336C-FX2 difettoso. Si tratta di una procedura senza interruzioni (NDU).

Di cosa hai bisogno

Prima di sostituire lo switch, assicurarsi che:

  • Nel cluster e nell'infrastruttura di rete esistenti:

    • Il cluster esistente viene verificato come completamente funzionale, con almeno uno switch del cluster completamente connesso.

    • Tutte le porte del cluster sono up.

    • Tutte le interfacce logiche del cluster (LIFF) sono up e sulle porte home.

    • Il comando ping-cluster -node node1 del cluster ONTAP deve indicare che la connettività di base e le comunicazioni di dimensioni superiori a quelle di PMTU hanno esito positivo su tutti i percorsi.

  • Per lo switch sostitutivo Nexus 9336C-FX2:

    • La connettività di rete di gestione sullo switch sostitutivo è funzionale.

    • L'accesso della console allo switch sostitutivo è in posizione.

    • Le connessioni dei nodi sono le porte da 1/1 a 1/34:

    • Tutte le porte ISL (Inter-Switch link) sono disattivate sulle porte 1/35 e 1/36.

    • Il file di configurazione di riferimento desiderato (RCF) e lo switch dell'immagine del sistema operativo NX-OS vengono caricati sullo switch.

    • Eventuali personalizzazioni precedenti del sito, come STP, SNMP e SSH, devono essere copiate nel nuovo switch.

A proposito degli esempi

È necessario eseguire il comando per la migrazione di un LIF del cluster dal nodo in cui è ospitato il LIF del cluster.

Gli esempi di questa procedura utilizzano la seguente nomenclatura di switch e nodi:

  • I nomi degli switch Nexus 9336C-FX2 esistenti sono sh1 e sh2.

  • I nuovi switch Nexus 9336C-FX2 sono newsh1 e newsh2.

  • I nomi dei nodi sono node1 e node2.

  • Le porte del cluster su ciascun nodo sono denominate e3a e e3b.

  • I nomi LIF del cluster sono node1_clus1 e. node1_clus2 per il node1, e. node2_clus1 e. node2_clus2 per il node2.

  • Il prompt per le modifiche a tutti i nodi del cluster è cluster1:*>.

    Nota La seguente procedura si basa sulla seguente topologia di rete:
Mostra topologia di esempio
cluster1::*> network port show -ipspace Cluster

Node: node1
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false

Node: node2
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false
4 entries were displayed.


cluster1::*> network interface show -vserver Cluster
            Logical    Status     Network            Current       Current Is
Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
----------- ---------- ---------- ------------------ ------------- ------- ----
Cluster
            node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
            node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
            node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
            node2_clus2  up/up    169.254.19.183/16  node2         e3b     true
4 entries were displayed.

cluster1::*> network device-discovery show -protocol cdp
Node/       Local  Discovered
Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
----------- ------ ------------------------- ----------------  ----------------
node2      /cdp
            e3a    sh1                       Eth1/2            N9K-C9336C
            e3b    sh2                       Eth1/2            N9K-C9336C

node1      /cdp
            e3a    sh1                       Eth1/1            N9K-C9336C
            e3b    sh2                       Eth1/1            N9K-C9336C
4 entries were displayed.

sh1# show cdp neighbors
Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                  S - Switch, H - Host, I - IGMP, r - Repeater,
                  V - VoIP-Phone, D - Remotely-Managed-Device,
                  s - Supports-STP-Dispute
Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
node1              Eth1/1         144    H           FAS2980       e3a
node2              Eth1/2         145    H           FAS2980       e3a
sh2                Eth1/35        176    R S I s     N9K-C9336C    Eth1/35
sh2 (FDO220329V5)   Eth1/36       176    R S I s     N9K-C9336C    Eth1/36
Total entries displayed: 4

sh2# show cdp neighbors
Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                  S - Switch, H - Host, I - IGMP, r - Repeater,
                  V - VoIP-Phone, D - Remotely-Managed-Device,
                  s - Supports-STP-Dispute
Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
node1              Eth1/1         139    H           FAS2980       eb
node2              Eth1/2         124    H           FAS2980       eb
sh1                Eth1/35        178    R S I s     N9K-C9336C    Eth1/35
sh1                Eth1/36        178    R S I s     N9K-C9336C    Eth1/36
Total entries displayed: 4
Fasi
  1. Se AutoSupport è attivato su questo cluster, eliminare la creazione automatica del caso richiamando un messaggio AutoSupport:

    system node autosupport invoke -node * -type all -message MAINT=xh

    Dove x è la durata della finestra di manutenzione in ore.

  2. Opzionale: Installare l'RCF e l'immagine appropriati sullo switch, news2, ed eseguire le operazioni necessarie per la preparazione del sito.

    1. Se necessario, verificare, scaricare e installare le versioni appropriate del software RCF e NX-OS per il nuovo switch. Se il nuovo switch è stato configurato correttamente e non sono necessari aggiornamenti per il software RCF e NX-OS, passare alla sezione Fase 3.

    2. Accedere alla pagina NetApp Cluster and Management Network Switches Reference Configuration file Description (Descrizione del file di configurazione di riferimento per gli switch di rete di gestione e cluster NetApp) sul sito di supporto NetApp.

    3. Fare clic sul collegamento Cluster Network and Management Network Compatibility Matrix, quindi annotare la versione software dello switch richiesta.

    4. Fare clic sulla freccia indietro del browser per tornare alla pagina Descrizione, fare clic su CONTINUA, accettare il contratto di licenza, quindi andare alla pagina Download.

    5. Seguire la procedura riportata nella pagina di download per scaricare i file RCF e NX-OS corretti per la versione del software ONTAP che si sta installando.

  3. [[fase 3]]sul nuovo switch, accedere come admin e chiudere tutte le porte che verranno collegate alle interfacce del cluster di nodi (porte da 1/1 a 1/34). Se lo switch che si sta sostituendo non funziona e viene spento, passare a. Fase 4. Le LIF sui nodi del cluster dovrebbero essere già riuscite a eseguire il failover sull'altra porta del cluster per ciascun nodo.

    Mostra esempio
    newsh2# config
    Enter configuration commands, one per line. End with CNTL/Z.
    newsh2(config)# interface e1/1-34
    newsh2(config-if-range)# shutdown
  4. verificare che tutte le LIF del cluster abbiano attivato l'autorevert.

    network interface show - vserver Cluster -fields auto-revert

    Mostra esempio
    cluster1::> network interface show -vserver Cluster -fields auto-revert
                 Logical
    Vserver      Interface     Auto-revert
    ------------ ------------- -------------
    Cluster      node1_clus1   true
    Cluster      node1_clus2   true
    Cluster      node2_clus1   true
    Cluster      node2_clus2   true
    4 entries were displayed.
  5. verifica che tutte le LIF del cluster siano in grado di comunicare:

    cluster ping-cluster <node name>

    Mostra esempio
    cluster1::*> cluster ping-cluster node2
    Host is node2
    Getting addresses from network interface table...
    Cluster node1_clus1 169.254.209.69 node1 e3a
    Cluster node1_clus2 169.254.49.125 node1 e3b
    Cluster node2_clus1 169.254.47.194 node2 e3a
    Cluster node2_clus2 169.254.19.183 node2 e3b
    Local = 169.254.47.194 169.254.19.183
    Remote = 169.254.209.69 169.254.49.125
    Cluster Vserver Id = 4294967293
    Ping status:
    ....
    Basic connectivity succeeds on 4 path(s)
    Basic connectivity fails on 0 path(s)
    ................
    Detected 9000 byte MTU on 4 path(s):
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Larger than PMTU communication succeeds on 4 path(s)
    RPC status:
    2 paths up, 0 paths down (tcp check)
    2 paths up, 0 paths down (udp check)
  6. Spegni le porte ISL 1/35 e 1/36 sullo switch Nexus 9336C-FX2 sh1.

    Mostra esempio
    sh1# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    sh1(config)# interface e1/35-36
    sh1(config-if-range)# shutdown
  7. rimuovere tutti i cavi dallo switch Nexus 9336C-FX2 sh2, quindi collegarli alle stesse porte dello switch Nexus C9336C-FX2 newsh2.

  8. Richiamare le porte ISL 1/35 e 1/36 tra gli switch sh1 e newsh2, quindi verificare lo stato di funzionamento del canale della porta.

    Port-Channel deve indicare PO1(su) e Member Ports deve indicare eth1/35(P) e eth1/36(P).

    Mostra esempio

    Questo esempio abilita le porte ISL 1/35 e 1/36 e visualizza il riepilogo del canale della porta sullo switch sh1.

    sh1# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    sh1 (config)# int e1/35-36
    sh1 (config-if-range)# no shutdown
    sh1 (config-if-range)# show port-channel summary
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member       Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/35(P)   Eth1/36(P)
    
    sh1 (config-if-range)#
  9. verificare che la porta e3b sia attiva su tutti i nodi:

    network port show ipspace Cluster

    Mostra esempio

    L'output dovrebbe essere simile al seguente:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ----- ---------- - - -------- ----
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ----- ----------- -  -------- ----
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/auto    -        false
    4 entries were displayed.
  10. sullo stesso nodo utilizzato nel passaggio precedente, ripristinare la LIF del cluster associata alla porta nel passaggio precedente utilizzando il comando di revert dell'interfaccia di rete.

    In questo esempio, LIF node1_clus2 su node1 viene invertito correttamente se il valore Home è true e la porta è e3b.

    I seguenti comandi restituiscono LIF node1_clus2 su node1 alla porta home e3a e visualizzano informazioni sui LIF su entrambi i nodi. L'attivazione del primo nodo ha esito positivo se la colonna is Home è true per entrambe le interfacce del cluster e mostrano le assegnazioni di porta corrette, in questo esempio e3a ed e3b sul nodo 1.

    Mostra esempio
    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current    Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node       Port    Home
    ----------- ------------ ---------- ------------------ ---------- ------- -----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1      e3a     true
                node1_clus2  up/up      169.254.49.125/16  node1      e3b     true
                node2_clus1  up/up      169.254.47.194/16  node2      e3a     true
                node2_clus2  up/up      169.254.19.183/16  node2      e3a     false
    4 entries were displayed.
  11. Visualizza informazioni sui nodi di un cluster:

    cluster show

    Mostra esempio

    Questo esempio mostra che l'integrità del nodo per node1 e node2 in questo cluster è vera:

    cluster1::*> cluster show
    Node          Health  Eligibility
    ------------- ------- ------------
    node1         false   true
    node2         true    true
  12. verificare che tutte le porte del cluster fisico siano in funzione:

    network port show ipspace Cluster

    Mostra esempio
    cluster1::*> network port show -ipspace Cluster
    
    Node node1                                                                Ignore
                                                        Speed(Mbps)  Health   Health
    Port      IPspace     Broadcast Domain  Link  MTU   Admin/Oper   Status   Status
    --------- ----------- ----------------- ----- ----- ------------ -------- ------
    e3a       Cluster     Cluster           up    9000  auto/100000  healthy  false
    e3b       Cluster     Cluster           up    9000  auto/100000  healthy  false
    
    Node: node2
                                                                              Ignore
                                                        Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link  MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ----- ----- ------------ -------- ------
    e3a       Cluster      Cluster          up    9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up    9000  auto/100000  healthy  false
    4 entries were displayed.
  13. verifica che tutte le LIF del cluster siano in grado di comunicare:

    cluster ping-cluster

    Mostra esempio
    cluster1::*> cluster ping-cluster -node node2
    Host is node2
    Getting addresses from network interface table...
    Cluster node1_clus1 169.254.209.69 node1 e3a
    Cluster node1_clus2 169.254.49.125 node1 e3b
    Cluster node2_clus1 169.254.47.194 node2 e3a
    Cluster node2_clus2 169.254.19.183 node2 e3b
    Local = 169.254.47.194 169.254.19.183
    Remote = 169.254.209.69 169.254.49.125
    Cluster Vserver Id = 4294967293
    Ping status:
    ....
    Basic connectivity succeeds on 4 path(s)
    Basic connectivity fails on 0 path(s)
    ................
    Detected 9000 byte MTU on 4 path(s):
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Larger than PMTU communication succeeds on 4 path(s)
    RPC status:
    2 paths up, 0 paths down (tcp check)
    2 paths up, 0 paths down (udp check)
  14. Conferma la seguente configurazione di rete del cluster:

    network port show

    Mostra esempio
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                            Ignore
                                           Speed(Mbps)             Health   Health
    Port      IPspace     Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ----------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster     Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster     Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                            Ignore
                                            Speed(Mbps)            Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ---- ------------ -------- ------
    e3a       Cluster      Cluster          up   9000 auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000 auto/100000  healthy  false
    4 entries were displayed.
    
    cluster1::*> network interface show -vserver Cluster
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
                node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
                node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
                node2_clus2  up/up    169.254.19.183/16  node2         e3b     true
    4 entries were displayed.
    
    cluster1::> network device-discovery show -protocol cdp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e3a    sh1    0/2               N9K-C9336C
                e3b    newsh2                    0/2               N9K-C9336C
    node1      /cdp
                e3a    sh1                       0/1               N9K-C9336C
                e3b    newsh2                    0/1               N9K-C9336C
    4 entries were displayed.
    
    sh1# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    Device-ID            Local Intrfce  Hldtme Capability  Platform      Port ID
    node1                Eth1/1         144    H           FAS2980       e3a
    node2                Eth1/2         145    H           FAS2980       e3a
    newsh2               Eth1/35        176    R S I s     N9K-C9336C    Eth1/35
    newsh2               Eth1/36        176    R S I s     N9K-C9336C    Eth1/36
    Total entries displayed: 4
    
    sh2# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    node1              Eth1/1         139    H           FAS2980       e3b
    node2              Eth1/2         124    H           FAS2980       eb
    sh1                Eth1/35        178    R S I s     N9K-C9336C    Eth1/35
    sh1                Eth1/36        178    R S I s     N9K-C9336C    Eth1/36
    Total entries displayed: 4
  15. attivare la funzione di raccolta dei log dello switch Ethernet per la raccolta dei file di log relativi allo switch, utilizzando i seguenti comandi:

    • system switch ethernet log setup password

    • system switch ethernet log enable-collection

      Mostra esempio
      cluster1::*> system switch ethernet log setup-password
      Enter the switch name: <return>
      The switch name entered is not recognized.
      Choose from the following list:
      sh1
      sh2
      cluster1::*> system switch ethernet log setup-password
      Enter the switch name: sh1
      RSA key fingerprint is e5:8b:c6:dc:e2:18:18:09:36:63:d9:63:dd:03:d9:cc
      Do you want to continue? {y|n}::[n] y
      Enter the password: <enter switch password>
      Enter the password again: <enter switch password>
      cluster1::*> system switch ethernet log setup-password
      Enter the switch name: sh2
      RSA key fingerprint is 57:49:86:a1:b9:80:6a:61:9a:86:8e:3c:e3:b7:1f:b1
      Do you want to continue? {y|n}:: [n] y
      Enter the password: <enter switch password>
      Enter the password again: <enter switch password>
      cluster1::*> system  switch ethernet log enable-collection
      Do you want to enable cluster log collection for all nodes in the cluster? y|n}: [n] y
      Enabling cluster switch log collection.
      cluster1::*>
Nota Se uno di questi comandi restituisce un errore, contattare il supporto NetApp.
  1. spostare le porte di storage dal vecchio switch sh2 al nuovo switch news2.

  2. Verificare che lo storage collegato alla coppia ha 1, switch shared news2 sia integro.

  3. Verificare che lo storage collegato alla coppia ha 2, switch shared news2 sia integro:

    storage port show -port-type ENET

    Mostra esempio
    storage::*> storage port show -port-type ENET
                                       Speed                            VLAN
    Node    Port    Type    Mode       (Gb/s)      State     Status       ID
    ------- ------- ------- ---------- ----------- --------- --------- -----
    node1
            e3a     ENET    storage          100   enabled   online       30
            e3b     ENET    storage            0   enabled   offline      30
            e7a     ENET    storage            0   enabled   offline      30
            e7b     ENET    storage          100   enabled   online       30
    
    node2
            e3a     ENET    storage          100   enabled   online       30
            e3b     ENET    storage            0   enabled   offline      30
            e7a     ENET    storage            0   enabled   offline      30
            e7b     ENET    storage          100   enabled   online       30
  4. verificare che gli shelf siano cablati correttamente:

    storage shelf port show -fields remote- device,remote-port

    Mostra esempio
    cluster1::*> storage shelf port show -fields remote-device,remote-port
    shelf id remote-port  remote-device
    ----- -- ------------ ----------------------------
    3.20  0  Ethernet1/13 sh1
    3.20  1  Ethernet1/13 newsh2
    3.20  2  Ethernet1/14 sh1
    3.20  3  Ethernet1/14 newsh2
    3.30  0  Ethernet1/15 sh1
    3.30  1  Ethernet1/15 newsh2
    3.30  2  Ethernet1/16 sh1
    3.30  3  Ethernet1/16 newsh2
    8 entries were displayed.
  5. rimuovere il vecchio switch sh2.

  6. Ripetere questi passaggi per lo switch sh1 e per il nuovo switch news1.

  7. Se è stata eliminata la creazione automatica del caso, riattivarla richiamando un messaggio AutoSupport:

    system node autosupport invoke -node * -type all -message MAINT=END