Skip to main content
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Migrazione da un cluster switchless a due nodi a un cluster con switch cluster Cisco Nexus 3232C

Collaboratori netapp-yvonneo netapp-jolieg

Se si dispone di un cluster senza switch a due nodi, è possibile migrare a un cluster commutato a due nodi che include switch di rete del cluster Cisco Nexus 3232C. Si tratta di una procedura non distruttiva.

Requisiti di revisione

Prima di iniziare

Verificare le seguenti installazioni e connessioni:

  • Sono disponibili porte per le connessioni dei nodi. Gli switch cluster utilizzano le porte Inter-Switch Link (ISL) e1/31-32.

  • Si dispone di cavi adatti per le connessioni del cluster:

    • I nodi con connessioni cluster 10 GbE richiedono moduli ottici QSFP con cavi in fibra ottica breakout o cavi breakout in rame da QSFP a SFP+.

    • I nodi con connessioni cluster 40/100 GbE richiedono moduli ottici QSFP/QSFP28 supportati con cavi in fibra o cavi di collegamento diretto in rame QSFP/QSFP28.

    • Gli switch cluster richiedono il cablaggio ISL appropriato: 2 cavi QSFP28 in fibra o rame a collegamento diretto.

  • Le configurazioni sono impostate correttamente e funzionano.

    I due nodi devono essere connessi e funzionare in un ambiente cluster senza switch a due nodi.

  • Tutte le porte del cluster sono nello stato attivo.

  • Sono supportati gli switch cluster Cisco Nexus 3232C.

  • La configurazione di rete del cluster esistente è la seguente:

    • Un'infrastruttura cluster Nexus 3232C ridondante e completamente funzionale su entrambi gli switch

    • Le ultime versioni RCF e NX-OS sui tuoi switch

    • Connettività di gestione su entrambi gli switch

    • Accesso alla console per entrambi gli switch

    • Tutte le interfacce logiche del cluster (LIF) nello stato attivo senza essere state migrate

    • Personalizzazione iniziale dello switch

    • Tutte le porte ISL abilitate e cablate

Informazioni sugli esempi

Gli esempi in questa procedura utilizzano la seguente nomenclatura di switch e nodi:

  • Switch cluster Nexus 3232C, C1 e C2.

  • I nodi sono n1 e n2.

Gli esempi in questa procedura utilizzano due nodi, ciascuno dei quali utilizza due porte di interconnessione cluster da 40 GbE e4a ed e4e. IL"Universo Hardware" contiene dettagli sulle porte del cluster sulle tue piattaforme.

  • n1_clus1 è la prima interfaccia logica del cluster (LIF) da connettere allo switch del cluster C1 per il nodo n1.

  • n1_clus2 è il primo cluster LIF ad essere connesso allo switch del cluster C2 per il nodo n1.

  • n2_clus1 è il primo cluster LIF ad essere connesso allo switch del cluster C1 per il nodo n2.

  • n2_clus2 è il secondo cluster LIF da connettere allo switch del cluster C2 per il nodo n2.

  • Il numero di porte 10 GbE e 40/100 GbE è definito nei file di configurazione di riferimento (RCF) disponibili all'indirizzo"Download del file di configurazione di riferimento dello switch di rete Cisco® Cluster" .

Nota

La procedura richiede l'uso sia dei comandi ONTAP sia dei comandi degli switch Cisco Nexus serie 3000; salvo diversa indicazione, vengono utilizzati i comandi ONTAP .

Passaggio 1: visualizzare e migrare le porte fisiche e logiche

  1. Se AutoSupport è abilitato su questo cluster, sopprimere la creazione automatica dei casi richiamando un messaggio AutoSupport :

    system node autosupport invoke -node * -type all - message MAINT=xh

    x è la durata della finestra di manutenzione in ore.

    Nota

    Il messaggio AutoSupport avvisa il supporto tecnico di questa attività di manutenzione, in modo che la creazione automatica dei casi venga soppressa durante la finestra di manutenzione.

  2. Determinare lo stato amministrativo o operativo per ciascuna interfaccia del cluster:

    1. Visualizza gli attributi della porta di rete:

      network port show -role cluster

      Mostra esempio
      cluster::*> network port show -role cluster
        (network port show)
      Node: n1
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- -----
      e4a       Cluster      Cluster          up   9000 auto/40000  -
      e4e       Cluster      Cluster          up   9000 auto/40000  -        -
      Node: n2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- -----
      e4a       Cluster      Cluster          up   9000 auto/40000  -
      e4e       Cluster      Cluster          up   9000 auto/40000  -
      4 entries were displayed.
    2. Visualizza informazioni sulle interfacce logiche e sui nodi home designati:

      network interface show -role cluster

      Mostra esempio
      cluster::*> network interface show -role cluster
       (network interface show)
                  Logical    Status     Network            Current       Current Is
      Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
      ----------- ---------- ---------- ------------------ ------------- ------- ---
      Cluster
                  n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                  n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                  n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                  n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
      
      4 entries were displayed.
    3. Verificare che il rilevamento del cluster senza switch sia abilitato utilizzando il comando con privilegi avanzati:

      network options detect-switchless-cluster show`

    Mostra esempio

    L'output nell'esempio seguente mostra che il rilevamento del cluster senza switch è abilitato:

    cluster::*> network options detect-switchless-cluster show
    Enable Switchless Cluster Detection: true
  3. Verificare che sui nuovi switch 3232C siano installati gli RCF e l'immagine appropriati ed effettuare le personalizzazioni necessarie al sito, ad esempio aggiungendo utenti, password e indirizzi di rete.

    A questo punto è necessario preparare entrambi gli switch. Se è necessario aggiornare il software RCF e quello delle immagini, è necessario seguire questi passaggi:

    1. Vai alla pagina Switch Ethernet Cisco sul sito di supporto NetApp .

    2. Annota il tuo switch e le versioni software richieste nella tabella in quella pagina.

    3. Scarica la versione appropriata di RCF.

    4. Fare clic su CONTINUA nella pagina Descrizione, accettare il contratto di licenza e quindi seguire le istruzioni nella pagina Download per scaricare l'RCF.

    5. Scarica la versione appropriata del software per le immagini.

  4. Fare clic su CONTINUA nella pagina Descrizione, accettare il contratto di licenza e quindi seguire le istruzioni nella pagina Download per scaricare l'RCF.

  5. Sugli switch Nexus 3232C C1 e C2, disabilitare tutte le porte C1 e C2 rivolte al nodo, ma non disabilitare le porte ISL e1/31-32.

    Per ulteriori informazioni sui comandi Cisco , consultare le guide elencate in "Riferimenti ai comandi NX-OS della serie Cisco Nexus 3000" .

    Mostra esempio

    L'esempio seguente mostra le porte da 1 a 30 disabilitate sugli switch cluster Nexus 3232C C1 e C2 utilizzando una configurazione supportata in RCF NX3232_RCF_v1.0_24p10g_24p100g.txt :

    C1# copy running-config startup-config
    [] 100% Copy complete.
    C1# configure
    C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C1(config-if-range)# shutdown
    C1(config-if-range)# exit
    C1(config)# exit
    C2# copy running-config startup-config
    [] 100% Copy complete.
    C2# configure
    C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C2(config-if-range)# shutdown
    C2(config-if-range)# exit
    C2(config)# exit
  6. Collegare le porte 1/31 e 1/32 su C1 alle stesse porte su C2 utilizzando il cablaggio supportato.

  7. Verificare che le porte ISL siano operative su C1 e C2:

    show port-channel summary

    Per ulteriori informazioni sui comandi Cisco , consultare le guide elencate in "Riferimenti ai comandi NX-OS della serie Cisco Nexus 3000" .

    Mostra esempio

    L'esempio seguente mostra Cisco show port-channel summary comando utilizzato per verificare che le porte ISL siano operative su C1 e C2:

    C1# show port-channel summary
    Flags: D - Down         P - Up in port-channel (members)
           I - Individual   H - Hot-standby (LACP only)        s - Suspended    r - Module-removed
           S - Switched     R - Routed
           U - Up (port-channel)
           M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
          Port-
    Group Channel      Type   Protocol  Member Ports
    -------------------------------------------------------------------------------
    1     Po1(SU)      Eth    LACP      Eth1/31(P)   Eth1/32(P)
    
    C2# show port-channel summary
    Flags: D - Down         P - Up in port-channel (members)
           I - Individual   H - Hot-standby (LACP only)        s - Suspended    r - Module-removed
           S - Switched     R - Routed
           U - Up (port-channel)
           M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    
    Group Port-        Type   Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)      Eth    LACP      Eth1/31(P)   Eth1/32(P)
  8. Visualizza l'elenco dei dispositivi adiacenti sullo switch.

    Per ulteriori informazioni sui comandi Cisco , consultare le guide elencate in "Riferimenti ai comandi NX-OS della serie Cisco Nexus 3000" .

    Mostra esempio

    L'esempio seguente mostra il comando Cisco show cdp neighbors utilizzato per visualizzare i dispositivi vicini sullo switch:

    C1# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,                   s - Supports-STP-Dispute
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    C2                 Eth1/31        174    R S I s     N3K-C3232C  Eth1/31
    C2                 Eth1/32        174    R S I s     N3K-C3232C  Eth1/32
    Total entries displayed: 2
    C2# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,                   s - Supports-STP-Dispute
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    C1                 Eth1/31        178    R S I s     N3K-C3232C  Eth1/31
    C1                 Eth1/32        178    R S I s     N3K-C3232C  Eth1/32
    Total entries displayed: 2
  9. Visualizza la connettività delle porte del cluster su ciascun nodo:

    network device-discovery show

    Mostra esempio

    L'esempio seguente mostra la connettività delle porte del cluster visualizzata per una configurazione di cluster switchless a due nodi:

    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    n2                  e4a              FAS9000
                e4e    n2                  e4e              FAS9000
    n2         /cdp
                e4a    n1                  e4a              FAS9000
                e4e    n1                  e4e              FAS9000
  10. Migrare i LIF n1_clus1 e n2_clus1 alle porte fisiche dei loro nodi di destinazione:

    network interface migrate -vserver vserver-name -lif lif-name source-node source-node-name -destination-port destination-port-name

    Mostra esempio

    È necessario eseguire il comando per ciascun nodo locale come mostrato nell'esempio seguente:

    cluster::*> network interface migrate -vserver cluster -lif n1_clus1 -source-node n1
    -destination-node n1 -destination-port e4e
    cluster::*> network interface migrate -vserver cluster -lif n2_clus1 -source-node n2
    -destination-node n2 -destination-port e4e

Passaggio 2: spegnere i LIF riassegnati e scollegare i cavi

  1. Verificare che le interfacce del cluster siano state migrate correttamente:

    network interface show -role cluster

    Mostra esempio

    L'esempio seguente mostra che lo stato "Is Home" per i LIF n1_clus1 e n2_clus1 è diventato "false" dopo il completamento della migrazione:

    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4e     false
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4e     false
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
     4 entries were displayed.
  2. Arrestare le porte del cluster per i LIF n1_clus1 e n2_clus1, migrati nel passaggio 9:

    network port modify -node node-name -port port-name -up-admin false

    Mostra esempio

    È necessario eseguire il comando per ogni porta come mostrato nell'esempio seguente:

    cluster::*> network port modify -node n1 -port e4a -up-admin false
    cluster::*> network port modify -node n2 -port e4a -up-admin false
  3. Verificare la connettività delle interfacce del cluster remoto:

ONTAP 9.9.1 e versioni successive

Puoi usare il network interface check cluster-connectivity comando per avviare un controllo di accessibilità per la connettività del cluster e quindi visualizzare i dettagli:

network interface check cluster-connectivity start`E `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

NOTA: Attendere alcuni secondi prima di eseguire il show comando per visualizzare i dettagli.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
n1
       3/5/2022 19:21:18 -06:00   n1_clus2         n2-clus1         none
       3/5/2022 19:21:20 -06:00   n1_clus2         n2_clus2         none

n2
       3/5/2022 19:21:18 -06:00   n2_clus2         n1_clus1         none
       3/5/2022 19:21:20 -06:00   n2_clus2         n1_clus2         none
Tutte le versioni ONTAP

Per tutte le versioni ONTAP , è anche possibile utilizzare cluster ping-cluster -node <name> comando per verificare la connettività:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1        e4a    10.10.0.1
Cluster n1_clus2 n1        e4e    10.10.0.2
Cluster n2_clus1 n2        e4a    10.10.0.3
Cluster n2_clus2 n2        e4e    10.10.0.4
Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293 Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s) ................
Detected 9000 byte MTU on 32 path(s):
    Local 10.10.0.1 to Remote 10.10.0.3
    Local 10.10.0.1 to Remote 10.10.0.4
    Local 10.10.0.2 to Remote 10.10.0.3
    Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s) RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)
  1. Scollegare il cavo da e4a sul nodo n1.

    È possibile fare riferimento alla configurazione in esecuzione e collegare la prima porta 40 GbE sullo switch C1 (porta 1/7 in questo esempio) a e4a su n1 utilizzando il cablaggio supportato per gli switch Nexus 3232C.

Passaggio 3: abilitare le porte del cluster

  1. Scollegare il cavo da e4a sul nodo n2.

    È possibile fare riferimento alla configurazione in esecuzione e collegare e4a alla successiva porta 40 GbE disponibile su C1, porta 1/8, utilizzando il cablaggio supportato.

  2. Abilitare tutte le porte rivolte al nodo su C1.

    Per ulteriori informazioni sui comandi Cisco , consultare le guide elencate in "Riferimenti ai comandi NX-OS della serie Cisco Nexus 3000" .

    Mostra esempio

    L'esempio seguente mostra le porte da 1 a 30 abilitate sugli switch cluster Nexus 3232C C1 e C2 utilizzando la configurazione supportata in RCF NX3232_RCF_v1.0_24p10g_26p100g.txt :

    C1# configure
    C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C1(config-if-range)# no shutdown
    C1(config-if-range)# exit
    C1(config)# exit
  3. Abilitare la prima porta del cluster, e4a, su ciascun nodo:

    network port modify -node node-name -port port-name -up-admin true

    Mostra esempio
    cluster::*> network port modify -node n1 -port e4a -up-admin true
    cluster::*> network port modify -node n2 -port e4a -up-admin true
  4. Verificare che i cluster siano attivi su entrambi i nodi:

    network port show -role cluster

    Mostra esempio
    cluster::*> network port show -role cluster
      (network port show)
    Node: n1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- -----
    e4a       Cluster      Cluster          up   9000 auto/40000  -
    e4e       Cluster      Cluster          up   9000 auto/40000  -        -
    
    Node: n2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- -----
    e4a       Cluster      Cluster          up   9000 auto/40000  -
    e4e       Cluster      Cluster          up   9000 auto/40000  -
    
    4 entries were displayed.
  5. Per ogni nodo, ripristinare tutti i LIF di interconnessione del cluster migrati:

    network interface revert -vserver cluster -lif lif-name

    Mostra esempio

    È necessario ripristinare ogni LIF alla propria porta di origine singolarmente, come mostrato nell'esempio seguente:

    cluster::*> network interface revert -vserver cluster -lif n1_clus1
    cluster::*> network interface revert -vserver cluster -lif n2_clus1
  6. Verificare che tutti i LIF siano ora ripristinati alle loro porte di origine:

    network interface show -role cluster

    IL Is Home la colonna dovrebbe visualizzare un valore di true per tutte le porte elencate nel Current Port colonna. Se il valore visualizzato è false , la porta non è stata ripristinata.

    Mostra esempio
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.

Passaggio 4: abilitare i LIF riassegnati

  1. Visualizza la connettività delle porte del cluster su ciascun nodo:

    network device-discovery show

    Mostra esempio
    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    C1                  Ethernet1/7      N3K-C3232C
                e4e    n2                  e4e              FAS9000
    n2         /cdp
                e4a    C1                  Ethernet1/8      N3K-C3232C
                e4e    n1                  e4e              FAS9000
  2. Migrare clus2 sulla porta e4a sulla console di ciascun nodo:

    network interface migrate cluster -lif lif-name -source-node source-node-name -destination-node destination-node-name -destination-port destination-port-name

    Mostra esempio

    È necessario migrare ogni LIF alla sua porta home individualmente, come mostrato nell'esempio seguente:

    cluster::*> network interface migrate -vserver cluster -lif n1_clus2 -source-node n1
    -destination-node n1 -destination-port e4a
    cluster::*> network interface migrate -vserver cluster -lif n2_clus2 -source-node n2
    -destination-node n2 -destination-port e4a
  3. Arrestare le porte del cluster clus2 LIF su entrambi i nodi:

    network port modify

    Mostra esempio

    L'esempio seguente mostra le porte specificate impostate su false , chiudendo le porte su entrambi i nodi:

    cluster::*> network port modify -node n1 -port e4e -up-admin false
    cluster::*> network port modify -node n2 -port e4e -up-admin false
  4. Verificare lo stato LIF del cluster:

    network interface show

    Mostra esempio
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4a     false
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4a     false
    4 entries were displayed.
  5. Scollegare il cavo da e4e sul nodo n1.

    È possibile fare riferimento alla configurazione in esecuzione e collegare la prima porta 40 GbE sullo switch C2 (porta 1/7 in questo esempio) a e4e sul nodo n1, utilizzando il cablaggio appropriato per il modello di switch Nexus 3232C.

  6. Scollegare il cavo da e4e sul nodo n2.

    È possibile fare riferimento alla configurazione in esecuzione e collegare e4e alla successiva porta 40 GbE disponibile su C2, porta 1/8, utilizzando il cablaggio appropriato per il modello di switch Nexus 3232C.

  7. Abilitare tutte le porte rivolte verso il nodo su C2.

    Mostra esempio

    L'esempio seguente mostra le porte da 1 a 30 abilitate sugli switch cluster Nexus 3132Q-V C1 e C2 utilizzando una configurazione supportata in RCF NX3232C_RCF_v1.0_24p10g_26p100g.txt :

    C2# configure
    C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C2(config-if-range)# no shutdown
    C2(config-if-range)# exit
    C2(config)# exit
  8. Abilitare la seconda porta del cluster, e4e, su ciascun nodo:

    network port modify

    Mostra esempio

    L'esempio seguente mostra la seconda porta del cluster e4e attivata su ciascun nodo:

    cluster::*> network port modify -node n1 -port e4e -up-admin true
    cluster::*> *network port modify -node n2 -port e4e -up-admin true*s
  9. Per ogni nodo, ripristinare tutti i LIF di interconnessione del cluster migrati: network interface revert

    Mostra esempio

    L'esempio seguente mostra i LIF migrati che vengono ripristinati alle loro porte di origine.

    cluster::*> network interface revert -vserver Cluster -lif n1_clus2
    cluster::*> network interface revert -vserver Cluster -lif n2_clus2
  10. Verificare che tutte le porte di interconnessione del cluster siano ora ripristinate alle loro porte home:

    network interface show -role cluster

    IL Is Home la colonna dovrebbe visualizzare un valore di true per tutte le porte elencate nel Current Port colonna. Se il valore visualizzato è false , la porta non è stata ripristinata.

    Mostra esempio
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.
  11. Verificare che tutte le porte di interconnessione del cluster siano in up stato:

    network port show -role cluster

  12. Visualizza i numeri delle porte dello switch del cluster tramite cui ogni porta del cluster è connessa a ciascun nodo: network device-discovery show

    Mostra esempio
    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1          /cdp
                e4a    C1                  Ethernet1/7      N3K-C3232C
                e4e    C2                  Ethernet1/7      N3K-C3232C
    n2          /cdp
                e4a    C1                  Ethernet1/8      N3K-C3232C
                e4e    C2                  Ethernet1/8      N3K-C3232C
  13. Visualizza gli switch del cluster rilevati e monitorati:

    system cluster-switch show

    Mostra esempio
    cluster::*> system cluster-switch show
    
    Switch                      Type               Address          Model
    --------------------------- ------------------ ---------------- ---------------
    C1                          cluster-network    10.10.1.101      NX3232CV
    Serial Number: FOX000001
    Is Monitored: true
    Reason:
    Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1)
    Version Source: CDP
    
    C2                          cluster-network     10.10.1.102      NX3232CV
    Serial Number: FOX000002
    Is Monitored: true
    Reason:
    Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1)
    Version Source: CDP 2 entries were displayed.
  14. Verificare che il rilevamento del cluster senza switch abbia modificato l'opzione del cluster senza switch in disabilitata:

    network options switchless-cluster show

  15. Verificare la connettività delle interfacce del cluster remoto:

ONTAP 9.9.1 e versioni successive

Puoi usare il network interface check cluster-connectivity comando per avviare un controllo di accessibilità per la connettività del cluster e quindi visualizzare i dettagli:

network interface check cluster-connectivity start`E `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

NOTA: Attendere alcuni secondi prima di eseguire il show comando per visualizzare i dettagli.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
n1
       3/5/2022 19:21:18 -06:00   n1_clus2         n2-clus1         none
       3/5/2022 19:21:20 -06:00   n1_clus2         n2_clus2         none

n2
       3/5/2022 19:21:18 -06:00   n2_clus2         n1_clus1         none
       3/5/2022 19:21:20 -06:00   n2_clus2         n1_clus2         none
Tutte le versioni ONTAP

Per tutte le versioni ONTAP , è anche possibile utilizzare cluster ping-cluster -node <name> comando per verificare la connettività:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1        e4a    10.10.0.1
Cluster n1_clus2 n1        e4e    10.10.0.2
Cluster n2_clus1 n2        e4a    10.10.0.3
Cluster n2_clus2 n2        e4e    10.10.0.4
Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s) ................
Detected 9000 byte MTU on 32 path(s):
    Local 10.10.0.1 to Remote 10.10.0.3
    Local 10.10.0.1 to Remote 10.10.0.4
    Local 10.10.0.2 to Remote 10.10.0.3
    Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s) RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)
  1. Se hai disattivato la creazione automatica dei casi, riattivala richiamando un messaggio AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=END