Skip to main content
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Aggiornamento del file di configurazione di riferimento (RCF)

Collaboratori netapp-yvonneo

È possibile aggiornare la versione RCF quando si dispone di una versione esistente del file RCF installata sugli switch operativi.

Prima di iniziare

Assicurarsi di disporre di quanto segue:

  • Backup corrente della configurazione dello switch.

  • Un cluster completamente funzionante (nessun errore nei log o problemi simili).

  • RCF corrente.

  • Se si sta aggiornando la versione RCF, è necessaria una configurazione di avvio nell'RCF che rifletta le immagini di avvio desiderate.

    Se è necessario modificare la configurazione di avvio per riflettere le immagini di avvio correnti, è necessario farlo prima di riapplicare RCF in modo che venga creata un'istanza della versione corretta in caso di riavvio futuro.

Nota Durante questa procedura non è necessario alcun collegamento interswitch operativo (ISL). Ciò è dovuto alla progettazione, in quanto le modifiche alla versione di RCF possono influire temporaneamente sulla connettività ISL. Per garantire operazioni del cluster senza interruzioni, la seguente procedura esegue la migrazione di tutte le LIF del cluster allo switch del partner operativo durante l'esecuzione delle operazioni sullo switch di destinazione.
Avvertenza Prima di installare una nuova versione del software dello switch e gli RCF, è necessario cancellare le impostazioni dello switch ed eseguire la configurazione di base. Prima di cancellare le impostazioni dello switch, è necessario essere collegati allo switch utilizzando la console seriale o aver conservato le informazioni di configurazione di base.

Passaggio 1: Preparazione per l'aggiornamento

  1. Visualizzare le porte del cluster su ciascun nodo collegato agli switch del cluster:

    network device-discovery show

    Mostra esempio
    cluster1::*> network device-discovery show
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  --------
    cluster1-01/cdp
                e0a    cs1                       Ethernet1/7       N3K-C3232C
                e0d    cs2                       Ethernet1/7       N3K-C3232C
    cluster1-02/cdp
                e0a    cs1                       Ethernet1/8       N3K-C3232C
                e0d    cs2                       Ethernet1/8       N3K-C3232C
    cluster1-03/cdp
                e0a    cs1                       Ethernet1/1/1     N3K-C3232C
                e0b    cs2                       Ethernet1/1/1     N3K-C3232C
    cluster1-04/cdp
                e0a    cs1                       Ethernet1/1/2     N3K-C3232C
                e0b    cs2                       Ethernet1/1/2     N3K-C3232C
    cluster1::*>
  2. Controllare lo stato amministrativo e operativo di ciascuna porta del cluster.

    1. Verificare che tutte le porte del cluster siano funzionanti:

      network port show –role cluster

      Mostra esempio
      cluster1::*> network port show -role cluster
      Node: cluster1-01
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      Node: cluster1-02
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      8 entries were displayed.
      Node: cluster1-03
         Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      Node: cluster1-04
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      cluster1::*>
    2. Verificare che tutte le interfacce del cluster (LIF) siano sulla porta home:

      network interface show -role cluster

      Mostra esempio
      cluster1::*> network interface show -role cluster
                  Logical            Status     Network           Current      Current Is
      Vserver     Interface          Admin/Oper Address/Mask      Node         Port    Home
      ----------- ------------------ ---------- ----------------- ------------ ------- ----
      Cluster
                  cluster1-01_clus1  up/up     169.254.3.4/23     cluster1-01  e0a     true
                  cluster1-01_clus2  up/up     169.254.3.5/23     cluster1-01  e0d     true
                  cluster1-02_clus1  up/up     169.254.3.8/23     cluster1-02  e0a     true
                  cluster1-02_clus2  up/up     169.254.3.9/23     cluster1-02  e0d     true
                  cluster1-03_clus1  up/up     169.254.1.3/23     cluster1-03  e0a     true
                  cluster1-03_clus2  up/up     169.254.1.1/23     cluster1-03  e0b     true
                  cluster1-04_clus1  up/up     169.254.1.6/23     cluster1-04  e0a     true
                  cluster1-04_clus2  up/up     169.254.1.7/23     cluster1-04  e0b     true
      8 entries were displayed.
      cluster1::*>
    3. Verificare che il cluster visualizzi le informazioni per entrambi gli switch del cluster:

      system cluster-switch show -is-monitoring-enabled-operational true

    Mostra esempio
    cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true
    Switch                      Type               Address          Model
    --------------------------- ------------------ ---------------- ---------------
    cs1                         cluster-network    10.233.205.92    NX3232C
         Serial Number: FOXXXXXXXGS
          Is Monitored: true
                Reason: None
      Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                        9.3(4)
        Version Source: CDP
    cs2                         cluster-network    10.233.205.93    NX3232C
         Serial Number: FOXXXXXXXGD
          Is Monitored: true
                Reason: None
      Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                        9.3(4)
        Version Source: CDP
    2 entries were displayed.
  3. Disattiva l'autorevert sulle LIF del cluster.

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false

Fase 2: Configurare le porte

  1. Sullo switch del cluster cs2, spegnere le porte collegate alle porte del cluster dei nodi.

    cs2> enable
    cs2# configure
    cs2(config)# interface eth1/1/1-2,eth1/7-8
    cs2(config-if-range)# shutdown
    cs2(config-if-range)# exit
    cs2# exit
    Avvertenza Assicurarsi di chiudere tutte le porte del cluster collegate per evitare problemi di connessione di rete. Per "Nodo fuori dal quorum quando si esegue la migrazione della LIF del cluster durante l'aggiornamento del sistema operativo dello switch" ulteriori informazioni, consultare l'articolo della Knowledge base.
  2. Verificare che le porte del cluster siano state sottoposte a failover sulle porte ospitate sullo switch del cluster cs1. Potrebbero volerci alcuni secondi.

    network interface show -role cluster

    Mostra esempio
    cluster1::*> network interface show -role cluster
                Logical           Status     Network            Current       Current Is
    Vserver     Interface         Admin/Oper Address/Mask       Node          Port    Home
    ----------- ----------------- ---------- ------------------ ------------- ------- ----
    Cluster
                cluster1-01_clus1 up/up      169.254.3.4/23     cluster1-01   e0a     true
                cluster1-01_clus2 up/up      169.254.3.5/23     cluster1-01   e0a     false
                cluster1-02_clus1 up/up      169.254.3.8/23     cluster1-02   e0a     true
                cluster1-02_clus2 up/up      169.254.3.9/23     cluster1-02   e0a     false
                cluster1-03_clus1 up/up      169.254.1.3/23     cluster1-03   e0a     true
                cluster1-03_clus2 up/up      169.254.1.1/23     cluster1-03   e0a     false
                cluster1-04_clus1 up/up      169.254.1.6/23     cluster1-04   e0a     true
                cluster1-04_clus2 up/up      169.254.1.7/23     cluster1-04   e0a     false
    8 entries were displayed.
    cluster1::*>
  3. Verificare che il cluster funzioni correttamente:

    cluster show

    Mostra esempio
    cluster1::*> cluster show
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------  -------
    cluster1-01          true    true          false
    cluster1-02          true    true          false
    cluster1-03          true    true          true
    cluster1-04          true    true          false
    4 entries were displayed.
    cluster1::*>
  4. Se non è già stato fatto, salvare una copia della configurazione corrente dello switch copiando l'output del seguente comando in un file di testo:

    show running-config

  5. Registrare eventuali aggiunte personalizzate tra l'attuale running-config e il file RCF in uso (ad esempio una configurazione SNMP per la tua organizzazione).

  6. Salva i dettagli di configurazione di base nel write_erase.cfg file sul bootflash.

    Nota

    Assicurati di configurare quanto segue: * Nome utente e password * Indirizzo IP di gestione * Gateway predefinito * Nome dello switch

    cs2# show run | section "switchname" > bootflash:write_erase.cfg

    cs2# show run | section "hostname" >> bootflash:write_erase.cfg

    cs2# show run | i "username admin password" >> bootflash:write_erase.cfg

    cs2# show run | section "vrf context management" >> bootflash:write_erase.cfg

    cs2# show run | section "interface mgmt0" >> bootflash:write_erase.cfg

  7. Per RCF versione 1.12 e successive, eseguire i seguenti comandi:

    cs2# echo "hardware access-list tcam region racl-lite 512" >> bootflash:write_erase.cfg

    cs2# echo "hardware access-list tcam region qos 256" >> bootflash:write_erase.cfg

  8. Verificare che il write_erase.cfg il file è popolato come previsto:

    show file bootflash:write_erase.cfg

  9. Emettere il write erase comando per cancellare la configurazione salvata corrente:

    cs2# write erase

    Warning: This command will erase the startup-configuration.

    Do you wish to proceed anyway? (y/n) [n] y

  10. Copiare la configurazione di base salvata in precedenza nella configurazione di avvio.

    cs2# copy bootflash:write_erase.cfg startup-config

  11. Riavviare lo switch cs2:

    cs2# reload

    This command will reboot the system. (y/n)? [n] y

  12. Dopo che l'indirizzo IP di gestione è nuovamente raggiungibile, accedere allo switch tramite SSH.

    Potrebbe essere necessario aggiornare le voci del file host relative alle chiavi SSH.

  13. Copiare l'RCF nel bootflash dello switch cs2 utilizzando uno dei seguenti protocolli di trasferimento: FTP, TFTP, SFTP o SCP. Per ulteriori informazioni sui comandi Cisco , consultare la guida appropriata nel "Cisco Nexus 3000 Series NX-OS Command Reference" guide.

    Mostra esempio

    Questo esempio mostra l'utilizzo di TFTP per copiare un RCF nella flash di avvio sullo switch cs2:

    cs2# copy tftp: bootflash: vrf management
    Enter source filename: Nexus_3232C_RCF_v1.6-Cluster-HA-Breakout.txt
    Enter hostname for the tftp server: 172.22.201.50
    Trying to connect to tftp server......Connection to Server Established.
    TFTP get operation was successful
    Copy complete, now saving to disk (please wait)...
  14. Applicare l'RCF precedentemente scaricato al bootflash.

    Per ulteriori informazioni sui comandi Cisco, consultare la guida appropriata in "Cisco Nexus 3000 Series NX-OS Command Reference" guide.

    Mostra esempio

    Questo esempio mostra il file RCF Nexus_3232C_RCF_v1.6-Cluster-HA-Breakout.txt in fase di installazione sullo switch cs2:

    cs2# copy Nexus_3232C_RCF_v1.6-Cluster-HA-Breakout.txt running-config echo-commands
    Avvertenza

    Assicuratevi di leggere attentamente le sezioni Note di installazione, Note importanti e banner del vostro RCF. Per garantire la corretta configurazione e il corretto funzionamento dello switch, è necessario leggere e seguire queste istruzioni.

  15. Verificare che il file RCF sia la versione più recente corretta:

    show running-config

    Quando si controlla l'output per verificare che l'RCF sia corretto, assicurarsi che le seguenti informazioni siano corrette:

    • Il banner RCF

    • Le impostazioni di nodo e porta

    • Personalizzazioni

      L'output varia in base alla configurazione del sito. Controllare le impostazioni della porta e fare riferimento alle note di rilascio per eventuali modifiche specifiche all'RCF installato.

  16. Riapplicare le eventuali personalizzazioni precedenti alla configurazione dello switch. Fare riferimento a "Esaminare le considerazioni relative al cablaggio e alla configurazione" per i dettagli su eventuali ulteriori modifiche necessarie.

  17. Dopo aver verificato che le versioni RCF e le impostazioni dello switch siano corrette, copiare il file running-config nel file startup-config.

    Per ulteriori informazioni sui comandi Cisco, consultare la guida appropriata in "Cisco Nexus 3000 Series NX-OS Command Reference" guide.

    cs2# copy running-config startup-config [########################################] 100% Copy complete
  18. Riavviare lo switch cs2. È possibile ignorare gli eventi di "interruzione delle porte del cluster" riportati sui nodi durante il riavvio dello switch.

    cs2# reload
    This command will reboot the system. (y/n)?  [n] y
  19. Verificare lo stato delle porte del cluster sul cluster.

    1. Verificare che le porte e0d siano in buone condizioni su tutti i nodi del cluster:

      network port show -role cluster

      Mostra esempio
      cluster1::*> network port show -role cluster
      Node: cluster1-01
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      Node: cluster1-02
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      Node: cluster1-03
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      Node: cluster1-04
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      8 entries were displayed.
    2. Verificare lo stato dello switch dal cluster (potrebbe non essere visualizzato lo switch cs2, poiché le LIF non sono presenti su e0d).

      Mostra esempio
      cluster1::*> network device-discovery show -protocol cdp
      Node/       Local  Discovered
      Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
      ----------- ------ ------------------------- ----------------- --------
      cluster1-01/cdp
                  e0a    cs1                       Ethernet1/7       N3K-C3232C
                  e0d    cs2                       Ethernet1/7       N3K-C3232C
      cluster01-2/cdp
                  e0a    cs1                       Ethernet1/8       N3K-C3232C
                  e0d    cs2                       Ethernet1/8       N3K-C3232C
      cluster01-3/cdp
                  e0a    cs1                       Ethernet1/1/1     N3K-C3232C
                  e0b    cs2                       Ethernet1/1/1     N3K-C3232C
      cluster1-04/cdp
                  e0a    cs1                       Ethernet1/1/2     N3K-C3232C
                  e0b    cs2                       Ethernet1/1/2     N3K-C3232C
      cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true
      Switch                      Type               Address          Model
      --------------------------- ------------------ ---------------- -----
      cs1                         cluster-network    10.233.205.90    N3K-C3232C
           Serial Number: FOXXXXXXXGD
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      cs2                         cluster-network    10.233.205.91    N3K-C3232C
           Serial Number: FOXXXXXXXGS
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      2 entries were displayed.
      Nota

      A seconda della versione RCF precedentemente caricata sullo switch, è possibile che venga visualizzato il seguente output sulla console dello switch cs1: 17 nov 2020 16:07:18 cs1 %$ VDC-1 %$ %STP-2-UNBLOCK_CONSIST_PORT: Sblocco della porta port-channel1 su VLAN0092. Coerenza della porta ripristinata. 17 nov 2020 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_PEER: Blocco del port-channel1 su VLAN0001. Peer VLAN incoerente. 17 nov 2020 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_LOCAL: Blocco del port-channel1 su VLAN0092. VLAN locale incoerente.

    Nota I nodi del cluster possono richiedere fino a 5 minuti per il reporting come integri.
  20. Sullo switch del cluster cs1, spegnere le porte collegate alle porte del cluster dei nodi.

    Mostra esempio

    Nell'esempio seguente viene utilizzato l'output dell'esempio di interfaccia del passo 1:

    cs1(config)# interface eth1/1/1-2,eth1/7-8
    cs1(config-if-range)# shutdown
  21. Verificare che le LIF del cluster siano migrate alle porte ospitate sullo switch cs2. Questa operazione potrebbe richiedere alcuni secondi.

    network interface show -role cluster

    Mostra esempio
    cluster1::*> network interface show -role cluster
                Logical            Status     Network            Current             Current Is
    Vserver     Interface          Admin/Oper Address/Mask       Node                Port    Home
    ----------- ------------------ ---------- ------------------ ------------------- ------- ----
    Cluster
                cluster1-01_clus1  up/up      169.254.3.4/23     cluster1-01         e0d     false
                cluster1-01_clus2  up/up      169.254.3.5/23     cluster1-01         e0d     true
                cluster1-02_clus1  up/up      169.254.3.8/23     cluster1-02         e0d     false
                cluster1-02_clus2  up/up      169.254.3.9/23     cluster1-02         e0d     true
                cluster1-03_clus1  up/up      169.254.1.3/23     cluster1-03         e0b     false
                cluster1-03_clus2  up/up      169.254.1.1/23     cluster1-03         e0b     true
                cluster1-04_clus1  up/up      169.254.1.6/23     cluster1-04         e0b     false
                cluster1-04_clus2  up/up      169.254.1.7/23     cluster1-04         e0b     true
    8 entries were displayed.
    cluster1::*>
  22. Verificare che il cluster funzioni correttamente:

    cluster show

    Mostra esempio
    cluster1::*> cluster show
    Node                 Health   Eligibility   Epsilon
    -------------------- -------- ------------- -------
    cluster1-01          true     true          false
    cluster1-02          true     true          false
    cluster1-03          true     true          true
    cluster1-04          true     true          false
    4 entries were displayed.
    cluster1::*>
  23. Ripetere i passaggi da 4 a 19 sullo switch cs1.

  24. Abilitare il ripristino automatico sulle LIF del cluster.

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

Fase 3: Verificare la configurazione della rete cluster e lo stato del cluster

  1. Verificare che le porte dello switch collegate alle porte del cluster siano up.

    show interface brief | grep up

    Mostra esempio
    cs1# show interface brief | grep up
    .
    .
    Eth1/1/1      1       eth  access up      none                    10G(D) --
    Eth1/1/2      1       eth  access up      none                    10G(D) --
    Eth1/7        1       eth  trunk  up      none                   100G(D) --
    Eth1/8        1       eth  trunk  up      none                   100G(D) --
    .
    .
  2. Verificare che l'ISL tra cs1 e cs2 funzioni correttamente:

    show port-channel summary

    Mostra esempio
    cs1# show port-channel summary
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/31(P)   Eth1/32(P)
    cs1#
  3. Verificare che le LIF del cluster siano tornate alla porta home:

    network interface show -role cluster

    Mostra esempio
    cluster1::*> network interface show -role cluster
                Logical            Status     Network            Current             Current Is
    Vserver     Interface          Admin/Oper Address/Mask       Node                Port    Home
    ----------- ------------------ ---------- ------------------ ------------------- ------- ----
    Cluster
                cluster1-01_clus1  up/up      169.254.3.4/23     cluster1-01         e0d     true
                cluster1-01_clus2  up/up      169.254.3.5/23     cluster1-01         e0d     true
                cluster1-02_clus1  up/up      169.254.3.8/23     cluster1-02         e0d     true
                cluster1-02_clus2  up/up      169.254.3.9/23     cluster1-02         e0d     true
                cluster1-03_clus1  up/up      169.254.1.3/23     cluster1-03         e0b     true
                cluster1-03_clus2  up/up      169.254.1.1/23     cluster1-03         e0b     true
                cluster1-04_clus1  up/up      169.254.1.6/23     cluster1-04         e0b     true
                cluster1-04_clus2  up/up      169.254.1.7/23     cluster1-04         e0b     true
    8 entries were displayed.
    cluster1::*>

    Se i LIFS del cluster non sono tornati alle porte home, ripristinarli manualmente: network interface revert -vserver vserver_name -lif lif_name

  4. Verificare che il cluster funzioni correttamente:

    cluster show

    Mostra esempio
    cluster1::*> cluster show
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------- -------
    cluster1-01          true    true          false
    cluster1-02          true    true          false
    cluster1-03          true    true          true
    cluster1-04          true    true          false
    4 entries were displayed.
    cluster1::*>
  5. Verificare la connettività delle interfacce del cluster remoto:

ONTAP 9.9.1 e versioni successive

Puoi usare il network interface check cluster-connectivity comando per avviare un controllo di accessibilità per la connettività del cluster e quindi visualizzare i dettagli: network interface check cluster-connectivity start E network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

NOTA: attendere alcuni secondi prima di eseguire il show comando per visualizzare i dettagli.

cluster1::*> network interface check cluster-connectivity show
                                  Source              Destination         Packet
Node   Date                       LIF                 LIF                 Loss
------ -------------------------- ------------------- ------------------- -----------
cluster1-01
       3/5/2022 19:21:18 -06:00   cluster1-01_clus2   cluster1-02_clus1   none
       3/5/2022 19:21:20 -06:00   cluster1-01_clus2   cluster1-02_clus2   none
.
.
cluster1-02
       3/5/2022 19:21:18 -06:00   cluster1-02_clus2   cluster1-01_clus1   none
       3/5/2022 19:21:20 -06:00   cluster1-02_clus2   cluster1-01_clus2   none
.
.
cluster1-03
.
.
.
.
cluster1-04
.
.
.
.
Tutte le release di ONTAP

Per tutte le versioni ONTAP , è anche possibile utilizzare cluster ping-cluster -node <name> comando per verificare la connettività: cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is cluster1-03
Getting addresses from network interface table...
Cluster cluster1-03_clus1 169.254.1.3 cluster1-03 e0a
Cluster cluster1-03_clus2 169.254.1.1 cluster1-03 e0b
Cluster cluster1-04_clus1 169.254.1.6 cluster1-04 e0a
Cluster cluster1-04_clus2 169.254.1.7 cluster1-04 e0b
Cluster cluster1-01_clus1 169.254.3.4 cluster1-01 e0a
Cluster cluster1-01_clus2 169.254.3.5 cluster1-01 e0d
Cluster cluster1-02_clus1 169.254.3.8 cluster1-02 e0a
Cluster cluster1-02_clus2 169.254.3.9 cluster1-02 e0d
Local = 169.254.1.3 169.254.1.1
Remote = 169.254.1.6 169.254.1.7 169.254.3.4 169.254.3.5 169.254.3.8 169.254.3.9
Cluster Vserver Id = 4294967293
Ping status:
............
Basic connectivity succeeds on 12 path(s)
Basic connectivity fails on 0 path(s)
................................................
Detected 9000 byte MTU on 12 path(s):
    Local 169.254.1.3 to Remote 169.254.1.6
    Local 169.254.1.3 to Remote 169.254.1.7
    Local 169.254.1.3 to Remote 169.254.3.4
    Local 169.254.1.3 to Remote 169.254.3.5
    Local 169.254.1.3 to Remote 169.254.3.8
    Local 169.254.1.3 to Remote 169.254.3.9
    Local 169.254.1.1 to Remote 169.254.1.6
    Local 169.254.1.1 to Remote 169.254.1.7
    Local 169.254.1.1 to Remote 169.254.3.4
    Local 169.254.1.1 to Remote 169.254.3.5
    Local 169.254.1.1 to Remote 169.254.3.8
    Local 169.254.1.1 to Remote 169.254.3.9
Larger than PMTU communication succeeds on 12 path(s)
RPC status:
6 paths up, 0 paths down (tcp check)
6 paths up, 0 paths down (udp check)
Quali sono le prossime novità?

Dopo aver aggiornato il tuo RCF,"verificare la configurazione SSH" .