Skip to main content
Cluster and storage switches
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Installazione del file di configurazione di riferimento (RCF)

Collaboratori

È possibile installare RCF dopo aver configurato lo switch Nexus 92300YC per la prima volta. È inoltre possibile utilizzare questa procedura per aggiornare la versione di RCF.

A proposito di questa attività

Gli esempi di questa procedura utilizzano la seguente nomenclatura di switch e nodi:

  • I nomi dei due switch Cisco sono cs1 e. cs2.

  • I nomi dei nodi sono node1 e. node2.

  • I nomi LIF del cluster sono node1_clus1, node1_clus2, node2_clus1, e. node2_clus2.

  • Il cluster1::*> prompt indica il nome del cluster.

Nota
  • La procedura richiede l'utilizzo di entrambi i comandi ONTAP e. "Switch Cisco Nexus serie 9000"; I comandi ONTAP vengono utilizzati se non diversamente indicato.

  • Prima di eseguire questa procedura, assicurarsi di disporre di un backup corrente della configurazione dello switch.

  • Durante questa procedura non è necessario alcun collegamento interswitch operativo (ISL). Ciò è dovuto alla progettazione, in quanto le modifiche alla versione di RCF possono influire temporaneamente sulla connettività ISL. Per garantire operazioni del cluster senza interruzioni, la seguente procedura esegue la migrazione di tutte le LIF del cluster allo switch del partner operativo durante l'esecuzione delle operazioni sullo switch di destinazione.

Fasi
  1. Visualizzare le porte del cluster su ciascun nodo collegato agli switch del cluster: network device-discovery show

    Mostra esempio
    cluster1::*> *network device-discovery show*
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ------------
    node1/cdp
                e0a    cs1                       Ethernet1/1/1     N9K-C92300YC
                e0b    cs2                       Ethernet1/1/1     N9K-C92300YC
    node2/cdp
                e0a    cs1                       Ethernet1/1/2     N9K-C92300YC
                e0b    cs2                       Ethernet1/1/2     N9K-C92300YC
    cluster1::*>
  2. Controllare lo stato amministrativo e operativo di ciascuna porta del cluster.

    1. Verificare che tutte le porte del cluster siano funzionanti: network port show -ipspace Cluster

      Mostra esempio
      cluster1::*> *network port show -ipspace Cluster*
      
      Node: node1
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0c       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      
      Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0c       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      cluster1::*>
    2. Verificare che tutte le interfacce del cluster (LIF) siano sulla porta home: network interface show -vserver Cluster

      Mostra esempio
      cluster1::*> *network interface show -vserver Cluster*
                  Logical            Status     Network           Current      Current Is
      Vserver     Interface          Admin/Oper Address/Mask      Node         Port    Home
      ----------- ------------------ ---------- ----------------- ------------ ------- ----
      Cluster
                  node1_clus1        up/up      169.254.3.4/23    node1        e0c     true
                  node1_clus2        up/up      169.254.3.5/23    node1        e0d     true
                  node2_clus1        up/up      169.254.3.8/23    node2        e0c     true
                  node2_clus2        up/up      169.254.3.9/23    node2        e0d     true
      cluster1::*>
    3. Verificare che il cluster visualizzi le informazioni per entrambi gli switch del cluster: system cluster-switch show -is-monitoring-enabled-operational true

      Mostra esempio
      cluster1::*> *system cluster-switch show -is-monitoring-enabled-operational true*
      Switch                      Type               Address          Model
      --------------------------- ------------------ ---------------- ---------------
      cs1                         cluster-network    10.233.205.92    N9K-C92300YC
           Serial Number: FOXXXXXXXGS
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      
      cs2                         cluster-network    10.233.205.93    N9K-C92300YC
           Serial Number: FOXXXXXXXGD
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      
      2 entries were displayed.
  3. Disattiva l'autorevert sulle LIF del cluster.

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
  4. Sullo switch del cluster cs2, spegnere le porte collegate alle porte del cluster dei nodi.

    cs2(config)# interface e1/1-64
    cs2(config-if-range)# shutdown
  5. Verificare che le porte del cluster siano migrate alle porte ospitate sullo switch del cluster cs1. Questa operazione potrebbe richiedere alcuni secondi. network interface show -vserver Cluster

    Mostra esempio
    cluster1::*> *network interface show -vserver Cluster*
                Logical           Status     Network            Current       Current Is
    Vserver     Interface         Admin/Oper Address/Mask       Node          Port    Home
    ----------- ----------------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1       up/up      169.254.3.4/23     node1         e0c     true
                node1_clus2       up/up      169.254.3.5/23     node1         e0c     false
                node2_clus1       up/up      169.254.3.8/23     node2         e0c     true
                node2_clus2       up/up      169.254.3.9/23     node2         e0c     false
    cluster1::*>
  6. Verificare che il cluster funzioni correttamente: cluster show

    Mostra esempio
    cluster1::*> *cluster show*
    Node           Health  Eligibility   Epsilon
    -------------- ------- ------------  -------
    node1          true    true          false
    node2          true    true          false
    cluster1::*>
  7. Se non è già stato fatto, salvare una copia della configurazione corrente dello switch copiando l'output del seguente comando in un file di testo:

    show running-config

  8. Pulire la configurazione sullo switch cs2 ed eseguire una configurazione di base.

    Avvertenza Quando si aggiorna o si applica un nuovo RCF, è necessario cancellare le impostazioni dello switch ed eseguire la configurazione di base. Per configurare nuovamente lo switch, è necessario essere collegati alla porta della console seriale dello switch.
    1. Pulire la configurazione:

      Mostra esempio
      (cs2)# write erase
      
      Warning: This command will erase the startup-configuration.
      
      Do you wish to proceed anyway? (y/n)  [n]  y
    2. Riavviare lo switch:

      Mostra esempio
      (cs2)# reload
      
      Are you sure you would like to reset the system? (y/n) y
  9. Copiare l'RCF nella flash di avvio dello switch cs2 utilizzando uno dei seguenti protocolli di trasferimento: FTP, TFTP, SFTP o SCP. Per ulteriori informazioni sui comandi Cisco, consultare la guida appropriata in "Switch Cisco Nexus serie 9000" guide.

    Questo esempio mostra l'utilizzo di TFTP per copiare un RCF nella flash di avvio sullo switch cs2:

    cs2# copy tftp: bootflash: vrf management
    Enter source filename: /code/Nexus_92300YC_RCF_v1.0.2.txt
    Enter hostname for the tftp server: 172.19.2.1
    Enter username: user1
    
    Outbound-ReKey for 172.19.2.1:22
    Inbound-ReKey for 172.19.2.1:22
    user1@172.19.2.1's password:
    tftp> progress
    Progress meter enabled
    tftp> get /code/Nexus_92300YC_RCF_v1.0.2.txt /bootflash/nxos.9.2.2.bin
    /code/Nexus_92300YC_R  100% 9687   530.2KB/s   00:00
    tftp> exit
    Copy complete, now saving to disk (please wait)...
    Copy complete.
  10. Applicare l'RCF precedentemente scaricato al bootflash.

    Per ulteriori informazioni sui comandi Cisco, consultare la guida appropriata in "Switch Cisco Nexus serie 9000" guide.

    Questo esempio mostra il file RCF Nexus_92300YC_RCF_v1.0.2.txt in fase di installazione sullo switch cs2:

    cs2# copy Nexus_92300YC_RCF_v1.0.2.txt running-config echo-commands
    
    Disabling ssh: as its enabled right now:
     generating ecdsa key(521 bits)......
    generated ecdsa key
    
    Enabling ssh: as it has been disabled
     this command enables edge port type (portfast) by default on all interfaces. You
     should now disable edge port type (portfast) explicitly on switched ports leading to hubs,
     switches and bridges as they may create temporary bridging loops.
    
    Edge port type (portfast) should only be enabled on ports connected to a single
     host. Connecting hubs, concentrators, switches, bridges, etc...  to this
     interface when edge port type (portfast) is enabled, can cause temporary bridging loops.
     Use with CAUTION
    
    Edge Port Type (Portfast) has been configured on Ethernet1/1 but will only
     have effect when the interface is in a non-trunking mode.
    
    ...
    
    Copy complete, now saving to disk (please wait)...
    Copy complete.
  11. Verificare sullo switch che l'RCF sia stato Unito correttamente:

    show running-config

    cs2# show running-config
    !Command: show running-config
    !Running configuration last done at: Wed Apr 10 06:32:27 2019
    !Time: Wed Apr 10 06:36:00 2019
    
    version 9.2(2) Bios:version 05.33
    switchname cs2
    vdc cs2 id 1
      limit-resource vlan minimum 16 maximum 4094
      limit-resource vrf minimum 2 maximum 4096
      limit-resource port-channel minimum 0 maximum 511
      limit-resource u4route-mem minimum 248 maximum 248
      limit-resource u6route-mem minimum 96 maximum 96
      limit-resource m4route-mem minimum 58 maximum 58
      limit-resource m6route-mem minimum 8 maximum 8
    
    feature lacp
    
    no password strength-check
    username admin password 5 $5$HY9Kk3F9$YdCZ8iQJ1RtoiEFa0sKP5IO/LNG1k9C4lSJfi5kesl
    6  role network-admin
    ssh key ecdsa 521
    
    banner motd #
    
    *                                                                              *
    *  Nexus 92300YC Reference Configuration File (RCF) v1.0.2 (10-19-2018)        *
    *                                                                              *
    *  Ports 1/1  - 1/48: 10GbE Intra-Cluster Node Ports                           *
    *  Ports 1/49 - 1/64: 40/100GbE Intra-Cluster Node Ports                       *
    *  Ports 1/65 - 1/66: 40/100GbE Intra-Cluster ISL Ports                        *
    *                                                                              *
    
Nota Quando si applica RCF per la prima volta, il messaggio ERROR: Failed to write VSH comands (ERRORE: Impossibile scrivere i comandi VSH) è previsto e può essere ignorato.
  1. verificare che il file RCF sia la versione più recente corretta: show running-config

    Quando si controlla l'output per verificare che l'RCF sia corretto, assicurarsi che le seguenti informazioni siano corrette:

    • Il banner RCF

    • Le impostazioni di nodo e porta

    • Personalizzazioni

      L'output varia in base alla configurazione del sito. Controllare le impostazioni della porta e fare riferimento alle note di rilascio per eventuali modifiche specifiche all'RCF installato.

  2. Dopo aver verificato che le versioni RCF e le impostazioni dello switch siano corrette, copiare il file running-config nel file startup-config.

    Per ulteriori informazioni sui comandi Cisco, consultare la guida appropriata in "Switch Cisco Nexus serie 9000" guide.

    cs2# copy running-config startup-config
    [] 100% Copy complete
  3. Riavviare lo switch cs2. È possibile ignorare gli eventi di "interruzione delle porte del cluster" riportati sui nodi durante il riavvio dello switch.

    cs2# reload
    This command will reboot the system. (y/n)?  [n] y
  4. Verificare lo stato delle porte del cluster sul cluster.

    1. Verificare che le porte e0d siano in buone condizioni su tutti i nodi del cluster: network port show -ipspace Cluster

      Mostra esempio
      cluster1::*> *network port show -ipspace Cluster*
      
      Node: node1
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      
      Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
    2. Verificare lo stato dello switch dal cluster (potrebbe non essere visualizzato lo switch cs2, poiché le LIF non sono presenti su e0d).

      Mostra esempio
      cluster1::*> *network device-discovery show -protocol cdp*
      Node/       Local  Discovered
      Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
      ----------- ------ ------------------------- ----------------- ------------
      node1/cdp
                  e0a    cs1                       Ethernet1/1       N9K-C92300YC
                  e0b    cs2                       Ethernet1/1       N9K-C92300YC
      node2/cdp
                  e0a    cs1                       Ethernet1/2       N9K-C92300YC
                  e0b    cs2                       Ethernet1/2       N9K-C92300YC
      
      cluster1::*> *system cluster-switch show -is-monitoring-enabled-operational true*
      Switch                      Type               Address          Model
      --------------------------- ------------------ ---------------- ------------
      cs1                         cluster-network    10.233.205.90    N9K-C92300YC
           Serial Number: FOXXXXXXXGD
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      
      cs2                         cluster-network    10.233.205.91    N9K-C92300YC
           Serial Number: FOXXXXXXXGS
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      
      2 entries were displayed.
    Nota

    A seconda della versione RCF precedentemente caricata sullo switch, è possibile osservare i seguenti output sulla console dello switch cs1

    2020 Nov 17 16:07:18 cs1 %$ VDC-1 %$ %STP-2-UNBLOCK_CONSIST_PORT: Unblocking port port-channel1 on VLAN0092. Port consistency restored.
    2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_PEER: Blocking port-channel1 on VLAN0001. Inconsistent peer vlan.
    2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_LOCAL: Blocking port-channel1 on VLAN0092. Inconsistent local vlan.
  5. Sullo switch del cluster cs1, spegnere le porte collegate alle porte del cluster dei nodi.

    Nell'esempio seguente viene utilizzato l'output dell'esempio di interfaccia del passo 1:

    cs1(config)# interface e1/1-64
    cs1(config-if-range)# shutdown
  6. Verificare che le LIF del cluster siano migrate alle porte ospitate sullo switch cs2. Questa operazione potrebbe richiedere alcuni secondi. network interface show -vserver Cluster

    Mostra esempio
    cluster1::*> *network interface show -vserver Cluster*
                Logical          Status     Network            Current           Current Is
    Vserver     Interface        Admin/Oper Address/Mask       Node              Port    Home
    ----------- ---------------- ---------- ------------------ ----------------- ------- ----
    Cluster
                node1_clus1      up/up      169.254.3.4/23     node1             e0d     false
                node1_clus2      up/up      169.254.3.5/23     node1             e0d     true
                node2_clus1      up/up      169.254.3.8/23     node2             e0d     false
                node2_clus2      up/up      169.254.3.9/23     node2             e0d     true
    cluster1::*>
  7. Verificare che il cluster funzioni correttamente: cluster show

    Mostra esempio
    cluster1::*> *cluster show*
    Node           Health   Eligibility   Epsilon
    -------------- -------- ------------- -------
    node1          true     true          false
    node2          true     true          false
    cluster1::*>
  8. Ripetere i passaggi da 7 a 14 sullo switch cs1.

  9. Abilitare il ripristino automatico sulle LIF del cluster.

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert True
  10. Riavviare lo switch cs1. Questa operazione consente di attivare le LIF del cluster per ripristinare le porte home. È possibile ignorare gli eventi di "interruzione delle porte del cluster" riportati sui nodi durante il riavvio dello switch.

    cs1# reload
    This command will reboot the system. (y/n)?  [n] y
  11. Verificare che le porte dello switch collegate alle porte del cluster siano in funzione.

    cs1# show interface brief | grep up
    .
    .
    Ethernet1/1      1       eth  access up      none                    10G(D) --
    Ethernet1/2      1       eth  access up      none                    10G(D) --
    Ethernet1/3      1       eth  trunk  up      none                   100G(D) --
    Ethernet1/4      1       eth  trunk  up      none                   100G(D) --
    .
    .
  12. Verificare che l'ISL tra cs1 e cs2 funzioni correttamente: show port-channel summary

    Mostra esempio
    cs1# *show port-channel summary*
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/65(P)   Eth1/66(P)
    cs1#
  13. Verificare che le LIF del cluster siano tornate alla porta home: network interface show -vserver Cluster

    Mostra esempio
    cluster1::*> *network interface show -vserver Cluster*
                Logical       Status     Network            Current       Current Is
    Vserver     Interface     Admin/Oper Address/Mask       Node          Port    Home
    ----------- ------------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1   up/up      169.254.3.4/23     node1         e0d     true
                node1_clus2   up/up      169.254.3.5/23     node1         e0d     true
                node2_clus1   up/up      169.254.3.8/23     node2         e0d     true
                node2_clus2   up/up      169.254.3.9/23     node2         e0d     true
    cluster1::*>
  14. Verificare che il cluster funzioni correttamente: cluster show

    Mostra esempio
    cluster1::*> *cluster show*
    Node           Health  Eligibility   Epsilon
    -------------- ------- ------------- -------
    node1          true    true          false
    node2          true    true          false
  15. Eseguire il ping delle interfacce del cluster remoto per verificare la connettività: cluster ping-cluster -node local

    Mostra esempio
    cluster1::*> *cluster ping-cluster -node local*
    Host is node1
    Getting addresses from network interface table...
    Cluster node1_clus1 169.254.3.4 node1 e0a
    Cluster node1_clus2 169.254.3.5 node1 e0b
    Cluster node2_clus1 169.254.3.8 node2 e0a
    Cluster node2_clus2 169.254.3.9 node2 e0b
    Local = 169.254.1.3 169.254.1.1
    Remote = 169.254.1.6 169.254.1.7 169.254.3.4 169.254.3.5 169.254.3.8 169.254.3.9
    Cluster Vserver Id = 4294967293
    Ping status:
    ............
    Basic connectivity succeeds on 12 path(s)
    Basic connectivity fails on 0 path(s)
    ................................................
    Detected 9000 byte MTU on 12 path(s):
        Local 169.254.1.3 to Remote 169.254.1.6
        Local 169.254.1.3 to Remote 169.254.1.7
        Local 169.254.1.3 to Remote 169.254.3.4
        Local 169.254.1.3 to Remote 169.254.3.5
        Local 169.254.1.3 to Remote 169.254.3.8
        Local 169.254.1.3 to Remote 169.254.3.9
        Local 169.254.1.1 to Remote 169.254.1.6
        Local 169.254.1.1 to Remote 169.254.1.7
        Local 169.254.1.1 to Remote 169.254.3.4
        Local 169.254.1.1 to Remote 169.254.3.5
        Local 169.254.1.1 to Remote 169.254.3.8
        Local 169.254.1.1 to Remote 169.254.3.9
    Larger than PMTU communication succeeds on 12 path(s)
    RPC status:
    6 paths up, 0 paths down (tcp check)
    6 paths up, 0 paths down (udp check)
Per ONTAP 9.8 e versioni successive

Per ONTAP 9.8 e versioni successive, attivare la funzione di raccolta dei log del monitor dello stato dello switch del cluster per la raccolta dei file di log relativi allo switch, utilizzando i comandi seguenti: system switch ethernet log setup-password e. system switch ethernet log enable-collection

Inserire: system switch ethernet log setup-password

cluster1::*> system switch ethernet log setup-password
Enter the switch name: <return>
The switch name entered is not recognized.
Choose from the following list:
cs1
cs2

cluster1::*> system switch ethernet log setup-password

Enter the switch name: cs1
RSA key fingerprint is e5:8b:c6:dc:e2:18:18:09:36:63:d9:63:dd:03:d9:cc
Do you want to continue? {y|n}::[n] y

Enter the password: <enter switch password>
Enter the password again: <enter switch password>

cluster1::*> system switch ethernet log setup-password
Enter the switch name: cs2
RSA key fingerprint is 57:49:86:a1:b9:80:6a:61:9a:86:8e:3c:e3:b7:1f:b1
Do you want to continue? {y|n}:: [n] y

Enter the password: <enter switch password>
Enter the password again: <enter switch password>

Seguito da: system switch ethernet log enable-collection

cluster1::*> system switch ethernet log enable-collection

Do you want to enable cluster log collection for all nodes in the cluster?
{y|n}: [n] y

Enabling cluster switch log collection.

cluster1::*>
Per ONTAP 9.4 e versioni successive

Per ONTAP 9.4 e versioni successive, attivare la funzione di raccolta dei log del monitor di stato dello switch del cluster per la raccolta dei file di log relativi allo switch utilizzando i comandi seguenti:

system cluster-switch log setup-password e. system cluster-switch log enable-collection

Inserire: system cluster-switch log setup-password

cluster1::*> system cluster-switch log setup-password
Enter the switch name: <return>
The switch name entered is not recognized.
Choose from the following list:
cs1
cs2

cluster1::*> system cluster-switch log setup-password

Enter the switch name: cs1
RSA key fingerprint is e5:8b:c6:dc:e2:18:18:09:36:63:d9:63:dd:03:d9:cc
Do you want to continue? {y|n}::[n] y

Enter the password: <enter switch password>
Enter the password again: <enter switch password>

cluster1::*> system cluster-switch log setup-password

Enter the switch name: cs2
RSA key fingerprint is 57:49:86:a1:b9:80:6a:61:9a:86:8e:3c:e3:b7:1f:b1
Do you want to continue? {y|n}:: [n] y

Enter the password: <enter switch password>
Enter the password again: <enter switch password>

Seguito da: system cluster-switch log enable-collection

cluster1::*> system cluster-switch log enable-collection

Do you want to enable cluster log collection for all nodes in the cluster?
{y|n}: [n] y

Enabling cluster switch log collection.

cluster1::*>
Nota Se uno di questi comandi restituisce un errore, contattare il supporto NetApp.