Skip to main content
Cluster and storage switches
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Installer le fichier RCF (Reference Configuration File)

Contributeurs

Vous pouvez installer la FCR après avoir configuré pour la première fois le commutateur Nexus 92300YC. Vous pouvez également utiliser cette procédure pour mettre à niveau votre version RCF.

Description de la tâche

Les exemples de cette procédure utilisent la nomenclature des commutateurs et des nœuds suivante :

  • Les noms des deux commutateurs Cisco sont cs1 et cs2.

  • Les noms de nœud sont node1 et node2.

  • Les noms LIF de cluster sont node1_clus1, node1_clus2, node2_clus1, et node2_clus2.

  • Le cluster1::*> l'invite indique le nom du cluster.

Remarque
  • La procédure nécessite l'utilisation des commandes ONTAP et "Commutateurs Cisco Nexus 9000 Series"; Les commandes ONTAP sont utilisées sauf indication contraire.

  • Avant d'effectuer cette procédure, assurez-vous d'avoir une sauvegarde actuelle de la configuration du commutateur.

  • Aucune liaison inter-commutateurs (ISL) opérationnelle n'est nécessaire au cours de cette procédure. Ceci est de par sa conception, car les modifications de version des fichiers RCF peuvent affecter temporairement la connectivité ISL. Pour assurer un fonctionnement sans interruption du cluster, la procédure suivante migre toutes les LIFs du cluster vers le commutateur partenaire opérationnel tout en effectuant les étapes sur le commutateur cible.

Étapes
  1. Afficher les ports de cluster sur chaque nœud connecté aux commutateurs du cluster : network device-discovery show

    Montrer l'exemple
    cluster1::*> *network device-discovery show*
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ------------
    node1/cdp
                e0a    cs1                       Ethernet1/1/1     N9K-C92300YC
                e0b    cs2                       Ethernet1/1/1     N9K-C92300YC
    node2/cdp
                e0a    cs1                       Ethernet1/1/2     N9K-C92300YC
                e0b    cs2                       Ethernet1/1/2     N9K-C92300YC
    cluster1::*>
  2. Vérifiez le statut administratif et opérationnel de chaque port du cluster.

    1. Vérifier que tous les ports du cluster sont défectueux : network port show -ipspace Cluster

      Montrer l'exemple
      cluster1::*> *network port show -ipspace Cluster*
      
      Node: node1
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0c       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      
      Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0c       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      cluster1::*>
    2. Vérifier que toutes les interfaces de cluster (LIFs) sont sur le port de home port : network interface show -vserver Cluster

      Montrer l'exemple
      cluster1::*> *network interface show -vserver Cluster*
                  Logical            Status     Network           Current      Current Is
      Vserver     Interface          Admin/Oper Address/Mask      Node         Port    Home
      ----------- ------------------ ---------- ----------------- ------------ ------- ----
      Cluster
                  node1_clus1        up/up      169.254.3.4/23    node1        e0c     true
                  node1_clus2        up/up      169.254.3.5/23    node1        e0d     true
                  node2_clus1        up/up      169.254.3.8/23    node2        e0c     true
                  node2_clus2        up/up      169.254.3.9/23    node2        e0d     true
      cluster1::*>
    3. Vérifiez que le cluster affiche les informations relatives aux deux commutateurs de cluster : system cluster-switch show -is-monitoring-enabled-operational true

      Montrer l'exemple
      cluster1::*> *system cluster-switch show -is-monitoring-enabled-operational true*
      Switch                      Type               Address          Model
      --------------------------- ------------------ ---------------- ---------------
      cs1                         cluster-network    10.233.205.92    N9K-C92300YC
           Serial Number: FOXXXXXXXGS
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      
      cs2                         cluster-network    10.233.205.93    N9K-C92300YC
           Serial Number: FOXXXXXXXGD
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      
      2 entries were displayed.
  3. Désactivez la fonction de restauration automatique sur les LIF du cluster.

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
  4. Sur le commutateur de cluster cs2, arrêtez les ports connectés aux ports de cluster des nœuds.

    cs2(config)# interface e1/1-64
    cs2(config-if-range)# shutdown
  5. Vérifiez que les ports de cluster ont migré vers les ports hébergés sur le commutateur de cluster cs1. Cette opération peut prendre quelques secondes. network interface show -vserver Cluster

    Montrer l'exemple
    cluster1::*> *network interface show -vserver Cluster*
                Logical           Status     Network            Current       Current Is
    Vserver     Interface         Admin/Oper Address/Mask       Node          Port    Home
    ----------- ----------------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1       up/up      169.254.3.4/23     node1         e0c     true
                node1_clus2       up/up      169.254.3.5/23     node1         e0c     false
                node2_clus1       up/up      169.254.3.8/23     node2         e0c     true
                node2_clus2       up/up      169.254.3.9/23     node2         e0c     false
    cluster1::*>
  6. Vérifiez que le cluster fonctionne correctement : cluster show

    Montrer l'exemple
    cluster1::*> *cluster show*
    Node           Health  Eligibility   Epsilon
    -------------- ------- ------------  -------
    node1          true    true          false
    node2          true    true          false
    cluster1::*>
  7. Si ce n'est pas déjà fait, enregistrez une copie de la configuration actuelle du commutateur en copiant la sortie de la commande suivante dans un fichier texte :

    show running-config

  8. Nettoyez la configuration du commutateur cs2 et effectuez une configuration de base.

    Avertissement Lors de la mise à jour ou de l'application d'une nouvelle FCR, vous devez effacer les paramètres du commutateur et effectuer une configuration de base. Vous devez être connecté au port série console du commutateur pour pouvoir le configurer à nouveau.
    1. Nettoyez la configuration :

      Montrer l'exemple
      (cs2)# write erase
      
      Warning: This command will erase the startup-configuration.
      
      Do you wish to proceed anyway? (y/n)  [n]  y
    2. Redémarrer le commutateur :

      Montrer l'exemple
      (cs2)# reload
      
      Are you sure you would like to reset the system? (y/n) y
  9. Copiez le RCF sur le bootflash du commutateur cs2 à l'aide de l'un des protocoles de transfert suivants : FTP, TFTP, SFTP ou SCP. Pour plus d'informations sur les commandes Cisco, reportez-vous au guide approprié dans le "Commutateurs Cisco Nexus 9000 Series" guides.

    Cet exemple montre que TFTP est utilisé pour copier une FCR dans le bootflash sur le commutateur cs2 :

    cs2# copy tftp: bootflash: vrf management
    Enter source filename: /code/Nexus_92300YC_RCF_v1.0.2.txt
    Enter hostname for the tftp server: 172.19.2.1
    Enter username: user1
    
    Outbound-ReKey for 172.19.2.1:22
    Inbound-ReKey for 172.19.2.1:22
    user1@172.19.2.1's password:
    tftp> progress
    Progress meter enabled
    tftp> get /code/Nexus_92300YC_RCF_v1.0.2.txt /bootflash/nxos.9.2.2.bin
    /code/Nexus_92300YC_R  100% 9687   530.2KB/s   00:00
    tftp> exit
    Copy complete, now saving to disk (please wait)...
    Copy complete.
  10. Appliquez le RCF préalablement téléchargé sur le bootflash.

    Pour plus d'informations sur les commandes Cisco, reportez-vous au guide approprié dans le "Commutateurs Cisco Nexus 9000 Series" guides.

    Cet exemple montre le fichier RCF Nexus_92300YC_RCF_v1.0.2.txt en cours d'installation sur le commutateur cs2 :

    cs2# copy Nexus_92300YC_RCF_v1.0.2.txt running-config echo-commands
    
    Disabling ssh: as its enabled right now:
     generating ecdsa key(521 bits)......
    generated ecdsa key
    
    Enabling ssh: as it has been disabled
     this command enables edge port type (portfast) by default on all interfaces. You
     should now disable edge port type (portfast) explicitly on switched ports leading to hubs,
     switches and bridges as they may create temporary bridging loops.
    
    Edge port type (portfast) should only be enabled on ports connected to a single
     host. Connecting hubs, concentrators, switches, bridges, etc...  to this
     interface when edge port type (portfast) is enabled, can cause temporary bridging loops.
     Use with CAUTION
    
    Edge Port Type (Portfast) has been configured on Ethernet1/1 but will only
     have effect when the interface is in a non-trunking mode.
    
    ...
    
    Copy complete, now saving to disk (please wait)...
    Copy complete.
  11. Vérifier sur le commutateur que la FCR a été fusionnée avec succès :

    show running-config

    cs2# show running-config
    !Command: show running-config
    !Running configuration last done at: Wed Apr 10 06:32:27 2019
    !Time: Wed Apr 10 06:36:00 2019
    
    version 9.2(2) Bios:version 05.33
    switchname cs2
    vdc cs2 id 1
      limit-resource vlan minimum 16 maximum 4094
      limit-resource vrf minimum 2 maximum 4096
      limit-resource port-channel minimum 0 maximum 511
      limit-resource u4route-mem minimum 248 maximum 248
      limit-resource u6route-mem minimum 96 maximum 96
      limit-resource m4route-mem minimum 58 maximum 58
      limit-resource m6route-mem minimum 8 maximum 8
    
    feature lacp
    
    no password strength-check
    username admin password 5 $5$HY9Kk3F9$YdCZ8iQJ1RtoiEFa0sKP5IO/LNG1k9C4lSJfi5kesl
    6  role network-admin
    ssh key ecdsa 521
    
    banner motd #
    
    *                                                                              *
    *  Nexus 92300YC Reference Configuration File (RCF) v1.0.2 (10-19-2018)        *
    *                                                                              *
    *  Ports 1/1  - 1/48: 10GbE Intra-Cluster Node Ports                           *
    *  Ports 1/49 - 1/64: 40/100GbE Intra-Cluster Node Ports                       *
    *  Ports 1/65 - 1/66: 40/100GbE Intra-Cluster ISL Ports                        *
    *                                                                              *
    
Remarque Lors de l'application de FCR pour la première fois, le message ERROR: Failed to write VSH commands est attendu et peut être ignoré.
  1. vérifier que le fichier RCF est la bonne version plus récente : show running-config

    Lorsque vous vérifiez que la sortie est correcte, vérifiez que les informations suivantes sont correctes :

    • La bannière RCF

    • Les paramètres du nœud et du port

    • Personnalisations

      Le résultat varie en fonction de la configuration de votre site. Vérifiez les paramètres des ports et reportez-vous aux notes de version pour voir si des modifications spécifiques à la FCR que vous avez installée.

  2. Après avoir vérifié que les versions de RCF et les paramètres de commutateur sont corrects, copiez le fichier running-config dans le fichier startup-config.

    Pour plus d'informations sur les commandes Cisco, reportez-vous au guide approprié dans le "Commutateurs Cisco Nexus 9000 Series" guides.

    cs2# copy running-config startup-config
    [] 100% Copy complete
  3. Redémarrer le commutateur cs2. Vous pouvez ignorer les événements « cluster port down » signalés sur les nœuds pendant le redémarrage du commutateur.

    cs2# reload
    This command will reboot the system. (y/n)?  [n] y
  4. Vérification de l'état de santé des ports du cluster sur le cluster.

    1. Vérifier que les ports e0d fonctionnent correctement sur tous les nœuds du cluster : network port show -ipspace Cluster

      Montrer l'exemple
      cluster1::*> *network port show -ipspace Cluster*
      
      Node: node1
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      
      Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
    2. Vérifiez l'état du commutateur depuis le cluster (il se peut que le commutateur cs2 n'affiche pas, car les LIF ne sont pas homeed sur e0d).

      Montrer l'exemple
      cluster1::*> *network device-discovery show -protocol cdp*
      Node/       Local  Discovered
      Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
      ----------- ------ ------------------------- ----------------- ------------
      node1/cdp
                  e0a    cs1                       Ethernet1/1       N9K-C92300YC
                  e0b    cs2                       Ethernet1/1       N9K-C92300YC
      node2/cdp
                  e0a    cs1                       Ethernet1/2       N9K-C92300YC
                  e0b    cs2                       Ethernet1/2       N9K-C92300YC
      
      cluster1::*> *system cluster-switch show -is-monitoring-enabled-operational true*
      Switch                      Type               Address          Model
      --------------------------- ------------------ ---------------- ------------
      cs1                         cluster-network    10.233.205.90    N9K-C92300YC
           Serial Number: FOXXXXXXXGD
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      
      cs2                         cluster-network    10.233.205.91    N9K-C92300YC
           Serial Number: FOXXXXXXXGS
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      
      2 entries were displayed.
    Remarque

    Vous pouvez observer la sortie suivante sur la console des commutateurs cs1 en fonction de la version RCF précédemment chargée sur le commutateur

    2020 Nov 17 16:07:18 cs1 %$ VDC-1 %$ %STP-2-UNBLOCK_CONSIST_PORT: Unblocking port port-channel1 on VLAN0092. Port consistency restored.
    2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_PEER: Blocking port-channel1 on VLAN0001. Inconsistent peer vlan.
    2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_LOCAL: Blocking port-channel1 on VLAN0092. Inconsistent local vlan.
  5. Sur le commutateur de cluster cs1, arrêtez les ports connectés aux ports de cluster des nœuds.

    L'exemple suivant utilise la sortie d'exemple d'interface de l'étape 1 :

    cs1(config)# interface e1/1-64
    cs1(config-if-range)# shutdown
  6. Vérifier que les LIFs de cluster ont migré vers les ports hébergés sur le commutateur cs2. Cette opération peut prendre quelques secondes. network interface show -vserver Cluster

    Montrer l'exemple
    cluster1::*> *network interface show -vserver Cluster*
                Logical          Status     Network            Current           Current Is
    Vserver     Interface        Admin/Oper Address/Mask       Node              Port    Home
    ----------- ---------------- ---------- ------------------ ----------------- ------- ----
    Cluster
                node1_clus1      up/up      169.254.3.4/23     node1             e0d     false
                node1_clus2      up/up      169.254.3.5/23     node1             e0d     true
                node2_clus1      up/up      169.254.3.8/23     node2             e0d     false
                node2_clus2      up/up      169.254.3.9/23     node2             e0d     true
    cluster1::*>
  7. Vérifiez que le cluster fonctionne correctement : cluster show

    Montrer l'exemple
    cluster1::*> *cluster show*
    Node           Health   Eligibility   Epsilon
    -------------- -------- ------------- -------
    node1          true     true          false
    node2          true     true          false
    cluster1::*>
  8. Répétez les étapes 7 à 14 sur le commutateur cs1.

  9. Activez la fonction de revert automatique sur les LIFs du cluster.

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert True
  10. Redémarrer le commutateur cs1. Vous pouvez ainsi déclencher des LIF de cluster afin de rétablir leur port de départ. Vous pouvez ignorer les événements « cluster port down » signalés sur les nœuds pendant le redémarrage du commutateur.

    cs1# reload
    This command will reboot the system. (y/n)?  [n] y
  11. Vérifier que les ports de commutateurs connectés aux ports du cluster sont bien connectés.

    cs1# show interface brief | grep up
    .
    .
    Ethernet1/1      1       eth  access up      none                    10G(D) --
    Ethernet1/2      1       eth  access up      none                    10G(D) --
    Ethernet1/3      1       eth  trunk  up      none                   100G(D) --
    Ethernet1/4      1       eth  trunk  up      none                   100G(D) --
    .
    .
  12. Vérifier que l'ISL entre cs1 et cs2 est fonctionnel : show port-channel summary

    Montrer l'exemple
    cs1# *show port-channel summary*
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/65(P)   Eth1/66(P)
    cs1#
  13. Vérifier que les LIFs du cluster ont rétabli leur port de base : network interface show -vserver Cluster

    Montrer l'exemple
    cluster1::*> *network interface show -vserver Cluster*
                Logical       Status     Network            Current       Current Is
    Vserver     Interface     Admin/Oper Address/Mask       Node          Port    Home
    ----------- ------------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1   up/up      169.254.3.4/23     node1         e0d     true
                node1_clus2   up/up      169.254.3.5/23     node1         e0d     true
                node2_clus1   up/up      169.254.3.8/23     node2         e0d     true
                node2_clus2   up/up      169.254.3.9/23     node2         e0d     true
    cluster1::*>
  14. Vérifiez que le cluster fonctionne correctement : cluster show

    Montrer l'exemple
    cluster1::*> *cluster show*
    Node           Health  Eligibility   Epsilon
    -------------- ------- ------------- -------
    node1          true    true          false
    node2          true    true          false
  15. Exécutez une commande ping sur les interfaces de cluster distantes pour vérifier la connectivité : cluster ping-cluster -node local

    Montrer l'exemple
    cluster1::*> *cluster ping-cluster -node local*
    Host is node1
    Getting addresses from network interface table...
    Cluster node1_clus1 169.254.3.4 node1 e0a
    Cluster node1_clus2 169.254.3.5 node1 e0b
    Cluster node2_clus1 169.254.3.8 node2 e0a
    Cluster node2_clus2 169.254.3.9 node2 e0b
    Local = 169.254.1.3 169.254.1.1
    Remote = 169.254.1.6 169.254.1.7 169.254.3.4 169.254.3.5 169.254.3.8 169.254.3.9
    Cluster Vserver Id = 4294967293
    Ping status:
    ............
    Basic connectivity succeeds on 12 path(s)
    Basic connectivity fails on 0 path(s)
    ................................................
    Detected 9000 byte MTU on 12 path(s):
        Local 169.254.1.3 to Remote 169.254.1.6
        Local 169.254.1.3 to Remote 169.254.1.7
        Local 169.254.1.3 to Remote 169.254.3.4
        Local 169.254.1.3 to Remote 169.254.3.5
        Local 169.254.1.3 to Remote 169.254.3.8
        Local 169.254.1.3 to Remote 169.254.3.9
        Local 169.254.1.1 to Remote 169.254.1.6
        Local 169.254.1.1 to Remote 169.254.1.7
        Local 169.254.1.1 to Remote 169.254.3.4
        Local 169.254.1.1 to Remote 169.254.3.5
        Local 169.254.1.1 to Remote 169.254.3.8
        Local 169.254.1.1 to Remote 169.254.3.9
    Larger than PMTU communication succeeds on 12 path(s)
    RPC status:
    6 paths up, 0 paths down (tcp check)
    6 paths up, 0 paths down (udp check)
Pour ONTAP 9.8 et versions ultérieures

Pour ONTAP 9.8 et versions ultérieures, activez la fonctionnalité de collecte des journaux du contrôle de l'état du commutateur de cluster pour collecter les fichiers journaux des commutateurs, à l'aide des commandes : system switch ethernet log setup-password et system switch ethernet log enable-collection

Entrez : system switch ethernet log setup-password

cluster1::*> system switch ethernet log setup-password
Enter the switch name: <return>
The switch name entered is not recognized.
Choose from the following list:
cs1
cs2

cluster1::*> system switch ethernet log setup-password

Enter the switch name: cs1
RSA key fingerprint is e5:8b:c6:dc:e2:18:18:09:36:63:d9:63:dd:03:d9:cc
Do you want to continue? {y|n}::[n] y

Enter the password: <enter switch password>
Enter the password again: <enter switch password>

cluster1::*> system switch ethernet log setup-password
Enter the switch name: cs2
RSA key fingerprint is 57:49:86:a1:b9:80:6a:61:9a:86:8e:3c:e3:b7:1f:b1
Do you want to continue? {y|n}:: [n] y

Enter the password: <enter switch password>
Enter the password again: <enter switch password>

Suivi par : system switch ethernet log enable-collection

cluster1::*> system switch ethernet log enable-collection

Do you want to enable cluster log collection for all nodes in the cluster?
{y|n}: [n] y

Enabling cluster switch log collection.

cluster1::*>
Pour ONTAP 9.4 et versions ultérieures

Pour ONTAP 9.4 et versions ultérieures, activez la fonctionnalité de collecte des journaux du contrôle de l'état du commutateur de cluster pour collecter les fichiers journaux relatifs au switch à l'aide des commandes :

system cluster-switch log setup-password et system cluster-switch log enable-collection

Entrez : system cluster-switch log setup-password

cluster1::*> system cluster-switch log setup-password
Enter the switch name: <return>
The switch name entered is not recognized.
Choose from the following list:
cs1
cs2

cluster1::*> system cluster-switch log setup-password

Enter the switch name: cs1
RSA key fingerprint is e5:8b:c6:dc:e2:18:18:09:36:63:d9:63:dd:03:d9:cc
Do you want to continue? {y|n}::[n] y

Enter the password: <enter switch password>
Enter the password again: <enter switch password>

cluster1::*> system cluster-switch log setup-password

Enter the switch name: cs2
RSA key fingerprint is 57:49:86:a1:b9:80:6a:61:9a:86:8e:3c:e3:b7:1f:b1
Do you want to continue? {y|n}:: [n] y

Enter the password: <enter switch password>
Enter the password again: <enter switch password>

Suivi par : system cluster-switch log enable-collection

cluster1::*> system cluster-switch log enable-collection

Do you want to enable cluster log collection for all nodes in the cluster?
{y|n}: [n] y

Enabling cluster switch log collection.

cluster1::*>
Remarque Si l'une de ces commandes renvoie une erreur, contactez le support NetApp.