Skip to main content
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Installez le fichier de configuration de référence (RCF)

Contributeurs netapp-yvonneo

Vous installez le fichier de configuration de référence (RCF) après avoir configuré les commutateurs Nexus 3132Q-V pour la première fois.

Avant de commencer

Vérifiez les installations et connexions suivantes :

  • Une sauvegarde actuelle de la configuration du commutateur.

  • Un cluster parfaitement fonctionnel (aucune erreur dans les journaux ni problème similaire).

  • Le RCF actuel.

  • Une connexion console au commutateur est nécessaire lors de l'installation du RCF.

À propos de cette tâche

La procédure nécessite l'utilisation à la fois des commandes ONTAP et des commandes des commutateurs Cisco Nexus série 3000 ; les commandes ONTAP sont utilisées sauf indication contraire.

Aucune liaison inter-commutateurs opérationnelle (ISL) n'est nécessaire pendant cette procédure. Ceci est intentionnel car les changements de version RCF peuvent affecter temporairement la connectivité ISL. Pour permettre des opérations de cluster sans interruption, la procédure suivante migre tous les LIF de cluster vers le commutateur partenaire opérationnel tout en exécutant les étapes sur le commutateur cible.

Étape 1 : Installez le RCF sur les commutateurs

  1. Afficher les ports du cluster sur chaque nœud qui sont connectés aux commutateurs du cluster :

    network device-discovery show

    Afficher un exemple
    cluster1::*> network device-discovery show
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ------------
    cluster1-01/cdp
                e0a    cs1                       Ethernet1/7       N3K-C3132Q-V
                e0d    cs2                       Ethernet1/7       N3K-C3132Q-V
    cluster1-02/cdp
                e0a    cs1                       Ethernet1/8       N3K-C3132Q-V
                e0d    cs2                       Ethernet1/8       N3K-C3132Q-V
    cluster1-03/cdp
                e0a    cs1                       Ethernet1/1/1     N3K-C3132Q-V
                e0b    cs2                       Ethernet1/1/1     N3K-C3132Q-V
    cluster1-04/cdp
                e0a    cs1                       Ethernet1/1/2     N3K-C3132Q-V
                e0b    cs2                       Ethernet1/1/2     N3K-C3132Q-V
    cluster1::*>
  2. Vérifiez l'état administratif et opérationnel de chaque port du cluster.

    1. Vérifiez que tous les ports du cluster sont opérationnels et en bon état :

      network port show -ipspace Cluster

      Afficher un exemple
      cluster1::*> network port show -ipspace Cluster
      Node: cluster1-01
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      Node: cluster1-02
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      8 entries were displayed.
      Node: cluster1-03
         Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      Node: cluster1-04
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      cluster1::*>
    2. Vérifiez que toutes les interfaces du cluster (LIF) sont connectées au port d'accueil :

      network interface show -vserver Cluster

      Afficher un exemple
      cluster1::*> network interface show -vserver Cluster
                  Logical            Status     Network           Current      Current Is
      Vserver     Interface          Admin/Oper Address/Mask      Node         Port    Home
      ----------- ------------------ ---------- ----------------- ------------ ------- ----
      Cluster
                  cluster1-01_clus1  up/up     169.254.3.4/23     cluster1-01  e0a     true
                  cluster1-01_clus2  up/up     169.254.3.5/23     cluster1-01  e0d     true
                  cluster1-02_clus1  up/up     169.254.3.8/23     cluster1-02  e0a     true
                  cluster1-02_clus2  up/up     169.254.3.9/23     cluster1-02  e0d     true
                  cluster1-03_clus1  up/up     169.254.1.3/23     cluster1-03  e0a     true
                  cluster1-03_clus2  up/up     169.254.1.1/23     cluster1-03  e0b     true
                  cluster1-04_clus1  up/up     169.254.1.6/23     cluster1-04  e0a     true
                  cluster1-04_clus2  up/up     169.254.1.7/23     cluster1-04  e0b     true
      cluster1::*>
    3. Vérifiez que le cluster affiche les informations pour les deux commutateurs du cluster :

      system cluster-switch show -is-monitoring-enabled-operational true

      Afficher un exemple
      cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true
      Switch                      Type               Address          Model
      --------------------------- ------------------ ---------------- ---------------
      cs1                         cluster-network    10.0.0.1         NX3132QV
           Serial Number: FOXXXXXXXGS
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      cs2                         cluster-network    10.0.0.2         NX3132QV
           Serial Number: FOXXXXXXXGD
            Is Monitored: true
                  Reason: None
        Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                          9.3(4)
          Version Source: CDP
      2 entries were displayed.
    Remarque Pour ONTAP 9.8 et versions ultérieures, utilisez la commande system switch ethernet show -is-monitoring-enabled-operational true .
  3. Désactiver la restauration automatique sur les LIF du cluster.

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false

    Assurez-vous que la fonction de restauration automatique est désactivée après l'exécution de cette commande.

  4. Sur le commutateur de cluster cs2, désactivez les ports connectés aux ports de cluster des nœuds.

    cs2> enable
    cs2# configure
    cs2(config)# interface eth1/1/1-2,eth1/7-8
    cs2(config-if-range)# shutdown
    cs2(config-if-range)# exit
    cs2# exit
    Remarque Le nombre de ports affichés varie en fonction du nombre de nœuds dans le cluster.
  5. Vérifiez que les ports du cluster ont basculé vers les ports hébergés sur le commutateur de cluster cs1. Cela peut prendre quelques secondes.

    network interface show -vserver Cluster

    Afficher un exemple
    cluster1::*> network interface show -vserver Cluster
                Logical           Status     Network            Current       Current Is
    Vserver     Interface         Admin/Oper Address/Mask       Node          Port    Home
    ----------- ----------------- ---------- ------------------ ------------- ------- ----
    Cluster
                cluster1-01_clus1 up/up      169.254.3.4/23     cluster1-01   e0a     true
                cluster1-01_clus2 up/up      169.254.3.5/23     cluster1-01   e0a     false
                cluster1-02_clus1 up/up      169.254.3.8/23     cluster1-02   e0a     true
                cluster1-02_clus2 up/up      169.254.3.9/23     cluster1-02   e0a     false
                cluster1-03_clus1 up/up      169.254.1.3/23     cluster1-03   e0a     true
                cluster1-03_clus2 up/up      169.254.1.1/23     cluster1-03   e0a     false
                cluster1-04_clus1 up/up      169.254.1.6/23     cluster1-04   e0a     true
                cluster1-04_clus2 up/up      169.254.1.7/23     cluster1-04   e0a     false
    cluster1::*>
  6. Vérifiez que le cluster est sain :

    cluster show

    Afficher un exemple
    cluster1::*> cluster show
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------  -------
    cluster1-01          true    true          false
    cluster1-02          true    true          false
    cluster1-03          true    true          true
    cluster1-04          true    true          false
    cluster1::*>
  7. Si vous ne l'avez pas déjà fait, enregistrez une copie de la configuration actuelle du commutateur en copiant le résultat de la commande suivante dans un fichier texte :

    show running-config

  8. Enregistrez tous les ajouts personnalisés entre la configuration en cours d'exécution et le fichier RCF en cours d'utilisation.

    Remarque

    Assurez-vous de configurer les éléments suivants : * Nom d'utilisateur et mot de passe * Adresse IP de gestion * Passerelle par défaut * Nom du commutateur

  9. Enregistrez les détails de configuration de base dans le write_erase.cfg fichier sur la mémoire flash de démarrage.

    Remarque Lors de la mise à niveau ou de l'application d'un nouveau RCF, vous devez effacer les paramètres du commutateur et effectuer la configuration de base. Vous devez être connecté au port de console série du commutateur pour configurer à nouveau le commutateur.

    cs2# show run | section "switchname" > bootflash:write_erase.cfg

    cs2# show run | section "hostname" >> bootflash:write_erase.cfg

    cs2# show run | i "username admin password" >> bootflash:write_erase.cfg

    cs2# show run | section "vrf context management" >> bootflash:write_erase.cfg

    cs2# show run | section "interface mgmt0" >> bootflash:write_erase.cfg

  10. Lors de l'installation de RCF version 1.12 et ultérieures, exécutez les commandes suivantes :

    cs2# echo "hardware access-list tcam region vpc-convergence 256" >> bootflash:write_erase.cfg

    cs2# echo "hardware access-list tcam region racl 256" >> bootflash:write_erase.cfg

    cs2# echo "hardware access-list tcam region e-racl 256" >> bootflash:write_erase.cfg

    cs2# echo "hardware access-list tcam region qos 256" >> bootflash:write_erase.cfg

  11. Vérifiez que le write_erase.cfg Le fichier est rempli comme prévu :

    show file bootflash:write_erase.cfg

  12. Émettre le write erase commande pour effacer la configuration enregistrée actuelle :

    cs2# write erase

    Warning: This command will erase the startup-configuration.

    Do you wish to proceed anyway? (y/n) [n] y

  13. Copiez la configuration de base précédemment enregistrée dans la configuration de démarrage.

    cs2# copy bootflash:write_erase.cfg startup-config

  14. Redémarrez le commutateur :

    cs2# reload

    This command will reboot the system. (y/n)? [n] y

  15. Répétez les étapes 7 à 14 sur le commutateur cs1.

  16. Connectez les ports de cluster de tous les nœuds du cluster ONTAP aux commutateurs cs1 et cs2.

Étape 2 : Vérifier les connexions du commutateur

  1. Vérifiez que les ports du commutateur connectés aux ports du cluster sont actifs.

    show interface brief | grep up

    Afficher un exemple
    cs1# show interface brief | grep up
    .
    .
    Eth1/1/1      1       eth  access up      none                    10G(D) --
    Eth1/1/2      1       eth  access up      none                    10G(D) --
    Eth1/7        1       eth  trunk  up      none                   100G(D) --
    Eth1/8        1       eth  trunk  up      none                   100G(D) --
    .
    .
  2. Vérifiez que l'ISL entre cs1 et cs2 est fonctionnel :

    show port-channel summary

    Afficher un exemple
    cs1# show port-channel summary
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/31(P)   Eth1/32(P)
    cs1#
  3. Vérifiez que les LIF du cluster sont revenues à leur port d'origine :

    network interface show -vserver Cluster

    Afficher un exemple
    cluster1::*> network interface show -vserver Cluster
                Logical            Status     Network            Current             Current Is
    Vserver     Interface          Admin/Oper Address/Mask       Node                Port    Home
    ----------- ------------------ ---------- ------------------ ------------------- ------- ----
    Cluster
                cluster1-01_clus1  up/up      169.254.3.4/23     cluster1-01         e0d     true
                cluster1-01_clus2  up/up      169.254.3.5/23     cluster1-01         e0d     true
                cluster1-02_clus1  up/up      169.254.3.8/23     cluster1-02         e0d     true
                cluster1-02_clus2  up/up      169.254.3.9/23     cluster1-02         e0d     true
                cluster1-03_clus1  up/up      169.254.1.3/23     cluster1-03         e0b     true
                cluster1-03_clus2  up/up      169.254.1.1/23     cluster1-03         e0b     true
                cluster1-04_clus1  up/up      169.254.1.6/23     cluster1-04         e0b     true
                cluster1-04_clus2  up/up      169.254.1.7/23     cluster1-04         e0b     true
    cluster1::*>
  4. Vérifiez que le cluster est sain :

    cluster show

    Afficher un exemple
    cluster1::*> cluster show
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------- -------
    cluster1-01          true    true          false
    cluster1-02          true    true          false
    cluster1-03          true    true          true
    cluster1-04          true    true          false
    cluster1::*>

Étape 3 : Configurez votre cluster ONTAP

NetApp recommande d'utiliser System Manager pour configurer de nouveaux clusters.

System Manager fournit un flux de travail simple et facile pour la configuration et l'installation du cluster, y compris l'attribution d'une adresse IP de gestion de nœud, l'initialisation du cluster, la création d'un niveau local, la configuration des protocoles et l'approvisionnement du stockage initial.

Se référer à"Configurer ONTAP sur un nouveau cluster avec System Manager" pour les instructions d'installation.

Quelle est la prochaine étape ?

Une fois le RCF installé, vous pouvez "vérifier la configuration SSH".