Skip to main content
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Mettez à jour votre fichier de configuration de référence (RCF)

Contributeurs netapp-yvonneo

Vous mettez à jour votre version RCF lorsque vous disposez d'une version existante du fichier RCF installée sur vos commutateurs opérationnels.

Avant de commencer

Assurez-vous d'avoir les éléments suivants :

  • Une sauvegarde actuelle de la configuration du commutateur.

  • Un cluster parfaitement fonctionnel (aucune erreur dans les journaux ni problème similaire).

  • Le RCF actuel.

  • Si vous mettez à jour votre version RCF, vous avez besoin d'une configuration de démarrage dans RCF qui reflète les images de démarrage souhaitées.

    Si vous devez modifier la configuration de démarrage pour qu'elle reflète les images de démarrage actuelles, vous devez le faire avant de réappliquer le RCF afin que la version correcte soit instanciée lors des prochains redémarrages.

Remarque Aucune liaison inter-commutateurs opérationnelle (ISL) n'est nécessaire pendant cette procédure. Ceci est intentionnel car les changements de version RCF peuvent affecter temporairement la connectivité ISL. Pour garantir le fonctionnement non perturbateur du cluster, la procédure suivante migre toutes les LIF du cluster vers le commutateur partenaire opérationnel tout en exécutant les étapes sur le commutateur cible.
Avertissement Avant d'installer une nouvelle version du logiciel du commutateur et des RCF, vous devez effacer les paramètres du commutateur et effectuer une configuration de base. Vous devez être connecté au commutateur via la console série ou avoir conservé les informations de configuration de base avant d'effacer les paramètres du commutateur.

Étape 1 : Préparer la mise à niveau

  1. Afficher les ports du cluster sur chaque nœud qui sont connectés aux commutateurs du cluster :

    network device-discovery show

    Afficher un exemple
    cluster1::*> network device-discovery show
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  --------
    cluster1-01/cdp
                e0a    cs1                       Ethernet1/7       N9K-C9336C
                e0d    cs2                       Ethernet1/7       N9K-C9336C
    cluster1-02/cdp
                e0a    cs1                       Ethernet1/8       N9K-C9336C
                e0d    cs2                       Ethernet1/8       N9K-C9336C
    cluster1-03/cdp
                e0a    cs1                       Ethernet1/1/1     N9K-C9336C
                e0b    cs2                       Ethernet1/1/1     N9K-C9336C
    cluster1-04/cdp
                e0a    cs1                       Ethernet1/1/2     N9K-C9336C
                e0b    cs2                       Ethernet1/1/2     N9K-C9336C
    cluster1::*>
  2. Vérifiez l'état administratif et opérationnel de chaque port du cluster.

    1. Vérifiez que tous les ports du cluster sont actifs et en bon état :

      network port show -role cluster

      Afficher un exemple
      cluster1::*> network port show -role cluster
      
      Node: cluster1-01
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      
      Node: cluster1-02
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      8 entries were displayed.
      
      Node: cluster1-03
      
         Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      
      Node: cluster1-04
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      cluster1::*>
    2. Vérifiez que toutes les interfaces du cluster (LIF) sont connectées au port d'accueil :

      network interface show -role cluster

      Afficher un exemple
      cluster1::*> network interface show -role cluster
                  Logical            Status     Network           Current      Current Is
      Vserver     Interface          Admin/Oper Address/Mask      Node         Port    Home
      ----------- ------------------ ---------- ----------------- ------------ ------- ----
      Cluster
                  cluster1-01_clus1  up/up     169.254.3.4/23     cluster1-01  e0a     true
                  cluster1-01_clus2  up/up     169.254.3.5/23     cluster1-01  e0d     true
                  cluster1-02_clus1  up/up     169.254.3.8/23     cluster1-02  e0a     true
                  cluster1-02_clus2  up/up     169.254.3.9/23     cluster1-02  e0d     true
                  cluster1-03_clus1  up/up     169.254.1.3/23     cluster1-03  e0a     true
                  cluster1-03_clus2  up/up     169.254.1.1/23     cluster1-03  e0b     true
                  cluster1-04_clus1  up/up     169.254.1.6/23     cluster1-04  e0a     true
                  cluster1-04_clus2  up/up     169.254.1.7/23     cluster1-04  e0b     true
      8 entries were displayed.
      cluster1::*>
    3. Vérifiez que le cluster affiche les informations pour les deux commutateurs du cluster :

      system cluster-switch show -is-monitoring-enabled-operational true

    Afficher un exemple
    cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true
    Switch                      Type               Address          Model
    --------------------------- ------------------ ---------------- -----
    cs1                         cluster-network    10.233.205.90    N9K-C9336C
         Serial Number: FOCXXXXXXGD
          Is Monitored: true
                Reason: None
      Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                        9.3(5)
        Version Source: CDP
    
    cs2                         cluster-network    10.233.205.91    N9K-C9336C
         Serial Number: FOCXXXXXXGS
          Is Monitored: true
                Reason: None
      Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                        9.3(5)
        Version Source: CDP
    cluster1::*>
  3. Désactiver la restauration automatique sur les LIF du cluster.

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false

Étape 2 : Configurer les ports

  1. Sur le commutateur de cluster cs1, désactivez les ports connectés aux ports de cluster des nœuds.

    cs1> enable

    cs1# configure

    cs1(config)# interface eth1/1/1-2,eth1/7-8

    cs1(config-if-range)# shutdown

    cs1(config-if-range)# exit

    cs1# exit

    Avertissement Veillez à désactiver tous les ports du cluster connectés afin d'éviter tout problème de connexion réseau. Consultez l'article de la base de connaissances "Nœud hors quorum lors de la migration de l'interface logique du cluster pendant la mise à niveau du système d'exploitation du commutateur" pour plus de détails.
  2. Vérifiez que les LIF du cluster ont basculé vers les ports hébergés sur le commutateur de cluster cs1. Cela peut prendre quelques secondes.

    network interface show -role cluster

    Afficher un exemple
    cluster1::*> network interface show -role cluster
                Logical           Status     Network            Current       Current Is
    Vserver     Interface         Admin/Oper Address/Mask       Node          Port    Home
    ----------- ----------------- ---------- ------------------ ------------- ------- ----
    Cluster
                cluster1-01_clus1 up/up      169.254.3.4/23     cluster1-01   e0a     true
                cluster1-01_clus2 up/up      169.254.3.5/23     cluster1-01   e0a     false
                cluster1-02_clus1 up/up      169.254.3.8/23     cluster1-02   e0a     true
                cluster1-02_clus2 up/up      169.254.3.9/23     cluster1-02   e0a     false
                cluster1-03_clus1 up/up      169.254.1.3/23     cluster1-03   e0a     true
                cluster1-03_clus2 up/up      169.254.1.1/23     cluster1-03   e0a     false
                cluster1-04_clus1 up/up      169.254.1.6/23     cluster1-04   e0a     true
                cluster1-04_clus2 up/up      169.254.1.7/23     cluster1-04   e0a     false
    8 entries were displayed.
    cluster1::*>
  3. Vérifiez que le cluster est sain :

    cluster show

    Afficher un exemple
    cluster1::*> cluster show
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------  -------
    cluster1-01          true    true          false
    cluster1-02          true    true          false
    cluster1-03          true    true          true
    cluster1-04          true    true          false
    4 entries were displayed.
    cluster1::*>
  4. Si vous ne l'avez pas déjà fait, enregistrez une copie de la configuration actuelle du commutateur en copiant le résultat de la commande suivante dans un fichier texte :

    show running-config

    1. Enregistrez tout ajout personnalisé entre les éléments actuels running-config et le fichier RCF utilisé (tel qu'une configuration SNMP pour votre organisation).

    2. À partir de NX-OS 10.2, utilisez le show diff running-config commande permettant de comparer avec le fichier RCF enregistré dans la mémoire flash de démarrage. Sinon, utilisez un outil de comparaison/différence tiers.

  5. Enregistrez les détails de configuration de base dans le write_erase.cfg fichier sur la mémoire flash de démarrage.

    Remarque

    Assurez-vous de configurer les éléments suivants :

    • Nom d'utilisateur et mot de passe

    • Adresse IP de gestion

    • Passerelle par défaut

    • Nom du commutateur

    cs1# show run | i "username admin password" > bootflash:write_erase.cfg

    cs1# show run | section "vrf context management" >> bootflash:write_erase.cfg

    cs1# show run | section "interface mgmt0" >> bootflash:write_erase.cfg

    cs1# show run | section "switchname" >> bootflash:write_erase.cfg

  6. Lors de la mise à niveau vers la version 1.12 de RCF et les versions ultérieures, exécutez les commandes suivantes :

    cs1# echo "hardware access-list tcam region ing-racl 1024" >> bootflash:write_erase.cfg

    cs1# echo "hardware access-list tcam region egr-racl 1024" >> bootflash:write_erase.cfg

    cs1# echo "hardware access-list tcam region ing-l2-qos 1280" >> bootflash:write_erase.cfg

  7. Vérifiez que le write_erase.cfg Le fichier est rempli comme prévu :

    show file bootflash:write_erase.cfg

  8. Utilisez la commande write erase pour effacer la configuration enregistrée actuelle :

    cs1# write erase

    Warning: This command will erase the startup-configuration.

    Do you wish to proceed anyway? (y/n) [n] y

  9. Copiez la configuration de base précédemment enregistrée dans la configuration de démarrage.

    cs1# copy bootflash:write_erase.cfg startup-config

  10. Redémarrez le commutateur :

    switch# reload

    This command will reboot the system. (y/n)? [n] y

  11. Une fois l'adresse IP de gestion à nouveau accessible, connectez-vous au commutateur via SSH.

    Vous devrez peut-être mettre à jour les entrées du fichier host relatives aux clés SSH.

  12. Copiez le RCF sur le bootflash du commutateur cs1 à l'aide de l'un des protocoles de transfert suivants : FTP, TFTP, SFTP ou SCP.

    Pour plus d'informations sur les commandes Cisco , consultez le guide approprié."Guide de référence des commandes NX-OS Cisco Nexus série 9000" guides.

    Cet exemple montre comment TFTP est utilisé pour copier un RCF dans la mémoire flash de démarrage du commutateur cs1 :

    cs1# copy tftp: bootflash: vrf management
    Enter source filename: Nexus_9336C_RCF_v1.6-Cluster-HA-Breakout.txt
    Enter hostname for the tftp server: 172.22.201.50
    Trying to connect to tftp server......Connection to Server Established.
    TFTP get operation was successful
    Copy complete, now saving to disk (please wait)...
  13. Appliquez le RCF précédemment téléchargé à la mémoire flash de démarrage.

    Pour plus d'informations sur les commandes Cisco , consultez le guide approprié dans le"Guide de référence des commandes NX-OS Cisco Nexus série 9000" .

    Cet exemple montre le fichier RCF Nexus_9336C_RCF_v1.6-Cluster-HA-Breakout.txt en cours d'installation sur le commutateur cs1 :

    cs1# copy Nexus_9336C_RCF_v1.6-Cluster-HA-Breakout.txt running-config echo-commands
    Remarque

    Assurez-vous de lire attentivement les sections Notes d'installation, Notes importantes et bannière de votre RCF. Vous devez lire et suivre ces instructions pour garantir la configuration et le fonctionnement corrects du commutateur.

  14. Vérifiez que le fichier RCF est bien la version la plus récente correcte :

    show running-config

    Lorsque vous vérifiez le résultat pour vous assurer que vous avez le RCF correct, vérifiez que les informations suivantes sont correctes :

    • La bannière RCF

    • Paramètres du nœud et du port

    • Personnalisations

      Le résultat varie en fonction de la configuration de votre site. Vérifiez les paramètres du port et consultez les notes de version pour connaître les modifications spécifiques à la version de RCF que vous avez installée.

  15. Réappliquez les personnalisations précédentes à la configuration du commutateur. Se référer à"Examiner les considérations relatives au câblage et à la configuration" pour plus de détails sur les modifications supplémentaires nécessaires.

  16. Après avoir vérifié que les versions RCF, les ajouts personnalisés et les paramètres de commutation sont corrects, copiez le fichier running-config dans le fichier startup-config.

    Pour plus d'informations sur les commandes Cisco , consultez le guide approprié dans le"Guide de référence des commandes NX-OS Cisco Nexus série 9000" .

    cs1# copy running-config startup-config

    [] 100% Copy complete

  17. Redémarrez le commutateur cs1. Vous pouvez ignorer les alertes « cluster switch health monitor » et les événements « cluster ports down` » signalés sur les nœuds pendant le redémarrage du commutateur.

    cs1# reload

    This command will reboot the system. (y/n)? [n] y

  18. Vérifiez l'état des ports du cluster.

    1. Vérifiez que les ports du cluster sont opérationnels et fonctionnels sur tous les nœuds du cluster :

      network port show -role cluster

      Afficher un exemple
      cluster1::*> network port show -role cluster
      
      Node: cluster1-01
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      
      Node: cluster1-02
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      
      Node: cluster1-03
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      
      Node: cluster1-04
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/100000 healthy false
      e0d       Cluster      Cluster          up   9000  auto/100000 healthy false
      8 entries were displayed.
    2. Vérifiez l'état du commutateur à partir du cluster.

      network device-discovery show -protocol cdp

    Afficher un exemple
    cluster1::*> network device-discovery show -protocol cdp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------- --------
    cluster1-01/cdp
                e0a    cs1                       Ethernet1/7       N9K-C9336C
                e0d    cs2                       Ethernet1/7       N9K-C9336C
    cluster01-2/cdp
                e0a    cs1                       Ethernet1/8       N9K-C9336C
                e0d    cs2                       Ethernet1/8       N9K-C9336C
    cluster01-3/cdp
                e0a    cs1                       Ethernet1/1/1     N9K-C9336C
                e0b    cs2                       Ethernet1/1/1     N9K-C9336C
    cluster1-04/cdp
                e0a    cs1                       Ethernet1/1/2     N9K-C9336C
                e0b    cs2                       Ethernet1/1/2     N9K-C9336C
    
    cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true
    Switch                      Type               Address          Model
    --------------------------- ------------------ ---------------- -----
    cs1                         cluster-network    10.233.205.90    NX9-C9336C
         Serial Number: FOCXXXXXXGD
          Is Monitored: true
                Reason: None
      Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                        9.3(5)
        Version Source: CDP
    
    cs2                         cluster-network    10.233.205.91    NX9-C9336C
         Serial Number: FOCXXXXXXGS
          Is Monitored: true
                Reason: None
      Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                        9.3(5)
        Version Source: CDP
    
    2 entries were displayed.

    Vous pourriez observer la sortie suivante sur la console du commutateur cs1 en fonction de la version RCF précédemment chargée sur le commutateur :

    2020 Nov 17 16:07:18 cs1 %$ VDC-1 %$ %STP-2-UNBLOCK_CONSIST_PORT: Unblocking port port-channel1 on VLAN0092. Port consistency restored.
    2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_PEER: Blocking port-channel1 on VLAN0001. Inconsistent peer vlan.
    2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_LOCAL: Blocking port-channel1 on VLAN0092. Inconsistent local vlan.
  19. Vérifiez que le cluster est sain :

    cluster show

    Afficher un exemple
    cluster1::*> cluster show
    Node                 Health   Eligibility   Epsilon
    -------------------- -------- ------------- -------
    cluster1-01          true     true          false
    cluster1-02          true     true          false
    cluster1-03          true     true          true
    cluster1-04          true     true          false
    4 entries were displayed.
    cluster1::*>
  20. Répétez les étapes 1 à 19 sur le commutateur cs2.

  21. Activer la restauration automatique sur les LIF du cluster.

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert True

Étape 3 : Vérifier la configuration réseau et l’état du cluster

  1. Vérifiez que les ports du commutateur connectés aux ports du cluster sont actifs.

    show interface brief

    Afficher un exemple
    cs1# show interface brief | grep up
    .
    .
    Eth1/1/1      1       eth  access up      none                    10G(D) --
    Eth1/1/2      1       eth  access up      none                    10G(D) --
    Eth1/7        1       eth  trunk  up      none                   100G(D) --
    Eth1/8        1       eth  trunk  up      none                   100G(D) --
    .
    .
  2. Vérifiez que les nœuds attendus sont toujours connectés :

    show cdp neighbors

    Afficher un exemple
    cs1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    node1              Eth1/1         133    H           FAS2980       e0a
    node2              Eth1/2         133    H           FAS2980       e0a
    cs1                Eth1/35        175    R S I s     N9K-C9336C    Eth1/35
    cs1                Eth1/36        175    R S I s     N9K-C9336C    Eth1/36
    
    Total entries displayed: 4
  3. Vérifiez que les nœuds du cluster se trouvent dans leurs VLAN de cluster respectifs à l'aide des commandes suivantes :

    show vlan brief

    show interface trunk

    Afficher un exemple
    cs1# show vlan brief
    
    VLAN Name                             Status    Ports
    ---- -------------------------------- --------- -------------------------------
    1    default                          active    Po1, Eth1/1, Eth1/2, Eth1/3
                                                    Eth1/4, Eth1/5, Eth1/6, Eth1/7
                                                    Eth1/8, Eth1/35, Eth1/36
                                                    Eth1/9/1, Eth1/9/2, Eth1/9/3
                                                    Eth1/9/4, Eth1/10/1, Eth1/10/2
                                                    Eth1/10/3, Eth1/10/4
    17   VLAN0017                         active    Eth1/1, Eth1/2, Eth1/3, Eth1/4
                                                    Eth1/5, Eth1/6, Eth1/7, Eth1/8
                                                    Eth1/9/1, Eth1/9/2, Eth1/9/3
                                                    Eth1/9/4, Eth1/10/1, Eth1/10/2
                                                    Eth1/10/3, Eth1/10/4
    18   VLAN0018                         active    Eth1/1, Eth1/2, Eth1/3, Eth1/4
                                                    Eth1/5, Eth1/6, Eth1/7, Eth1/8
                                                    Eth1/9/1, Eth1/9/2, Eth1/9/3
                                                    Eth1/9/4, Eth1/10/1, Eth1/10/2
                                                    Eth1/10/3, Eth1/10/4
    31   VLAN0031                         active    Eth1/11, Eth1/12, Eth1/13
                                                    Eth1/14, Eth1/15, Eth1/16
                                                    Eth1/17, Eth1/18, Eth1/19
                                                    Eth1/20, Eth1/21, Eth1/22
    32   VLAN0032                         active    Eth1/23, Eth1/24, Eth1/25
                                                    Eth1/26, Eth1/27, Eth1/28
                                                    Eth1/29, Eth1/30, Eth1/31
                                                    Eth1/32, Eth1/33, Eth1/34
    33   VLAN0033                         active    Eth1/11, Eth1/12, Eth1/13
                                                    Eth1/14, Eth1/15, Eth1/16
                                                    Eth1/17, Eth1/18, Eth1/19
                                                    Eth1/20, Eth1/21, Eth1/22
    34   VLAN0034                         active    Eth1/23, Eth1/24, Eth1/25
                                                    Eth1/26, Eth1/27, Eth1/28
                                                    Eth1/29, Eth1/30, Eth1/31
                                                    Eth1/32, Eth1/33, Eth1/34
    
    cs1# show interface trunk
    
    -----------------------------------------------------
    Port          Native  Status        Port
                  Vlan                  Channel
    -----------------------------------------------------
    Eth1/1        1       trunking      --
    Eth1/2        1       trunking      --
    Eth1/3        1       trunking      --
    Eth1/4        1       trunking      --
    Eth1/5        1       trunking      --
    Eth1/6        1       trunking      --
    Eth1/7        1       trunking      --
    Eth1/8        1       trunking      --
    Eth1/9/1      1       trunking      --
    Eth1/9/2      1       trunking      --
    Eth1/9/3      1       trunking      --
    Eth1/9/4      1       trunking      --
    Eth1/10/1     1       trunking      --
    Eth1/10/2     1       trunking      --
    Eth1/10/3     1       trunking      --
    Eth1/10/4     1       trunking      --
    Eth1/11       33      trunking      --
    Eth1/12       33      trunking      --
    Eth1/13       33      trunking      --
    Eth1/14       33      trunking      --
    Eth1/15       33      trunking      --
    Eth1/16       33      trunking      --
    Eth1/17       33      trunking      --
    Eth1/18       33      trunking      --
    Eth1/19       33      trunking      --
    Eth1/20       33      trunking      --
    Eth1/21       33      trunking      --
    Eth1/22       33      trunking      --
    Eth1/23       34      trunking      --
    Eth1/24       34      trunking      --
    Eth1/25       34      trunking      --
    Eth1/26       34      trunking      --
    Eth1/27       34      trunking      --
    Eth1/28       34      trunking      --
    Eth1/29       34      trunking      --
    Eth1/30       34      trunking      --
    Eth1/31       34      trunking      --
    Eth1/32       34      trunking      --
    Eth1/33       34      trunking      --
    Eth1/34       34      trunking      --
    Eth1/35       1       trnk-bndl     Po1
    Eth1/36       1       trnk-bndl     Po1
    Po1           1       trunking      --
    
    ------------------------------------------------------
    Port          Vlans Allowed on Trunk
    ------------------------------------------------------
    Eth1/1        1,17-18
    Eth1/2        1,17-18
    Eth1/3        1,17-18
    Eth1/4        1,17-18
    Eth1/5        1,17-18
    Eth1/6        1,17-18
    Eth1/7        1,17-18
    Eth1/8        1,17-18
    Eth1/9/1      1,17-18
    Eth1/9/2      1,17-18
    Eth1/9/3      1,17-18
    Eth1/9/4      1,17-18
    Eth1/10/1     1,17-18
    Eth1/10/2     1,17-18
    Eth1/10/3     1,17-18
    Eth1/10/4     1,17-18
    Eth1/11       31,33
    Eth1/12       31,33
    Eth1/13       31,33
    Eth1/14       31,33
    Eth1/15       31,33
    Eth1/16       31,33
    Eth1/17       31,33
    Eth1/18       31,33
    Eth1/19       31,33
    Eth1/20       31,33
    Eth1/21       31,33
    Eth1/22       31,33
    Eth1/23       32,34
    Eth1/24       32,34
    Eth1/25       32,34
    Eth1/26       32,34
    Eth1/27       32,34
    Eth1/28       32,34
    Eth1/29       32,34
    Eth1/30       32,34
    Eth1/31       32,34
    Eth1/32       32,34
    Eth1/33       32,34
    Eth1/34       32,34
    Eth1/35       1
    Eth1/36       1
    Po1           1
    ..
    ..
    ..
    ..
    ..
    Remarque Pour plus de détails sur l'utilisation des ports et des VLAN, reportez-vous à la section bannière et notes importantes de votre RCF.
  4. Vérifiez que l'ISL entre cs1 et cs2 est fonctionnel :

    show port-channel summary

    Afficher un exemple
    cs1# show port-channel summary
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member Ports      Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/35(P)        Eth1/36(P)
    cs1#
  5. Vérifiez que les LIF du cluster sont revenues à leur port d'origine :

    network interface show -role cluster

    Afficher un exemple
    cluster1::*> network interface show -role cluster
                Logical            Status     Network            Current             Current Is
    Vserver     Interface          Admin/Oper Address/Mask       Node                Port    Home
    ----------- ------------------ ---------- ------------------ ------------------- ------- ----
    Cluster
                cluster1-01_clus1  up/up      169.254.3.4/23     cluster1-01         e0d     true
                cluster1-01_clus2  up/up      169.254.3.5/23     cluster1-01         e0d     true
                cluster1-02_clus1  up/up      169.254.3.8/23     cluster1-02         e0d     true
                cluster1-02_clus2  up/up      169.254.3.9/23     cluster1-02         e0d     true
                cluster1-03_clus1  up/up      169.254.1.3/23     cluster1-03         e0b     true
                cluster1-03_clus2  up/up      169.254.1.1/23     cluster1-03         e0b     true
                cluster1-04_clus1  up/up      169.254.1.6/23     cluster1-04         e0b     true
                cluster1-04_clus2  up/up      169.254.1.7/23     cluster1-04         e0b     true
    8 entries were displayed.
    cluster1::*>

    Si certaines interfaces logiques (LIF) du cluster ne sont pas revenues à leurs ports d'origine, rétablissez-les manuellement depuis le nœud local :

    network interface revert -vserver vserver_name -lif lif_name

  6. Vérifiez que le cluster est sain :

    cluster show

    Afficher un exemple
    cluster1::*> cluster show
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------- -------
    cluster1-01          true    true          false
    cluster1-02          true    true          false
    cluster1-03          true    true          true
    cluster1-04          true    true          false
    4 entries were displayed.
    cluster1::*>
  7. Vérifiez la connectivité des interfaces du cluster distant :

ONTAP 9.9.1 et versions ultérieures

Vous pouvez utiliser le network interface check cluster-connectivity commande permettant de lancer une vérification d'accessibilité pour la connectivité du cluster, puis d'afficher les détails :

network interface check cluster-connectivity start`et `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

REMARQUE : Attendez quelques secondes avant d’exécuter le programme. show commande pour afficher les détails.

cluster1::*> network interface check cluster-connectivity show
                                  Source               Destination         Packet
Node   Date                       LIF                  LIF                 Loss
------ -------------------------- -------------------- ------------------- -----------
node1
       3/5/2022 19:21:18 -06:00   cluster1-01_clus2    cluster1-02-clus1   none
       3/5/2022 19:21:20 -06:00   cluster1-01_clus2    cluster1-02_clus2   none
node2
       3/5/2022 19:21:18 -06:00   cluster1-02_clus2    cluster1-01_clus1   none
       3/5/2022 19:21:20 -06:00   cluster1-02_clus2    cluster1-01_clus2   none
Toutes les versions ONTAP

Pour toutes les versions ONTAP , vous pouvez également utiliser cluster ping-cluster -node <name> commande pour vérifier la connectivité :

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is cluster1-03
Getting addresses from network interface table...
Cluster cluster1-03_clus1 169.254.1.3 cluster1-03 e0a
Cluster cluster1-03_clus2 169.254.1.1 cluster1-03 e0b
Cluster cluster1-04_clus1 169.254.1.6 cluster1-04 e0a
Cluster cluster1-04_clus2 169.254.1.7 cluster1-04 e0b
Cluster cluster1-01_clus1 169.254.3.4 cluster1-01 e0a
Cluster cluster1-01_clus2 169.254.3.5 cluster1-01 e0d
Cluster cluster1-02_clus1 169.254.3.8 cluster1-02 e0a
Cluster cluster1-02_clus2 169.254.3.9 cluster1-02 e0d
Local = 169.254.1.3 169.254.1.1
Remote = 169.254.1.6 169.254.1.7 169.254.3.4 169.254.3.5 169.254.3.8 169.254.3.9
Cluster Vserver Id = 4294967293
Ping status:
............
Basic connectivity succeeds on 12 path(s)
Basic connectivity fails on 0 path(s)
................................................
Detected 9000 byte MTU on 12 path(s):
    Local 169.254.1.3 to Remote 169.254.1.6
    Local 169.254.1.3 to Remote 169.254.1.7
    Local 169.254.1.3 to Remote 169.254.3.4
    Local 169.254.1.3 to Remote 169.254.3.5
    Local 169.254.1.3 to Remote 169.254.3.8
    Local 169.254.1.3 to Remote 169.254.3.9
    Local 169.254.1.1 to Remote 169.254.1.6
    Local 169.254.1.1 to Remote 169.254.1.7
    Local 169.254.1.1 to Remote 169.254.3.4
    Local 169.254.1.1 to Remote 169.254.3.5
    Local 169.254.1.1 to Remote 169.254.3.8
    Local 169.254.1.1 to Remote 169.254.3.9
Larger than PMTU communication succeeds on 12 path(s)
RPC status:
6 paths up, 0 paths down (tcp check)
6 paths up, 0 paths down (udp check)
Quelle est la prochaine étape ?

Après avoir mis à niveau votre RCF, vous pouvez"vérifier la configuration SSH" .