Skip to main content
Cluster and storage switches
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Préparation à l'installation du logiciel NX-OS et du fichier RCF (Reference Configuration File)

Contributeurs

Avant d'installer le logiciel NX-OS et le fichier RCF (Reference Configuration File), suivez cette procédure.

Ce dont vous avez besoin
  • Cluster totalement opérationnel (aucune erreur dans les journaux ou problèmes similaires).

  • Logiciels et guides de mise à niveau appropriés, disponibles sur le site "Commutateurs Cisco Nexus 9000 Series".

À propos des exemples

Les exemples de cette procédure utilisent deux nœuds. Ces nœuds utilisent deux ports d'interconnexion de cluster 10GbE e0a et e0b. Voir la "Hardware Universe" pour vérifier les ports de cluster appropriés sur vos plates-formes.

Les exemples de cette procédure utilisent la nomenclature des commutateurs et des nœuds suivante :

  • Les noms des deux commutateurs Cisco sont cs1 et cs2.

  • Les noms de nœud sont node1 et node2.

  • Les noms LIF de cluster sont node1_clus1 et node1_clus2 pour les nœuds 1 et node2_clus1 et node2_clus2 pour le noeud 2.

  • Le cluster1::*> l'invite indique le nom du cluster.

Description de la tâche

La procédure nécessite l'utilisation des commandes ONTAP et des commutateurs Cisco Nexus 9000 ; les commandes ONTAP sont utilisées sauf indication contraire. Les sorties de la commande peuvent varier en fonction des différentes versions d'ONTAP.

Étapes
  1. Définissez le niveau de privilège sur avancé, en entrant y lorsque vous êtes invité à continuer :

    set -privilege advanced

    L'invite avancée (*>) s'affiche.

  2. Si AutoSupport est activé sur ce cluster, supprimez la création automatique de dossiers en invoquant un message AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=xh

    x représente la durée de la fenêtre de maintenance en heures.

    Remarque Le message AutoSupport informe le support technique de cette tâche de maintenance de sorte que la création automatique de dossier soit supprimée lors de la fenêtre de maintenance.

    La commande suivante supprime la création automatique de dossiers pendant deux heures :

    cluster1:> **system node autosupport invoke -node * -type all -message MAINT=2h**
  3. Afficher le nombre d'interfaces d'interconnexion de cluster configurées sur chaque nœud pour chaque commutateur d'interconnexion de cluster : network device-discovery show -protocol cdp

    Montrer l'exemple
    cluster1::*> network device-discovery show -protocol cdp
    
     Node/      Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e0a    cs1                       Eth1/2            N9K-C92300YC
                e0b    cs2                       Eth1/2            N9K-C92300YC
    node1      /cdp
                e0a    cs1                       Eth1/1            N9K-C92300YC
                e0b    cs2                       Eth1/1            N9K-C92300YC
    
    4 entries were displayed.
  4. Vérifier le statut administratif ou opérationnel de chaque interface de cluster.

    1. Afficher les attributs des ports réseau : network port show –ipspace Cluster

      Montrer l'exemple
      cluster1::*> network port show -ipspace Cluster
      
      Node: node2
                                                        Speed(Mbps) Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status
      --------- ------------ ---------------- ---- ---- ----------- --------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy
      
      Node: node1
                                                        Speed(Mbps) Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status
      --------- ------------ ---------------- ---- ---- ----------- --------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy
      
      4 entries were displayed.
    2. Afficher les informations relatives aux LIFs : network interface show -vserver Cluster

      Montrer l'exemple
      cluster1::*> network interface show -vserver Cluster
      
                  Logical    Status     Network            Current       Current Is
      Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
      ----------- ---------- ---------- ------------------ ------------- ------- ----
      Cluster
                  node1_clus1  up/up    169.254.209.69/16  node1         e0a     true
                  node1_clus2  up/up    169.254.49.125/16  node1         e0b     true
                  node2_clus1  up/up    169.254.47.194/16  node2         e0a     true
                  node2_clus2  up/up    169.254.19.183/16  node2         e0b     true
      
      4 entries were displayed.
  5. Exécutez une commande ping des LIFs de cluster distantes :

    cluster ping-cluster -node node-name

    Montrer l'exemple
    cluster1::*> cluster ping-cluster -node node2
    Host is node2
    Getting addresses from network interface table...
    Cluster node1_clus1 169.254.209.69 node1     e0a
    Cluster node1_clus2 169.254.49.125 node1     e0b
    Cluster node2_clus1 169.254.47.194 node2     e0a
    Cluster node2_clus2 169.254.19.183 node2     e0b
    Local = 169.254.47.194 169.254.19.183
    Remote = 169.254.209.69 169.254.49.125
    Cluster Vserver Id = 4294967293
    Ping status:
    
    Basic connectivity succeeds on 4 path(s)
    Basic connectivity fails on 0 path(s)
    
    Detected 9000 byte MTU on 4 path(s):
        Local 169.254.19.183 to Remote 169.254.209.69
        Local 169.254.19.183 to Remote 169.254.49.125
        Local 169.254.47.194 to Remote 169.254.209.69
        Local 169.254.47.194 to Remote 169.254.49.125
    Larger than PMTU communication succeeds on 4 path(s)
    RPC status:
    2 paths up, 0 paths down (tcp check)
    2 paths up, 0 paths down (udp check)
  6. Vérifier que la commande auto-revert est activée sur toutes les LIFs du cluster :

    network interface show -vserver Cluster -fields auto-revert

    Montrer l'exemple
    cluster1::*> network interface show -vserver Cluster -fields auto-revert
    
              Logical
    Vserver   Interface     Auto-revert
    --------- ------------- ------------
    Cluster
              node1_clus1   true
              node1_clus2   true
              node2_clus1   true
              node2_clus2   true
    
    4 entries were displayed.
  7. Pour ONTAP 9.4 et versions ultérieures, activez la fonctionnalité de collecte des journaux du contrôle de l'état du commutateur de cluster pour collecter les fichiers journaux relatifs au switch à l'aide des commandes :

    system cluster-switch log setup-password et system cluster-switch log enable-collection

    Montrer l'exemple
    cluster1::*> system cluster-switch log setup-password
    Enter the switch name: <return>
    The switch name entered is not recognized.
    Choose from the following list:
    cs1
    cs2
    
    cluster1::*> system cluster-switch log setup-password
    
    Enter the switch name: cs1
    RSA key fingerprint is e5:8b:c6:dc:e2:18:18:09:36:63:d9:63:dd:03:d9:cc
    Do you want to continue? {y|n}::[n] y
    
    Enter the password: <enter switch password>
    Enter the password again: <enter switch password>
    
    cluster1::*> system cluster-switch log setup-password
    
    Enter the switch name: cs2
    RSA key fingerprint is 57:49:86:a1:b9:80:6a:61:9a:86:8e:3c:e3:b7:1f:b1
    Do you want to continue? {y|n}:: [n] y
    
    Enter the password: <enter switch password>
    Enter the password again: <enter switch password>
    
    cluster1::*> system cluster-switch log enable-collection
    
    Do you want to enable cluster log collection for all nodes in the cluster?
    {y|n}: [n] y
    
    Enabling cluster switch log collection.
    
    cluster1::*>
    Remarque Si l'une de ces commandes renvoie une erreur, contactez le support NetApp.