Skip to main content
Cluster and storage switches
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Migrer d'un cluster sans commutateur à 2 nœuds vers un cluster avec des switchs de cluster Cisco Nexus 3232C

Contributeurs

Si vous disposez d'un cluster sans commutateur à deux nœuds, vous pouvez migrer vers un cluster commuté à deux nœuds qui inclut des switchs réseau de cluster Cisco Nexus 3232C. Cette procédure ne fonctionne pas sans interruption.

Examen des conditions requises

Conditions requises pour la migration

Avant la migration, n'oubliez pas de la consulter "Conditions requises pour la migration".

Ce dont vous avez besoin

Assurez-vous que :

  • Les ports sont disponibles pour les connexions de nœuds. Les commutateurs de cluster utilisent les ports ISL (Inter-Switch Link) e1/31-32.

  • Vous disposez de câbles appropriés pour les connexions du cluster :

    • Les nœuds équipés de connexions de cluster 10 GbE requièrent des modules optiques QSFP avec des câbles à fibre optique dérivation ou des câbles QSFP avec des câbles de dérivation en cuivre SFP+.

    • Les nœuds équipés de connexions en cluster 40/100 GbE nécessitent des modules optiques QSFP/QSFP28 avec des câbles à fibre optique ou des câbles à connexion directe en cuivre QSFP/QSFP28.

    • Les commutateurs de cluster nécessitent des câbles ISL appropriés : 2 câbles à connexion directe en fibre ou en cuivre QSFP28.

  • Les configurations sont correctement configurées et opérationnelles.

    Les deux nœuds doivent être connectés et fonctionner dans un cluster à 2 nœuds sans commutateur.

  • Tous les ports de cluster sont à l'état up.

  • Le switch de cluster Cisco Nexus 3232C est pris en charge.

  • La configuration réseau en cluster existante comporte les éléments suivants :

    • Infrastructure de cluster Nexus 3232C redondante et entièrement fonctionnelle sur les deux switchs

    • Les dernières versions de RCF et de NX-OS sur vos commutateurs

    • Connectivité de gestion sur les deux commutateurs

    • Accès à la console aux deux commutateurs

    • Toutes les interfaces logiques (LIF) de cluster sont à l'état up sans avoir été migrées

    • Personnalisation initiale du commutateur

    • Tous les ports ISL sont activés et câblés

Migrer les commutateurs

À propos des exemples

Les exemples de cette procédure utilisent la nomenclature des commutateurs et des nœuds suivante :

  • Switchs de cluster Nexus 3232C, C1 et C2.

  • Les nœuds sont n1 et n2.

Les exemples de cette procédure utilisent deux nœuds, chacun utilisant deux ports d'interconnexion de cluster 40 GbE e4a et e4e. Le "Hardware Universe" possède des informations détaillées sur les ports de cluster de vos plates-formes.

  • n1_concluA1 est la première interface logique (LIF) de cluster à être connectée au commutateur de cluster C1 pour le nœud n1.

  • n1_clus2 est la première LIF de cluster à être connectée au commutateur de cluster C2 pour le nœud n1.

  • n2_concluA1 est la première LIF de cluster à être connectée au commutateur de cluster C1 pour le nœud n2.

  • n2_clus2 est la deuxième LIF de cluster à être connectée au commutateur de cluster C2 pour le nœud n2.

  • Le nombre de ports 10 GbE et 40/100 GbE est défini dans les fichiers de configuration de référence disponibles sur le "Téléchargement du fichier de configuration de référence du commutateur réseau en cluster Cisco®" page.

Remarque

La procédure nécessite l'utilisation des commandes ONTAP et des commutateurs Cisco Nexus 3000 ; les commandes ONTAP sont utilisées sauf indication contraire.

Étape 1 : affichage et migration des ports physiques et logiques

  1. Si AutoSupport est activé sur ce cluster, supprimez la création automatique de dossiers en invoquant un message AutoSupport :

    system node autosupport invoke -node * -type all - message MAINT=xh

    x représente la durée de la fenêtre de maintenance en heures.

    Remarque

    Le message AutoSupport informe le support technique de cette tâche de maintenance de sorte que la création automatique de dossier soit supprimée lors de la fenêtre de maintenance.

  2. Déterminer le statut administratif ou opérationnel pour chaque interface de cluster :

    1. Afficher les attributs des ports réseau :

      network port show -role cluster

      Montrer l'exemple
      cluster::*> network port show -role cluster
        (network port show)
      Node: n1
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- -----
      e4a       Cluster      Cluster          up   9000 auto/40000  -
      e4e       Cluster      Cluster          up   9000 auto/40000  -        -
      Node: n2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- -----
      e4a       Cluster      Cluster          up   9000 auto/40000  -
      e4e       Cluster      Cluster          up   9000 auto/40000  -
      4 entries were displayed.
    2. Afficher des informations sur les interfaces logiques et les nœuds home désignés :

      network interface show -role cluster

      Montrer l'exemple
      cluster::*> network interface show -role cluster
       (network interface show)
                  Logical    Status     Network            Current       Current Is
      Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
      ----------- ---------- ---------- ------------------ ------------- ------- ---
      Cluster
                  n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                  n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                  n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                  n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
      
      4 entries were displayed.
    3. Vérifiez que la détection de cluster sans commutateur est activée à l'aide de la commande Advanced Privilege :

      network options detect-switchless-cluster show`

    Montrer l'exemple

    Le résultat de l'exemple suivant indique que la détection des clusters sans commutateur est activée :

    cluster::*> network options detect-switchless-cluster show
    Enable Switchless Cluster Detection: true
  3. Vérifiez que les CFR et l'image appropriés sont installés sur les nouveaux switchs 3232C et effectuez les personnalisations du site nécessaires, telles que l'ajout d'utilisateurs, de mots de passe et d'adresses réseau.

    Vous devez préparer les deux commutateurs pour le moment. Si vous devez mettre à niveau la FCR et le logiciel d'image, vous devez suivre les étapes suivantes :

    1. Accédez à la page commutateurs Ethernet Cisco du site de support NetApp.

    2. Notez votre commutateur et les versions logicielles requises dans le tableau de cette page.

    3. Téléchargez la version appropriée de RCF.

    4. Cliquez sur CONTINUER sur la page Description, acceptez le contrat de licence, puis suivez les instructions de la page Télécharger pour télécharger le FCR.

    5. Téléchargez la version appropriée du logiciel d'image.

  4. Cliquez sur CONTINUER sur la page Description, acceptez le contrat de licence, puis suivez les instructions de la page Télécharger pour télécharger le FCR.

  5. Sur les switchs Nexus 3232C C1 et C2, désactivez tous les ports C1 et C2 orientés nœuds mais ne désactivez pas les ports ISL e1/31-32.

    Pour plus d'informations sur les commandes Cisco, reportez-vous aux guides répertoriés dans le "Références des commandes Cisco Nexus série 3000 NX-OS".

    Montrer l'exemple

    L'exemple suivant montre que les ports 1 à 30 sont désactivés sur les switchs de cluster Nexus 3232C C1 et C2, utilisant une configuration prise en charge dans RCF NX3232_RCF_v1.0_24p10g_24p100g.txt:

    C1# copy running-config startup-config
    [] 100% Copy complete.
    C1# configure
    C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C1(config-if-range)# shutdown
    C1(config-if-range)# exit
    C1(config)# exit
    C2# copy running-config startup-config
    [] 100% Copy complete.
    C2# configure
    C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C2(config-if-range)# shutdown
    C2(config-if-range)# exit
    C2(config)# exit
  6. Connectez les ports 1/31 et 1/32 de C1 aux mêmes ports de C2 à l'aide du câblage pris en charge.

  7. Vérifier que les ports ISL sont opérationnels sur les modèles C1 et C2 :

    show port-channel summary

    Pour plus d'informations sur les commandes Cisco, reportez-vous aux guides répertoriés dans le "Références des commandes Cisco Nexus série 3000 NX-OS".

    Montrer l'exemple

    L'exemple suivant présente Cisco show port-channel summary Commande utilisée pour vérifier que les ports ISL sont opérationnels sur les C1 et C2 :

    C1# show port-channel summary
    Flags: D - Down         P - Up in port-channel (members)
           I - Individual   H - Hot-standby (LACP only)        s - Suspended    r - Module-removed
           S - Switched     R - Routed
           U - Up (port-channel)
           M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
          Port-
    Group Channel      Type   Protocol  Member Ports
    -------------------------------------------------------------------------------
    1     Po1(SU)      Eth    LACP      Eth1/31(P)   Eth1/32(P)
    
    C2# show port-channel summary
    Flags: D - Down         P - Up in port-channel (members)
           I - Individual   H - Hot-standby (LACP only)        s - Suspended    r - Module-removed
           S - Switched     R - Routed
           U - Up (port-channel)
           M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    
    Group Port-        Type   Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)      Eth    LACP      Eth1/31(P)   Eth1/32(P)
  8. Affiche la liste des périphériques voisins sur le commutateur.

    Pour plus d'informations sur les commandes Cisco, reportez-vous aux guides répertoriés dans le "Références des commandes Cisco Nexus série 3000 NX-OS".

    Montrer l'exemple

    L'exemple suivant montre la commande Cisco show cdp neighbors utilisé pour afficher les périphériques voisins sur le commutateur :

    C1# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,                   s - Supports-STP-Dispute
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    C2                 Eth1/31        174    R S I s     N3K-C3232C  Eth1/31
    C2                 Eth1/32        174    R S I s     N3K-C3232C  Eth1/32
    Total entries displayed: 2
    C2# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,                   s - Supports-STP-Dispute
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    C1                 Eth1/31        178    R S I s     N3K-C3232C  Eth1/31
    C1                 Eth1/32        178    R S I s     N3K-C3232C  Eth1/32
    Total entries displayed: 2
  9. Afficher la connectivité des ports du cluster sur chaque nœud :

    network device-discovery show

    Montrer l'exemple

    L'exemple suivant montre la connectivité des ports du cluster, affichée dans le cas d'une configuration en cluster sans commutateur à deux nœuds :

    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    n2                  e4a              FAS9000
                e4e    n2                  e4e              FAS9000
    n2         /cdp
                e4a    n1                  e4a              FAS9000
                e4e    n1                  e4e              FAS9000
  10. Migrez les LIF n1_concluA1 et n2_cluA1 vers les ports physiques de leurs nœuds de destination :

    network interface migrate -vserver vserver-name -lif lif-name source-node source-node-name -destination-port destination-port-name

    Montrer l'exemple

    Vous devez exécuter la commande pour chaque nœud local comme indiqué dans l'exemple suivant :

    cluster::*> network interface migrate -vserver cluster -lif n1_clus1 -source-node n1
    -destination-node n1 -destination-port e4e
    cluster::*> network interface migrate -vserver cluster -lif n2_clus1 -source-node n2
    -destination-node n2 -destination-port e4e

Étape 2 : arrêter les LIF réaffectées et débrancher les câbles

  1. Vérifier que les interfaces de cluster ont bien migré :

    network interface show -role cluster

    Montrer l'exemple

    L'exemple suivant montre l'état « est à l'origine » pour les LIF n1_clum1 et n2_clum1 est devenu « faux » une fois la migration terminée :

    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4e     false
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4e     false
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
     4 entries were displayed.
  2. Fermez les ports du cluster pour les LIF n1_clum1 et n2_clum1, qui ont été migrées à l'étape 9 :

    network port modify -node node-name -port port-name -up-admin false

    Montrer l'exemple

    Vous devez exécuter la commande pour chaque port comme indiqué dans l'exemple suivant :

    cluster::*> network port modify -node n1 -port e4a -up-admin false
    cluster::*> network port modify -node n2 -port e4a -up-admin false
  3. Vérifiez la connectivité des interfaces de cluster distantes :

ONTAP 9.9.1 et versions ultérieures

Vous pouvez utiliser le network interface check cluster-connectivity pour lancer un contrôle d'accessibilité pour la connectivité du cluster, puis afficher les détails :

network interface check cluster-connectivity start et network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

REMARQUE : attendez un certain nombre de secondes avant d'exécuter show la commande pour afficher les détails.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
n1
       3/5/2022 19:21:18 -06:00   n1_clus2         n2-clus1         none
       3/5/2022 19:21:20 -06:00   n1_clus2         n2_clus2         none

n2
       3/5/2022 19:21:18 -06:00   n2_clus2         n1_clus1         none
       3/5/2022 19:21:20 -06:00   n2_clus2         n1_clus2         none
Toutes les versions de ONTAP

Pour toutes les versions de ONTAP, vous pouvez également utiliser cluster ping-cluster -node <name> pour vérifier la connectivité :

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1        e4a    10.10.0.1
Cluster n1_clus2 n1        e4e    10.10.0.2
Cluster n2_clus1 n2        e4a    10.10.0.3
Cluster n2_clus2 n2        e4e    10.10.0.4
Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293 Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s) ................
Detected 9000 byte MTU on 32 path(s):
    Local 10.10.0.1 to Remote 10.10.0.3
    Local 10.10.0.1 to Remote 10.10.0.4
    Local 10.10.0.2 to Remote 10.10.0.3
    Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s) RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)
  1. déconnectez le câble de e4a sur le nœud n1.

    Vous pouvez faire référence à la configuration en cours d'exécution et connecter le premier port 40 GbE du switch C1 (port 1/7 dans cet exemple) à e4a sur n1 à l'aide du câblage pris en charge par les switchs Nexus 3232C.

Étape 3 : activer les ports du cluster

  1. Débrancher le câble e4a du nœud n2.

    Vous pouvez vous reporter à la configuration en cours d'exécution et connecter e4a au prochain port 40 GbE disponible sur C1, port 1/8, à l'aide du câblage pris en charge.

  2. Activation de tous les ports orientés nœuds sur C1.

    Pour plus d'informations sur les commandes Cisco, reportez-vous aux guides répertoriés dans le "Références des commandes Cisco Nexus série 3000 NX-OS".

    Montrer l'exemple

    L'exemple suivant montre que les ports 1 à 30 sont activés sur les switchs de cluster Nexus 3232C C1 et C2 en utilisant la configuration prise en charge dans RCF NX3232_RCF_v1.0_24p10g_26p100g.txt:

    C1# configure
    C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C1(config-if-range)# no shutdown
    C1(config-if-range)# exit
    C1(config)# exit
  3. Activer le premier port du cluster, e4a, sur chaque nœud :

    network port modify -node node-name -port port-name -up-admin true

    Montrer l'exemple
    cluster::*> network port modify -node n1 -port e4a -up-admin true
    cluster::*> network port modify -node n2 -port e4a -up-admin true
  4. Vérifier que les clusters fonctionnent sur les deux nœuds :

    network port show -role cluster

    Montrer l'exemple
    cluster::*> network port show -role cluster
      (network port show)
    Node: n1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- -----
    e4a       Cluster      Cluster          up   9000 auto/40000  -
    e4e       Cluster      Cluster          up   9000 auto/40000  -        -
    
    Node: n2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- -----
    e4a       Cluster      Cluster          up   9000 auto/40000  -
    e4e       Cluster      Cluster          up   9000 auto/40000  -
    
    4 entries were displayed.
  5. Pour chaque nœud, restaurez toutes les LIF d'interconnexion de cluster migrées :

    network interface revert -vserver cluster -lif lif-name

    Montrer l'exemple

    Vous devez restaurer chaque LIF vers son port de maison individuellement, comme indiqué dans l'exemple suivant :

    cluster::*> network interface revert -vserver cluster -lif n1_clus1
    cluster::*> network interface revert -vserver cluster -lif n2_clus1
  6. Vérifier que toutes les LIFs sont maintenant rétablies sur leurs ports de base :

    network interface show -role cluster

    Le Is Home la colonne doit afficher une valeur de true pour tous les ports répertoriés dans le Current Port colonne. Si la valeur affichée est de false, le port n'a pas été rétabli.

    Montrer l'exemple
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.

Étape 4 : activer les LIF réaffectées

  1. Afficher la connectivité des ports du cluster sur chaque nœud :

    network device-discovery show

    Montrer l'exemple
    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    C1                  Ethernet1/7      N3K-C3232C
                e4e    n2                  e4e              FAS9000
    n2         /cdp
                e4a    C1                  Ethernet1/8      N3K-C3232C
                e4e    n1                  e4e              FAS9000
  2. Migration de clum2 vers le port e4a sur la console de chaque nœud :

    network interface migrate cluster -lif lif-name -source-node source-node-name -destination-node destination-node-name -destination-port destination-port-name

    Montrer l'exemple

    Vous devez migrer chaque LIF vers son port de maison, comme illustré ci-dessous :

    cluster::*> network interface migrate -vserver cluster -lif n1_clus2 -source-node n1
    -destination-node n1 -destination-port e4a
    cluster::*> network interface migrate -vserver cluster -lif n2_clus2 -source-node n2
    -destination-node n2 -destination-port e4a
  3. Fermez les ports de cluster de façon concluante 2 LIF sur les deux nœuds :

    network port modify

    Montrer l'exemple

    L'exemple suivant montre les ports spécifiés en cours de définition false, arrêt des ports sur les deux nœuds :

    cluster::*> network port modify -node n1 -port e4e -up-admin false
    cluster::*> network port modify -node n2 -port e4e -up-admin false
  4. Vérifier le statut LIF de cluster :

    network interface show

    Montrer l'exemple
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4a     false
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4a     false
    4 entries were displayed.
  5. Débrancher le câble de e4e sur le nœud n1.

    Vous pouvez faire référence à la configuration en cours d'exécution et connecter le premier port 40 GbE du switch C2 (port 1/7 dans cet exemple) à e4e sur le nœud n1, à l'aide du câblage approprié pour le modèle de switch Nexus 3232C.

  6. Débrancher le câble de e4e sur le nœud n2.

    Vous pouvez faire référence à la configuration en cours d'exécution et connecter e4e au prochain port 40 GbE disponible sur C2, port 1/8, à l'aide du câblage approprié pour le modèle de switch Nexus 3232C.

  7. Activer tous les ports orientés nœud sur C2.

    Montrer l'exemple

    L'exemple suivant montre l'activation des ports 1 à 30 sur les commutateurs de cluster Nexus 3132Q-V C1 et C2 à l'aide d'une configuration prise en charge dans RCF NX3232C_RCF_v1.0_24p10g_26p100g.txt:

    C2# configure
    C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C2(config-if-range)# no shutdown
    C2(config-if-range)# exit
    C2(config)# exit
  8. Activer le second port du cluster, e4e, sur chaque nœud :

    network port modify

    Montrer l'exemple

    L'exemple suivant montre le second port du cluster e4e introduit sur chaque nœud :

    cluster::*> network port modify -node n1 -port e4e -up-admin true
    cluster::*> *network port modify -node n2 -port e4e -up-admin true*s
  9. Pour chaque nœud, restaurez toutes les LIF d'interconnexion de cluster migrées : network interface revert

    Montrer l'exemple

    L'exemple suivant montre que les LIF migrées sont rétablies dans leur port de départ.

    cluster::*> network interface revert -vserver Cluster -lif n1_clus2
    cluster::*> network interface revert -vserver Cluster -lif n2_clus2
  10. Vérifier que tous les ports d'interconnexion de cluster sont rétablis dans leurs ports de base :

    network interface show -role cluster

    Le Is Home la colonne doit afficher une valeur de true pour tous les ports répertoriés dans le Current Port colonne. Si la valeur affichée est de false, le port n'a pas été rétabli.

    Montrer l'exemple
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.
  11. Vérifiez que tous les ports d'interconnexion de cluster sont dans le up état :

    network port show -role cluster

  12. Afficher les numéros de port du commutateur du cluster via lesquels chaque port du cluster est connecté à chaque nœud : network device-discovery show

    Montrer l'exemple
    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1          /cdp
                e4a    C1                  Ethernet1/7      N3K-C3232C
                e4e    C2                  Ethernet1/7      N3K-C3232C
    n2          /cdp
                e4a    C1                  Ethernet1/8      N3K-C3232C
                e4e    C2                  Ethernet1/8      N3K-C3232C
  13. Affichage des commutateurs de cluster découverts et surveillés :

    system cluster-switch show

    Montrer l'exemple
    cluster::*> system cluster-switch show
    
    Switch                      Type               Address          Model
    --------------------------- ------------------ ---------------- ---------------
    C1                          cluster-network    10.10.1.101      NX3232CV
    Serial Number: FOX000001
    Is Monitored: true
    Reason:
    Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1)
    Version Source: CDP
    
    C2                          cluster-network     10.10.1.102      NX3232CV
    Serial Number: FOX000002
    Is Monitored: true
    Reason:
    Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 7.0(3)I6(1)
    Version Source: CDP 2 entries were displayed.
  14. Vérifiez que la détection sans commutateur de cluster a modifié l'option de cluster sans commutateur sur Désactivé :

    network options switchless-cluster show

  15. Vérifiez la connectivité des interfaces de cluster distantes :

ONTAP 9.9.1 et versions ultérieures

Vous pouvez utiliser le network interface check cluster-connectivity pour lancer un contrôle d'accessibilité pour la connectivité du cluster, puis afficher les détails :

network interface check cluster-connectivity start et network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

REMARQUE : attendez un certain nombre de secondes avant d'exécuter show la commande pour afficher les détails.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
n1
       3/5/2022 19:21:18 -06:00   n1_clus2         n2-clus1         none
       3/5/2022 19:21:20 -06:00   n1_clus2         n2_clus2         none

n2
       3/5/2022 19:21:18 -06:00   n2_clus2         n1_clus1         none
       3/5/2022 19:21:20 -06:00   n2_clus2         n1_clus2         none
Toutes les versions de ONTAP

Pour toutes les versions de ONTAP, vous pouvez également utiliser cluster ping-cluster -node <name> pour vérifier la connectivité :

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1        e4a    10.10.0.1
Cluster n1_clus2 n1        e4e    10.10.0.2
Cluster n2_clus1 n2        e4a    10.10.0.3
Cluster n2_clus2 n2        e4e    10.10.0.4
Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s) ................
Detected 9000 byte MTU on 32 path(s):
    Local 10.10.0.1 to Remote 10.10.0.3
    Local 10.10.0.1 to Remote 10.10.0.4
    Local 10.10.0.2 to Remote 10.10.0.3
    Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s) RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)
  1. si vous avez supprimé la création automatique de cas, réactivez-la en appelant un message AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=END