Skip to main content
Cluster and storage switches
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Migrez d'un cluster sans commutateur vers un cluster à deux nœuds avec commutateur

Contributeurs

Si vous disposez d'un cluster sans commutateur à deux nœuds, vous pouvez suivre cette procédure pour migrer vers un cluster à deux nœuds avec commutateur qui inclut des commutateurs de réseau de cluster Cisco Nexus 3132Q-V. La procédure de remplacement constitue une procédure sans interruption.

Examen des conditions requises

Ports et connexions des nœuds

Assurez-vous de bien comprendre les exigences de câblage et de connexion des ports et nœuds lorsque vous migrez vers un cluster commuté à deux nœuds avec des commutateurs de cluster Cisco Nexus 3132Q-V.

  • Les commutateurs de cluster utilisent les ports ISL (Inter-Switch Link) e1/31-32.

  • Le "Hardware Universe" Contient des informations sur le câblage pris en charge vers les commutateurs Nexus 3132Q-V :

    • Les nœuds équipés de connexions de cluster 10 GbE requièrent des modules optiques QSFP avec des câbles à fibre optique de séparation ou des câbles QSFP avec des câbles en cuivre SFP+.

    • Les nœuds équipés de connexions de cluster 40/100 GbE requièrent des modules optiques QSFP/QSFP28 pris en charge avec des câbles à fibre optique ou des câbles à connexion directe en cuivre QSFP/QSFP28.

    • Les commutateurs de cluster utilisent le câblage ISL approprié : 2 câbles à connexion directe en fibre ou en cuivre QSFP28.

  • Sur le Nexus 3132Q-V, vous pouvez utiliser les ports QSFP en mode Ethernet 40/100 Gb ou Ethernet 4 x 10 Gb.

    Par défaut, il y a 32 ports en mode Ethernet 40/100 Gb. Ces ports Ethernet 40 Gb sont numérotés en 2 points. Par exemple, le second port Ethernet 40 Gbit est numéroté 1/2. Le processus de modification de la configuration de 40 Go Ethernet à 10 Go Ethernet s'appelle écorché et le processus de modification de la configuration de 10 Go Ethernet à 40 Go Ethernet s'appelle Breakin. Lorsque vous décomposent un port Ethernet 40/100 Gb en ports Ethernet 10 Gb, les ports qui en résultent sont numérotés en utilisant une convention de dénomination à 3 points. Par exemple, les ports de dérivation du second port Ethernet 40/100 Gbit sont numérotés en 1/2/1, 1/2/2, 1/2/3, 1/2/4.

  • Sur le côté gauche du Nexus 3132Q-V est un ensemble de quatre ports SFP+ multiplexés sur le premier port QSFP.

    Par défaut, la FCR est structurée de manière à utiliser le premier port QSFP.

    Vous pouvez activer quatre ports SFP+ au lieu d'un port QSFP pour Nexus 3132Q-V en utilisant le hardware profile front portmode sfp-plus commande. De même, vous pouvez réinitialiser Nexus 3132Q-V pour utiliser un port QSFP au lieu de quatre ports SFP+ en utilisant le hardware profile front portmode qsfp commande.

  • Assurez-vous de configurer certains ports du Nexus 3132Q-V pour qu'ils s'exécutent à 10 GbE ou 40/100 GbE.

    Vous pouvez décomposer les six premiers ports en mode 4x10 GbE en utilisant le interface breakout module 1 port 1-6 map 10g-4x commande. De même, vous pouvez regrouper les six premiers ports QSFP+ de la configuration de séparation à l'aide du no interface breakout module 1 port 1-6 map 10g-4x commande.

  • Le nombre de ports 10 GbE et 40/100 GbE est défini dans les fichiers de configuration de référence disponibles sur le "Téléchargement du fichier de configuration de référence du commutateur réseau en cluster Cisco ®" page.

Ce dont vous avez besoin
  • Configurations correctement configurées et opérationnelles.

  • Nœuds exécutant ONTAP 9.4 ou version ultérieure.

  • Tous les ports de cluster dans up état.

  • Le commutateur de cluster Cisco Nexus 3132Q-V est pris en charge.

  • La configuration réseau en cluster existante comporte les éléments suivants :

    • L'infrastructure en cluster Nexus 3132 redondante et entièrement fonctionnelle sur les deux commutateurs.

    • Les dernières versions de RCF et de NX-OS sur vos commutateurs.

      Le "Commutateurs Ethernet Cisco" Cette procédure contient des informations sur les versions ONTAP et NX-OS prises en charge.

    • Connectivité de gestion sur les deux commutateurs.

    • Accès à la console aux deux commutateurs.

    • Toutes les interfaces logiques (LIF) du cluster dans le up état sans migration.

    • Personnalisation initiale du commutateur.

    • Tous les ports ISL activés et câblés.

Vous devez également planifier, migrer et lire la documentation requise sur la connectivité 10 GbE et 40/100 GbE des nœuds vers les commutateurs de cluster Nexus 3132Q-V.

Migrer les commutateurs

À propos des exemples

Les exemples de cette procédure utilisent la nomenclature des commutateurs et des nœuds suivante :

  • Commutateurs de cluster Nexus 3132Q-V, C1 et C2.

  • Les nœuds sont n1 et n2.

Remarque

Les exemples de cette procédure utilisent deux nœuds, chacun utilisant deux ports d'interconnexion de cluster 40/100 GbE e4a et e4e. Le "Hardware Universe" possède des informations détaillées sur les ports de cluster de vos plates-formes.

Description de la tâche

Cette procédure couvre les scénarios suivants :

  • n1_concluA1 est la première interface logique (LIF) de cluster à être connectée au commutateur de cluster C1 pour le nœud n1.

  • n1_clus2 est la première LIF de cluster à être connectée au commutateur de cluster C2 pour le nœud n1.

  • n2_concluA1 est la première LIF de cluster à être connectée au commutateur de cluster C1 pour le nœud n2.

  • n2_clus2 est la deuxième LIF de cluster à être connectée au commutateur de cluster C2 pour le nœud n2.

  • Le nombre de ports 10 GbE et 40/100 GbE est défini dans les fichiers de configuration de référence disponibles sur le "Téléchargement du fichier de configuration de référence du commutateur réseau en cluster Cisco ®" page.

Remarque

La procédure nécessite l'utilisation des commandes ONTAP et des commutateurs Cisco Nexus 3000 ; les commandes ONTAP sont utilisées sauf indication contraire.

  • Le cluster commence par deux nœuds connectés et fonctionne dans un cluster à deux nœuds sans commutateur.

  • Le premier port du cluster est déplacé vers C1.

  • Le second port du cluster est déplacé vers C2.

  • L'option de cluster sans commutateur à 2 nœuds est désactivée.

Étape 1 : préparer la migration

  1. Si AutoSupport est activé sur ce cluster, supprimez la création automatique de dossiers en invoquant un message AutoSupport :

    system node autosupport invoke -node * -type all - message MAINT=xh

    x représente la durée de la fenêtre de maintenance en heures.

    Remarque

    Le message AutoSupport informe le support technique de cette tâche de maintenance de sorte que la création automatique de dossier soit supprimée lors de la fenêtre de maintenance.

  2. Déterminer le statut administratif ou opérationnel pour chaque interface de cluster :

    1. Afficher les attributs des ports réseau :

      network port show

      Montrer l'exemple
      cluster::*> network port show –role cluster
        (network port show)
      Node: n1
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e4a       Cluster      Cluster          up   9000 auto/40000  -        -
      e4e       Cluster      Cluster          up   9000 auto/40000  -        -
      
      Node: n2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e4a       Cluster      Cluster          up   9000 auto/40000  -        -
      e4e       Cluster      Cluster          up   9000 auto/40000  -        -
      4 entries were displayed.
    2. Afficher des informations sur les interfaces logiques :

      network interface show

    Montrer l'exemple
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.
  3. Vérifiez que les RCF et l'image appropriés sont installés sur les nouveaux commutateurs 3132Q-V selon vos besoins, et apportez les personnalisations essentielles du site, telles que les utilisateurs et les mots de passe, les adresses réseau, etc.

    Vous devez préparer les deux commutateurs pour le moment. Si vous devez mettre à niveau la FCR et le logiciel d'image, vous devez suivre les étapes suivantes :

    1. Accédez au "Commutateurs Ethernet Cisco" Sur le site de support NetApp.

    2. Notez votre commutateur et les versions logicielles requises dans le tableau de cette page.

    3. Téléchargez la version appropriée de RCF.

    4. Cliquez sur CONTINUER sur la page Description, acceptez le contrat de licence, puis suivez les instructions de la page Télécharger pour télécharger le FCR.

    5. Téléchargez la version appropriée du logiciel d'image.

  4. Cliquez sur CONTINUER sur la page Description, acceptez le contrat de licence, puis suivez les instructions de la page Télécharger pour télécharger le FCR.

Étape 2 : déplacez le premier port du cluster vers C1

  1. Sur les commutateurs Nexus 3132Q-V C1 et C2, désactivez tous les ports C1 et C2 orientés nœud, mais ne désactivez pas les ports ISL.

    Montrer l'exemple

    L'exemple suivant montre les ports 1 à 30 désactivés sur les commutateurs de cluster Nexus 3132Q-V C1 et C2, à l'aide d'une configuration prise en charge dans RCF NX3132_RCF_v1.1_24p10g_26p40g.txt:

    C1# copy running-config startup-config
    [########################################] 100%
    Copy complete.
    C1# configure
    C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C1(config-if-range)# shutdown
    C1(config-if-range)# exit
    C1(config)# exit
    
    C2# copy running-config startup-config
    [########################################] 100%
    Copy complete.
    C2# configure
    C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C2(config-if-range)# shutdown
    C2(config-if-range)# exit
    C2(config)# exit
  2. Connectez les ports 1/31 et 1/32 de C1 aux mêmes ports de C2 à l'aide du câblage pris en charge.

  3. Vérifier que les ports ISL sont opérationnels sur les modèles C1 et C2 :

    show port-channel summary

    Montrer l'exemple
    C1# show port-channel summary
    Flags: D - Down         P - Up in port-channel (members)
           I - Individual   H - Hot-standby (LACP only)
           s - Suspended    r - Module-removed
           S - Switched     R - Routed
           U - Up (port-channel)
           M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-        Type   Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)      Eth    LACP      Eth1/31(P)   Eth1/32(P)
    
    C2# show port-channel summary
    Flags: D - Down         P - Up in port-channel (members)
           I - Individual   H - Hot-standby (LACP only)
           s - Suspended    r - Module-removed
           S - Switched     R - Routed
           U - Up (port-channel)
           M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-        Type   Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)      Eth    LACP      Eth1/31(P)   Eth1/32(P)
  4. Afficher la liste des périphériques voisins sur le commutateur :

    show cdp neighbors

    Montrer l'exemple
    C1# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    C2                 Eth1/31        174    R S I s     N3K-C3132Q-V  Eth1/31
    C2                 Eth1/32        174    R S I s     N3K-C3132Q-V  Eth1/32
    
    Total entries displayed: 2
    
    C2# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    C1                 Eth1/31        178    R S I s     N3K-C3132Q-V  Eth1/31
    C1                 Eth1/32        178    R S I s     N3K-C3132Q-V  Eth1/32
    
    Total entries displayed: 2
  5. Afficher la connectivité des ports du cluster sur chaque nœud :

    network device-discovery show

    Montrer l'exemple

    L'exemple suivant présente une configuration de cluster sans commutateur à deux nœuds.

    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    n2                  e4a              FAS9000
                e4e    n2                  e4e              FAS9000
    n2         /cdp
                e4a    n1                  e4a              FAS9000
                e4e    n1                  e4e              FAS9000
  6. Migrez l'interface de type 1 vers le port physique hébergeant clus2 :

    network interface migrate

    Exécutez cette commande à partir de chaque nœud local.

    Montrer l'exemple
    cluster::*> network interface migrate -vserver Cluster -lif n1_clus1 -source-node n1
    –destination-node n1 -destination-port e4e
    cluster::*> network interface migrate -vserver Cluster -lif n2_clus1 -source-node n2
    –destination-node n2 -destination-port e4e
  7. Vérifier la migration des interfaces de cluster :

    network interface show

    Montrer l'exemple
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4e     false
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4e     false
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.
  8. Fermez les ports de cluster de façon conclu1 LIF sur les deux nœuds :

    network port modify

    cluster::*> network port modify -node n1 -port e4a -up-admin false
    cluster::*> network port modify -node n2 -port e4a -up-admin false
  9. Vérifiez la connectivité des interfaces de cluster distantes :

ONTAP 9.9.1 et versions ultérieures

Vous pouvez utiliser le network interface check cluster-connectivity pour lancer un contrôle d'accessibilité pour la connectivité du cluster, puis afficher les détails :

network interface check cluster-connectivity start et network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

NOTE: attendez un certain nombre de secondes avant d'exécuter la commande show pour afficher les détails.

cluster1::*> network interface check cluster-connectivity show
                                  Source          Destination       Packet
Node   Date                       LIF             LIF               Loss
------ -------------------------- --------------- ----------------- -----------
n1
       3/5/2022 19:21:18 -06:00   n1_clus2        n2_clus1      none
       3/5/2022 19:21:20 -06:00   n1_clus2        n2_clus2      none

n2
       3/5/2022 19:21:18 -06:00   n2_clus2        n1_clus1      none
       3/5/2022 19:21:20 -06:00   n2_clus2        n1_clus2      none
Toutes les versions de ONTAP

Pour toutes les versions de ONTAP, vous pouvez également utiliser cluster ping-cluster -node <name> pour vérifier la connectivité :

cluster ping-cluster -node <name>

cluster::*> cluster ping-cluster -node n1
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1		e4a	10.10.0.1
Cluster n1_clus2 n1		e4e	10.10.0.2
Cluster n2_clus1 n2		e4a	10.10.0.3
Cluster n2_clus2 n2		e4e	10.10.0.4

Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 1500 byte MTU on 32 path(s):
    Local 10.10.0.1 to Remote 10.10.0.3
    Local 10.10.0.1 to Remote 10.10.0.4
    Local 10.10.0.2 to Remote 10.10.0.3
    Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)
  1. déconnectez le câble de e4a sur le nœud n1.

    Vous pouvez vous reporter à la configuration en cours d'exécution et connecter le premier port 40 GbE du commutateur C1 (port 1/7 dans cet exemple) à e4a sur n1 à l'aide du câblage pris en charge sur le commutateur Nexus 3132Q-V.

    Remarque Lors de la reconnexion des câbles à un nouveau commutateur de cluster Cisco, les câbles utilisés doivent être pris en charge par Cisco à l'aide d'un câble ou d'une fibre optique.
  2. Débrancher le câble e4a du nœud n2.

    Vous pouvez vous reporter à la configuration en cours d'exécution et connecter e4a au prochain port 40 GbE disponible sur C1, port 1/8, à l'aide du câblage pris en charge.

  3. Activation de tous les ports orientés nœuds sur C1.

    Montrer l'exemple

    L'exemple suivant montre l'activation des ports 1 à 30 sur les commutateurs de cluster Nexus 3132Q-V C1 et C2 à l'aide de la configuration prise en charge dans RCF NX3132_RCF_v1.1_24p10g_26p40g.txt:

    C1# configure
    C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C1(config-if-range)# no shutdown
    C1(config-if-range)# exit
    C1(config)# exit
  4. Activer le premier port du cluster, e4a, sur chaque nœud :

    network port modify

    Montrer l'exemple
    cluster::*> network port modify -node n1 -port e4a -up-admin true
    cluster::*> network port modify -node n2 -port e4a -up-admin true
  5. Vérifier que les clusters fonctionnent sur les deux nœuds :

    network port show

    Montrer l'exemple
    cluster::*> network port show –role cluster
      (network port show)
    Node: n1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e4a       Cluster      Cluster          up   9000 auto/40000  -        -
    e4e       Cluster      Cluster          up   9000 auto/40000  -        -
    
    Node: n2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e4a       Cluster      Cluster          up   9000 auto/40000  -        -
    e4e       Cluster      Cluster          up   9000 auto/40000  -        -
    4 entries were displayed.
  6. Pour chaque nœud, restaurez toutes les LIF d'interconnexion de cluster migrées :

    network interface revert

    Montrer l'exemple

    L'exemple suivant montre que les LIF migrées sont rétablies dans leur port de départ.

    cluster::*> network interface revert -vserver Cluster -lif n1_clus1
    cluster::*> network interface revert -vserver Cluster -lif n2_clus1
  7. Vérifier que tous les ports d'interconnexion de cluster sont rétablis dans leurs ports de base :

    network interface show

    Le Is Home la colonne doit afficher une valeur de true pour tous les ports répertoriés dans le Current Port colonne. Si la valeur affichée est de false, le port n'a pas été rétabli.

    Montrer l'exemple
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.

Étape 3 : déplacer le second port du cluster vers C2

  1. Afficher la connectivité des ports du cluster sur chaque nœud :

    network device-discovery show

    Montrer l'exemple
    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    C1                  Ethernet1/7      N3K-C3132Q-V
                e4e    n2                  e4e              FAS9000
    n2         /cdp
                e4a    C1                  Ethernet1/8      N3K-C3132Q-V
                e4e    n1                  e4e              FAS9000
  2. Sur la console de chaque nœud, migrez la valeur de club2 vers le port e4a :

    network interface migrate

    Montrer l'exemple
    cluster::*> network interface migrate -vserver Cluster -lif n1_clus2 -source-node n1
    –destination-node n1 -destination-port e4a
    cluster::*> network interface migrate -vserver Cluster -lif n2_clus2 -source-node n2
    –destination-node n2 -destination-port e4a
  3. Fermez les ports de cluster de façon concluante 2 LIF sur les deux nœuds :

    network port modify

    L'exemple suivant montre les ports spécifiés en cours d'arrêt sur les deux nœuds :

    	cluster::*> network port modify -node n1 -port e4e -up-admin false
    	cluster::*> network port modify -node n2 -port e4e -up-admin false
  4. Vérifier le statut LIF de cluster :

    network interface show

    Montrer l'exemple
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4a     false
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4a     false
    4 entries were displayed.
  5. Débrancher le câble de e4e sur le nœud n1.

    Vous pouvez vous reporter à la configuration en cours d'exécution et connecter le premier port 40 GbE du commutateur C2 (port 1/7 dans cet exemple) à e4e sur n1 à l'aide du câblage pris en charge sur le commutateur Nexus 3132Q-V.

  6. Débrancher le câble de e4e sur le nœud n2.

    Vous pouvez vous reporter à la configuration en cours d'exécution et connecter e4e au prochain port 40 GbE disponible sur C2, port 1/8, à l'aide du câblage pris en charge.

  7. Activer tous les ports orientés nœud sur C2.

    Montrer l'exemple

    L'exemple suivant montre l'activation des ports 1 à 30 sur les commutateurs de cluster Nexus 3132Q-V C1 et C2 à l'aide d'une configuration prise en charge dans RCF NX3132_RCF_v1.1_24p10g_26p40g.txt:

    C2# configure
    C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C2(config-if-range)# no shutdown
    C2(config-if-range)# exit
    C2(config)# exit
  8. Activer le second port du cluster, e4e, sur chaque nœud :

    network port modify

    L'exemple suivant montre les ports spécifiés en cours de démarrage :

    	cluster::*> network port modify -node n1 -port e4e -up-admin true
    	cluster::*> network port modify -node n2 -port e4e -up-admin true
  9. Pour chaque nœud, restaurez toutes les LIF d'interconnexion de cluster migrées :

    network interface revert

    L'exemple suivant montre que les LIF migrées sont rétablies dans leur port de départ.

    	cluster::*> network interface revert -vserver Cluster -lif n1_clus2
    	cluster::*> network interface revert -vserver Cluster -lif n2_clus2
  10. Vérifier que tous les ports d'interconnexion de cluster sont rétablis dans leurs ports de base :

    network interface show

    Le Is Home la colonne doit afficher une valeur de true pour tous les ports répertoriés dans le Current Port colonne. Si la valeur affichée est de false, le port n'a pas été rétabli.

    Montrer l'exemple
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.
  11. Vérifiez que tous les ports d'interconnexion de cluster sont dans le up état.

    network port show –role cluster

    Montrer l'exemple
    cluster::*> network port show –role cluster
      (network port show)
    Node: n1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e4a       Cluster      Cluster          up   9000 auto/40000  -        -
    e4e       Cluster      Cluster          up   9000 auto/40000  -        -
    
    Node: n2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e4a       Cluster      Cluster          up   9000 auto/40000  -        -
    e4e       Cluster      Cluster          up   9000 auto/40000  -        -
    4 entries were displayed.

Étape 4 : désactivez l'option de cluster sans commutateur à deux nœuds

  1. Afficher les numéros de port de commutateur du cluster chaque port de cluster est connecté à sur chaque nœud :

    network device-discovery show

    Montrer l'exemple
    	cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    C1                  Ethernet1/7      N3K-C3132Q-V
                e4e    C2                  Ethernet1/7      N3K-C3132Q-V
    n2         /cdp
                e4a    C1                  Ethernet1/8      N3K-C3132Q-V
                e4e    C2                  Ethernet1/8      N3K-C3132Q-V
  2. Affichage des commutateurs de cluster découverts et surveillés :

    system cluster-switch show

    Montrer l'exemple
    cluster::*> system cluster-switch show
    
    Switch                      Type               Address          Model
    --------------------------- ------------------ ---------------- ---------------
    C1                         cluster-network     10.10.1.101      NX3132V
         Serial Number: FOX000001
          Is Monitored: true
                Reason:
      Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                        7.0(3)I4(1)
        Version Source: CDP
    
    C2                          cluster-network     10.10.1.102      NX3132V
         Serial Number: FOX000002
          Is Monitored: true
                Reason:
      Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                        7.0(3)I4(1)
        Version Source: CDP
    
    2 entries were displayed.
  3. Désactivez les paramètres de configuration sans commutateur à 2 nœuds sur n'importe quel nœud :

    network options switchless-cluster

    network options switchless-cluster modify -enabled false
  4. Vérifiez que le switchless-cluster l'option a été désactivée.

    network options switchless-cluster show

Étape 5 : vérifier la configuration

  1. Vérifiez la connectivité des interfaces de cluster distantes :

ONTAP 9.9.1 et versions ultérieures

Vous pouvez utiliser le network interface check cluster-connectivity pour lancer un contrôle d'accessibilité pour la connectivité du cluster, puis afficher les détails :

network interface check cluster-connectivity start et network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

NOTE: attendez un certain nombre de secondes avant d'exécuter la commande show pour afficher les détails.

cluster1::*> network interface check cluster-connectivity show
                                  Source          Destination       Packet
Node   Date                       LIF             LIF               Loss
------ -------------------------- --------------- ----------------- -----------
n1
       3/5/2022 19:21:18 -06:00   n1_clus2        n2_clus1      none
       3/5/2022 19:21:20 -06:00   n1_clus2        n2_clus2      none

n2
       3/5/2022 19:21:18 -06:00   n2_clus2        n1_clus1      none
       3/5/2022 19:21:20 -06:00   n2_clus2        n1_clus2      none
Toutes les versions de ONTAP

Pour toutes les versions de ONTAP, vous pouvez également utiliser cluster ping-cluster -node <name> pour vérifier la connectivité :

cluster ping-cluster -node <name>

cluster::*> cluster ping-cluster -node n1
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1		e4a	10.10.0.1
Cluster n1_clus2 n1		e4e	10.10.0.2
Cluster n2_clus1 n2		e4a	10.10.0.3
Cluster n2_clus2 n2		e4e	10.10.0.4

Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 1500 byte MTU on 32 path(s):
    Local 10.10.0.1 to Remote 10.10.0.3
    Local 10.10.0.1 to Remote 10.10.0.4
    Local 10.10.0.2 to Remote 10.10.0.3
    Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)
  1. si vous avez supprimé la création automatique de cas, réactivez-la en appelant un message AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=END