Skip to main content
Cluster and storage switches
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Remplacement d'un commutateur de cluster NVIDIA SN2100

Contributeurs

Suivre cette procédure pour remplacer un commutateur NVIDIA SN2100 défectueux dans un réseau de cluster. Il s'agit d'une procédure sans interruption.

Examen des conditions requises

Infrastructure réseau et cluster existante

Assurez-vous que :

  • Le cluster existant est vérifié entièrement fonctionnel, avec au moins un commutateur de cluster entièrement connecté.

  • Tous les ports de cluster fonctionnent.

  • Toutes les interfaces logiques (LIF) de cluster sont active et sur leurs ports de maison.

  • Le ONTAP cluster ping-cluster -node node1 La commande indique que la connectivité de base et la communication PMTU supérieure sont réussies sur tous les chemins.

Commutateur de remplacement NVIDIA SN2100

Assurez-vous que :

  • La connectivité réseau de gestion sur le commutateur de remplacement est fonctionnelle.

  • L'accès à la console au commutateur de remplacement est en place.

  • Les connexions de nœud sont des ports swp1 à swp14.

  • Tous les ports ISL (Inter-Switch Link) sont désactivés sur les ports swp15 et swp16.

  • Le fichier de configuration de référence (RCF) souhaité et le commutateur d'image du système d'exploitation Cumulus sont chargés sur le commutateur.

  • La personnalisation initiale du commutateur est terminée.

Assurez-vous également que toutes les personnalisations précédentes du site, telles que STP, SNMP et SSH, sont copiées sur le nouveau commutateur.

Remarque Vous devez exécuter la commande pour migrer une LIF de cluster à partir du nœud sur lequel la LIF de cluster est hébergée.

Activer la journalisation de la console

NetApp vous recommande fortement d'activer la journalisation de la console sur les périphériques que vous utilisez et d'effectuer les actions suivantes lors du remplacement de votre commutateur :

Remplacer le contacteur

À propos des exemples

Les exemples de cette procédure utilisent la nomenclature des commutateurs et des nœuds suivante :

  • Les noms des commutateurs NVIDIA SN2100 existants sont sw1 et sw2.

  • Le nom du nouveau commutateur NVIDIA SN2100 est nsw2.

  • Les noms de nœud sont node1 et node2.

  • Les ports de cluster de chaque nœud sont nommés e3a et e3b.

  • Les noms de LIF de cluster sont node1_clum1 et node1_clum2 pour node1, et node2_clum1 et node2_clum2 pour node2.

  • Vous êtes invité à modifier tous les nœuds du cluster à cluster1::*>

  • Les ports de dérivation prennent le format suivant : swp[port]s[port de dérivation 0-3]. Par exemple, quatre ports de dérivation sur swp1 sont swp1s0, swp1s1, swp1s2 et swp13.

À propos de la topologie réseau du cluster

Cette procédure est basée sur la topologie réseau de cluster suivante :

Montrer l'exemple de topologie
cluster1::*> network port show -ipspace Cluster

Node: node1
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false

Node: node2
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false


cluster1::*> network interface show -vserver Cluster

            Logical    Status     Network            Current       Current Is
Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
----------- ---------- ---------- ------------------ ------------- ------- ----
Cluster
            node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
            node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
            node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
            node2_clus2  up/up    169.254.19.183/16  node2         e3b     true


cluster1::*> network device-discovery show -protocol lldp
Node/       Local  Discovered
Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
----------- ------ ------------------------- ------------  ----------------
node1      /lldp
            e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3          -
            e3b    sw2 (b8:ce:f6:19:1b:96)   swp3          -
node2      /lldp
            e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4          -
            e3b    sw2 (b8:ce:f6:19:1b:96)   swp4          -

+

cumulus@sw1:~$ net show lldp

LocalPort  Speed  Mode        RemoteHost         RemotePort
---------  -----  ----------  -----------------  -----------
swp3       100G   Trunk/L2    sw2                e3a
swp4       100G   Trunk/L2    sw2                e3a
swp15      100G   BondMember  sw2                swp15
swp16      100G   BondMember  sw2                swp16


cumulus@sw2:~$ net show lldp

LocalPort  Speed  Mode        RemoteHost         RemotePort
---------  -----  ----------  -----------------  -----------
swp3       100G   Trunk/L2    sw1                e3b
swp4       100G   Trunk/L2    sw1                e3b
swp15      100G   BondMember  sw1                swp15
swp16      100G   BondMember  sw1                swp16

Étape 1 : préparer le remplacement

  1. Si AutoSupport est activé sur ce cluster, supprimez la création automatique de dossiers en invoquant un message AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=xh

    x représente la durée de la fenêtre de maintenance en heures.

  2. Définissez le niveau de privilège sur avancé, en entrant y lorsque vous êtes invité à continuer :

    set -privilege advanced

    L'invite avancée (*>) apparaît.

  3. Installez la FCR et l'image appropriées sur le commutateur, nsw2, et effectuez les préparations nécessaires au site.

    Si nécessaire, vérifiez, téléchargez et installez les versions appropriées du logiciel RCF et Cumulus pour le nouveau commutateur.

    1. Vous pouvez télécharger le logiciel Cumulus correspondant à vos commutateurs de cluster à partir du site NVIDIA support. Suivez les étapes de la page de téléchargement pour télécharger le Cumulus Linux pour la version du logiciel ONTAP que vous installez.

    2. La FCR appropriée est disponible sur le "Commutateurs de cluster et de stockage NVIDIA" page. Suivez les étapes de la page de téléchargement pour télécharger la FCR appropriée pour la version du logiciel ONTAP que vous installez.

Étape 2 : configurer les ports et le câblage

  1. Sur le nouveau commutateur nsw2, connectez-vous en tant qu'administrateur et arrêtez tous les ports qui seront connectés aux interfaces du cluster de nœuds (ports swp1 à swp14).

    Les LIFs des nœuds du cluster doivent déjà avoir basculer sur l'autre port du cluster pour chaque nœud.

    Montrer l'exemple
    cumulus@nsw2:~$ net add interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@nsw2:~$ net pending
    cumulus@nsw2:~$ net commit
  2. Désactiver la fonction de revert automatique sur les LIFs du cluster :

    network interface modify -vserver Cluster -lif * -auto-revert false

    Montrer l'exemple
    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
    
    Warning: Disabling the auto-revert feature of the cluster logical interface may effect the availability of your cluster network. Are you sure you want to continue? {y|n}: y
  3. Vérifier que toutes les LIFs de cluster ont activé la fonction de restauration automatique :

    net interface show -vserver Cluster -fields auto-revert

  4. Arrêtez les ports ISL swp15 et swp16 sur le commutateur SN2100 sw1.

    Montrer l'exemple
    cumulus@sw1:~$ net add interface swp15-16 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit
  5. Retirez tous les câbles du commutateur SN2100 sw1, puis connectez-les aux mêmes ports du commutateur SN2100 nsw2.

  6. Mettre les ports ISL swp15 et swp16 entre les commutateurs sw1 et nsw2.

    Montrer l'exemple

    Les commandes suivantes permettent d'activer les ports ISL swp15 et swp16 sur le switch sw1 :

    cumulus@sw1:~$ net del interface swp15-16 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit

    L'exemple suivant montre que les ports ISL sont active sur le commutateur sw1 :

    cumulus@sw1:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------- ----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  nsw2 (swp15)   Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  nsw2 (swp16)   Master: cluster_isl(UP)

    + l'exemple suivant montre que les ports ISL sont activés sur le commutateur nsw2 :

    +

    cumulus@nsw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------  -----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  sw1 (swp15)    Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)    Master: cluster_isl(UP)
  7. Vérifiez ce port e3b est active sur tous les nœuds :

    network port show -ipspace Cluster

    Montrer l'exemple

    La sortie doit être similaire à ce qui suit :

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ----- ------------ -------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
    
    
    Node: node2
                                                                             Ignore
                                                       Speed(Mbps) Health    Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper  Status    Status
    --------- ------------ ---------------- ---- ----- ----------- --------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
  8. Les ports de cluster de chaque nœud sont désormais connectés aux commutateurs de cluster de la façon suivante, du point de vue des nœuds :

    Montrer l'exemple
    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
    ----------- ------ ------------------------- ------------  ----------------
    node1      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp3          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp3          -
    node2      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp4          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp4          -
  9. Vérifier que tous les ports de cluster de nœuds sont adéquats :

    net show interface

    Montrer l'exemple
    cumulus@nsw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  10. Vérifier que les deux nœuds disposent chacun d'une connexion à chaque commutateur :

    net show lldp

    Montrer l'exemple

    L'exemple suivant montre les résultats appropriés pour les deux commutateurs :

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1              e3a
    swp4       100G   Trunk/L2    node2              e3a
    swp15      100G   BondMember  nsw2               swp15
    swp16      100G   BondMember  nsw2               swp16
    
    
    cumulus@nsw2:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1                e3b
    swp4       100G   Trunk/L2    node2                e3b
    swp15      100G   BondMember  sw1                swp15
    swp16      100G   BondMember  sw1                swp16
  11. Activer la fonction de revert automatique sur les LIFs du cluster :

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  12. Sur le commutateur nsw2, mettez en service les ports connectés aux ports réseau des nœuds.

    Montrer l'exemple
    cumulus@nsw2:~$ net del interface swp1-14 link down
    cumulus@nsw2:~$ net pending
    cumulus@nsw2:~$ net commit
  13. Affichage des informations relatives aux nœuds dans un cluster :

    cluster show

    Montrer l'exemple

    Cet exemple indique que le nœud Health pour les nœuds 1 et 2 de ce cluster est vrai :

    cluster1::*> cluster show
    
    Node          Health  Eligibility
    ------------- ------- ------------
    node1         true    true
    node2         true    true
  14. Vérifier que tous les ports de cluster physiques sont en service :

    network port show ipspace Cluster

    Montrer l'exemple
    cluster1::*> network port show -ipspace Cluster
    
    Node node1                                                               Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace     Broadcast Domain  Link  MTU   Admin/Oper  Status   Status
    --------- ----------- ----------------- ----- ----- ----------- -------- ------
    e3a       Cluster     Cluster           up    9000  auto/10000  healthy  false
    e3b       Cluster     Cluster           up    9000  auto/10000  healthy  false
    
    Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link  MTU   Admin/Oper  Status   Status
    --------- ------------ ---------------- ----- ----- ----------- -------- ------
    e3a       Cluster      Cluster          up    9000  auto/10000  healthy  false
    e3b       Cluster      Cluster          up    9000  auto/10000  healthy  false

Étape 3 : vérifier la configuration

  1. Vérifiez que le réseau de clusters fonctionne correctement.

    Montrer l'exemple
    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost      RemotePort
    ---------  -----  ----------  --------------  -----------
    swp3       100G   Trunk/L2    node1           e3a
    swp4       100G   Trunk/L2    node2           e3a
    swp15      100G   BondMember  nsw2            swp15
    swp16      100G   BondMember  nsw2            swp16
  2. Rétablissez le niveau de privilège sur admin :

    set -privilege admin

  3. Si vous avez supprimé la création automatique de cas, réactivez-la en appelant un message AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=END