Skip to main content
Cluster and storage switches
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Migrez vers un cluster commuté à deux nœuds sur les systèmes FAS22xx avec une seule connexion cluster-network

Contributeurs

Si vous possédez des systèmes FAS22xx dans un cluster existant sans commutateur à deux nœuds dans lequel chaque module de contrôleur dispose d'une connexion 10 GbE unique et dos à dos pour la connectivité des clusters, vous pouvez utiliser l'option de réseau sans commutateur et remplacer la connectivité directe interne par des connexions de commutateurs.

Examen des conditions requises

Ce dont vous avez besoin
  • Deux connexions de cluster pour la migration d'une configuration sans commutateur vers une configuration avec commutateur.

  • Le cluster est en bon état et se compose de deux nœuds connectés avec une connectivité dos à dos.

  • Les nœuds exécutent ONTAP 8.2 ou une version ultérieure.

  • La fonctionnalité de cluster sans commutateur ne peut pas être utilisée avec plus de deux nœuds.

  • Tous les ports de cluster sont dans le up état.

Migrer les commutateurs

Cette procédure constitue une procédure sans interruption qui supprime la connectivité directe du cluster dans un environnement sans commutateur et remplace chaque connexion au commutateur par une connexion au nœud partenaire.

Étape 1 : préparer la migration

  1. Modifiez le niveau de privilège en avancé, en saisissant y lorsque vous êtes invité à continuer :

    set -privilege advanced

    L'invite avancée (*>) s'affiche.

  2. Vérifiez l'état du cluster des nœuds sur la console système de l'un ou l'autre nœuds :

    cluster show

    Montrer l'exemple

    L'exemple suivant affiche des informations sur la santé et l'éligibilité des nœuds du cluster :

    cluster::*> cluster show
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------  ------------
    node1                true    true          false
    node2                true    true          false
    
    2 entries were displayed.
  3. Vérifier l'état de la paire HA sur la console système de n'importe quel nœud : storage failover show

    Montrer l'exemple

    L'exemple suivant montre l'état du nœud 1 et du nœud 2 :

    Node           Partner        Possible State Description
    -------------- -------------- -------- -------------------------------------
    node1          node2          true      Connected to node2
    node2          node1          true      Connected to node1
    
    2 entries were displayed.
  4. Si AutoSupport est activé sur ce cluster, supprimez la création automatique de dossiers en invoquant un message AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=xh

    x est la durée de la fenêtre de maintenance en heures.

    Remarque Ce message informe le support technique de cette tâche de maintenance de sorte que la création automatique de dossier soit supprimée lors de la fenêtre de maintenance.
    Montrer l'exemple

    La commande suivante supprime la création automatique de dossiers pendant deux heures :

    cluster::*> system node autosupport invoke -node * -type all -message MAINT=2h
  5. Vérifiez que l'état actuel du cluster sans commutateur est de true, puis désactivez le mode cluster sans commutateur :

    network options switchless-cluster modify -enabled false

  6. Reprendre le nœud cible :

    storage failover takeover -ofnode target_node_name

    Elle n'a pas d'importance sur le nœud cible. Lorsqu'il est pris en charge, le nœud cible redémarre et affiche automatiquement le Waiting for giveback…​ messagerie.

    Le nœud actif transmet désormais les données du nœud partenaire (cible) pris en charge.

  7. Attendre deux minutes après le basculement du nœud douteux pour confirmer que le basculement a été effectué correctement.

  8. Le nœud cible affichant le Waiting for giveback…​ message, arrêtez-le.

    La méthode que vous utilisez pour arrêter le nœud dépend si vous utilisez la gestion à distance par l'intermédiaire du processeur de service du nœud.

    Si le processeur de service est Alors…​

    Est configuré

    Connectez-vous au nœud SP douteux, puis mettez le système hors tension : system power off

    N'est pas configuré

    À l'invite du nœud douteux, appuyez sur Ctrl-C, puis répondez y pour arrêter le nœud.

Étape 2 : configurer les câbles et les ports

  1. Sur chaque module de contrôleur, déconnectez le câble qui connecte le port de cluster 10 GbE au cluster sans commutateur.

  2. Connectez le port de cluster 10 GbE au commutateur des deux modules de contrôleur.

  3. Vérifiez que les ports de cluster 10 GbE connectés sur le commutateur sont configurés pour faire partie du même VLAN.

    Si vous prévoyez de connecter les ports de cluster de chaque module de contrôleur à des commutateurs différents, vous devez vérifier que les ports sur lesquels les ports de cluster sont connectés sur chaque commutateur sont configurés pour le même VLAN et que l'agrégation est correctement configurée sur les deux commutateurs.

  4. Renvoyer le stockage au nœud cible :

    storage failover giveback -ofnode node2

  5. Surveiller la progression de l'opération de rétablissement :

    storage failover show-giveback

  6. Une fois l'opération de rétablissement terminée, vérifiez que la paire HA est saine et que le basculement est possible :

    storage failover show

    Montrer l'exemple

    La sortie doit être similaire à ce qui suit :

    Node           Partner        Possible State Description
    -------------- -------------- -------- -------------------------------------
    node1          node2          true      Connected to node2
    node2          node1          true      Connected to node1
    
    2 entries were displayed.
  7. Vérifiez que les LIFs de port du cluster fonctionnent correctement :

    network interface show -role cluster

    Montrer l'exemple

    L'exemple suivant montre que les LIFs sont up Sur les noeuds 1 et node2 et que les résultats de la colonne "est à la maison" sont true:

    cluster::*> network interface show -role cluster
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    node1
                clus1        up/up    192.168.177.121/24  node1        e1a     true
    node2
                clus1        up/up    192.168.177.123/24  node2        e1a     true
    
    2 entries were displayed.
  8. Vérifiez l'état du cluster des nœuds sur la console système de l'un ou l'autre nœuds :

    cluster show

    Montrer l'exemple

    L'exemple suivant affiche des informations sur la santé et l'éligibilité des nœuds du cluster :

    cluster::*> cluster show
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------  ------------
    node1                true    true          false
    node2                true    true          false
    
    2 entries were displayed.
  9. Envoyez des requêtes ping aux ports du cluster pour vérifier la connectivité du cluster :

    cluster ping-cluster local

    Le résultat de la commande doit afficher la connectivité entre tous les ports du cluster.

Étape 3 : réaliser la procédure

  1. Si vous avez supprimé la création automatique de cas, réactivez-la en appelant un message AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=END

    Montrer l'exemple
    cluster::*> system node autosupport invoke -node * -type all -message MAINT=END
  2. Rétablissez le niveau de privilège sur admin :

    set -privilege admin