Skip to main content
ONTAP MetroCluster
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Connexion des modules de contrôleur IP MetroCluster

Contributeurs

Vous devez ajouter les quatre nouveaux modules de contrôleur et tous les tiroirs de stockage supplémentaires à la configuration. Les nouveaux modules de contrôleur sont ajoutés deux à la fois.

Configuration des nouveaux contrôleurs

Vous devez installer et connecter les nouveaux contrôleurs IP MetroCluster aux tiroirs de stockage précédemment connectés aux contrôleurs FC MetroCluster.

Description de la tâche

Ces étapes doivent être réalisées sur chacun des nœuds IP MetroCluster.

  • Node_A_1-IP

  • Node_A_2-IP

  • Node_B_1-IP

  • Node_B_2-IP

Dans l'exemple suivant, deux tiroirs de stockage supplémentaires sont ajoutés sur chaque site afin de fournir du stockage pour s'adapter aux nouveaux modules de contrôleur.

effectuez la transition de 2 n 4 nouveaux nœuds et tiroirs ip
Étapes
  1. Planifiez le positionnement des nouveaux modules de contrôleur et tiroirs de stockage en fonction des besoins.

    L'espace rack dépend du modèle de plateforme des modules de contrôleur, des types de switchs et du nombre de tiroirs de stockage de votre configuration.

  2. Mettez-vous à la terre.

  3. Installez le nouvel équipement : contrôleurs, tiroirs de stockage et commutateurs IP.

    Ne câconnectez pas encore les tiroirs de stockage ni les commutateurs IP.

  4. Branchez les câbles d'alimentation et la connexion de la console de gestion aux contrôleurs.

  5. Vérifier que tous les tiroirs de stockage sont hors tension.

  6. Vérifiez qu'aucun disque n'est connecté en effectuant les étapes suivantes sur les quatre nœuds :

    1. À l'invite DU CHARGEUR, lancez le menu de démarrage :

      boot_ontap maint

    2. Vérifiez qu'aucun lecteur n'est connecté :

      disk show -v

    La sortie ne doit pas afficher de lecteurs.

    1. Arrêter le nœud :

      halt

  7. Démarrez les quatre nœuds à l'aide de l'option 9a du menu de démarrage.

    1. À l'invite DU CHARGEUR, lancez le menu de démarrage :

      boot_ontap menu

    2. Dans le menu de démarrage, sélectionnez l'option « 9a » pour redémarrer le contrôleur.

    3. Laissez le module de contrôleur terminer le démarrage avant de passer au module de contrôleur suivant.

    Une fois que « 9a » est terminé, les nœuds retournent automatiquement au menu d'amorçage.

  8. Reliez les tiroirs de stockage.

    Pour plus d'informations sur le câblage, reportez-vous aux procédures d'installation et de configuration du contrôleur correspondant à votre modèle.

  9. Reliez les contrôleurs aux commutateurs IP, comme décrit dans la "Câblage des commutateurs IP".

  10. Préparez les commutateurs IP pour l'application des nouveaux fichiers RCF.

    Suivez les étapes pour votre fournisseur de commutateur :

  11. Téléchargez et installez les fichiers RCF.

    Suivez les étapes pour votre fournisseur de commutateur :

  12. Mettez le premier contrôleur sous tension (node_A_1-IP) et appuyez sur Ctrl-C pour interrompre le processus de démarrage et afficher l'invite DU CHARGEUR.

  13. Démarrer le contrôleur en mode maintenance :

    boot_ontap_maint

  14. Afficher l'ID système du contrôleur :

    sysconfig -v

  15. Vérifier que les tiroirs de la configuration existante sont visibles depuis le nouveau nœud IP MetroCluster :

    storage show shelf``disk show -v

  16. Arrêter le nœud :

    halt

  17. Répétez les étapes précédentes sur l'autre nœud du site partenaire (site_B).

Connexion et démarrage du noeud_A_1-IP et du noeud_B_1-IP

Après avoir connecté les contrôleurs IP MetroCluster et les commutateurs IP, vous effectuez la transition et le démarrage du nœud_A_1-IP et du nœud_B_1-IP.

Mise en service du noeud_A_1-IP

Vous devez démarrer le nœud avec l'option de transition appropriée.

Étapes
  1. Boot node_A_1-IP vers le menu de démarrage :

    boot_ontap menu

  2. Pour lancer la transition, exécutez la commande suivante à l'invite du menu de démarrage :

    boot_after_mcc_transition

    • Cette commande réaffecte tous les disques appartenant au node_A_1-FC au node_A_1-IP.

      • Les disques node_A_1-FC sont affectés au nœud_A_1-IP

      • Les disques node_B_1-FC sont affectés au nœud_B_1-IP

    • La commande permet également de réassignations d'ID système nécessaire pour que les nœuds IP MetroCluster puissent démarrer à l'invite ONTAP.

    • Si la commande boot_After_mcc_transition échoue pour une raison quelconque, elle doit être exécutée à nouveau à partir du menu de démarrage.

      Remarque
      • Si l'invite suivante s'affiche, entrez Ctrl-C pour continuer. Vérification de l'état du MCC DR…​ [Entrer Ctrl-C(RESUME), S(STATUS), L(LINK)]_

      • Si le volume racine a été chiffré, le nœud s'arrête avec le message suivant. Arrêt du système, car le volume racine est chiffré (NetApp Volume Encryption) et l'importation de la clé a échoué. Si le cluster est configuré avec un gestionnaire de clés externe (KMIP), vérifiez l'état de santé des serveurs de clés.

      Please choose one of the following:
      (1) Normal Boot.
      (2) Boot without /etc/rc.
      (3) Change password.
      (4) Clean configuration and initialize all disks.
      (5) Maintenance mode boot.
      (6) Update flash from backup config.
      (7) Install new software first.
      (8) Reboot node.
      (9) Configure Advanced Drive Partitioning. Selection (1-9)? `boot_after_mcc_transition`
      This will replace all flash-based configuration with the last backup to disks. Are you sure you want to continue?: yes
      
      MetroCluster Transition: Name of the MetroCluster FC node: `node_A_1-FC`
      MetroCluster Transition: Please confirm if this is the correct value [yes|no]:? y
      MetroCluster Transition: Disaster Recovery partner sysid of MetroCluster FC node node_A_1-FC: `systemID-of-node_B_1-FC`
      MetroCluster Transition: Please confirm if this is the correct value [yes|no]:? y
      MetroCluster Transition: Disaster Recovery partner sysid of local MetroCluster IP node: `systemID-of-node_B_1-IP`
      MetroCluster Transition: Please confirm if this is the correct value [yes|no]:? y
  3. Si les volumes de données sont chiffrés, restaurez les clés à l'aide de la commande appropriée pour votre configuration de gestion des clés.

    Si vous utilisez…​

    Utilisez cette commande…​

    Gestion intégrée des clés

    security key-manager onboard sync

    Gestion externe des clés

    security key-manager key query -node node-name

  4. Si le volume racine est chiffré, utilisez la procédure décrite dans la section "Récupération de la gestion des clés si le volume racine est chiffré".

Récupération de la gestion des clés si le volume racine est chiffré

Si le volume racine est chiffré, vous devez utiliser des commandes de démarrage spéciales pour restaurer la gestion des clés.

Avant de commencer

Vous devez avoir les phrases clés rassemblées plus tôt.

Étapes
  1. Si vous utilisez la gestion intégrée des clés, procédez comme suit pour restaurer la configuration.

    1. Depuis l'invite DU CHARGEUR, afficher le menu de démarrage :

      boot_ontap menu

    2. Sélectionnez l'option «»(10) définissez les secrets de récupération de la gestion intégrée des clés» dans le menu de démarrage.

      Répondez au besoin aux invites :

      This option must be used only in disaster recovery procedures. Are you sure? (y or n): y
      Enter the passphrase for onboard key management: passphrase
      Enter the passphrase again to confirm: passphrase
      
      Enter the backup data: backup-key

      Le système démarre dans le menu de démarrage.

    3. Entrer l'option « 6 » dans le menu de démarrage.

      Répondez au besoin aux invites :

      This will replace all flash-based configuration with the last backup to
      disks. Are you sure you want to continue?: y
      
      Following this, the system will reboot a few times and the following prompt will be available continue by saying y
      
      WARNING: System ID mismatch. This usually occurs when replacing a boot device or NVRAM cards!
      Override system ID? {y|n} y

      Après le redémarrage, le système se trouve à l'invite DU CHARGEUR.

    4. Depuis l'invite DU CHARGEUR, afficher le menu de démarrage :

      boot_ontap menu

    5. Encore une fois, choisissez l'option ""(10) définissez les secrets de récupération de la gestion des clés à bord" dans le menu de démarrage.

      Répondez au besoin aux invites :

      This option must be used only in disaster recovery procedures. Are you sure? (y or n): `y`
      Enter the passphrase for onboard key management: `passphrase`
      Enter the passphrase again to confirm:`passphrase`
      
      Enter the backup data:`backup-key`

      Le système démarre dans le menu de démarrage.

    6. Entrer l'option « 1 » dans le menu de démarrage.

      Si l'invite suivante s'affiche, vous pouvez appuyer sur Ctrl+C pour reprendre le processus.

       Checking MCC DR state... [enter Ctrl-C(resume), S(status), L(link)]

      Le système démarre dans l'invite de ONTAP.

    7. Restauration de la gestion intégrée des clés :

      security key-manager onboard sync

      Répondez au besoin aux invites à l'aide de la phrase de passe que vous avez recueillie plus tôt :

    cluster_A::> security key-manager onboard sync
    Enter the cluster-wide passphrase for onboard key management in Vserver "cluster_A":: passphrase
  2. Si vous utilisez la gestion externe des clés, procédez comme suit pour restaurer la configuration.

    1. Définissez les bootargs requis :

      setenv bootarg.kmip.init.ipaddr ip-address

      setenv bootarg.kmip.init.netmask netmask

      setenv bootarg.kmip.init.gateway gateway-address

      setenv bootarg.kmip.init.interface interface-id

    2. Depuis l'invite DU CHARGEUR, afficher le menu de démarrage :

      boot_ontap menu

    3. Sélectionnez l'option "`(11) configurer le noeud pour la gestion externe des clés» dans le menu de démarrage.

      Le système démarre dans le menu de démarrage.

    4. Entrer l'option « 6 » dans le menu de démarrage.

      Le système démarre plusieurs fois. Vous pouvez répondre de manière affirmative lorsque vous êtes invité à poursuivre le processus d'amorçage.

      Après le redémarrage, le système se trouve à l'invite DU CHARGEUR.

    5. Définissez les bootargs requis :

      setenv bootarg.kmip.init.ipaddr ip-address

      setenv bootarg.kmip.init.netmask netmask

      setenv bootarg.kmip.init.gateway gateway-address

    setenv bootarg.kmip.init.interface interface-id

    1. Depuis l'invite DU CHARGEUR, afficher le menu de démarrage :

      boot_ontap menu

    2. Sélectionnez à nouveau l'option «»(11) configurer le nœud pour la gestion externe des clés» dans le menu de démarrage et répondez aux invites si nécessaire.

      Le système démarre dans le menu de démarrage.

    3. Restaurez la gestion externe des clés :

      security key-manager external restore

Création de la configuration réseau

Vous devez créer une configuration réseau qui correspond à la configuration sur les nœuds FC. En effet, le nœud IP MetroCluster relit la même configuration au démarrage, ce qui signifie qu'au démarrage du nœud_A_1-IP et du nœud_B_1-IP, ONTAP essaiera d'héberger les LIF sur les mêmes ports que ceux utilisés respectivement sur le nœud_A_1-FC et le nœud_B_1-FC.

Description de la tâche

Au fur et à mesure que vous créez la configuration réseau, utilisez le plan créé dans "Mappage des ports des nœuds FC MetroCluster sur les nœuds IP MetroCluster" pour vous aider.

Remarque Une configuration supplémentaire peut être nécessaire pour afficher les LIF de données après la configuration des nœuds IP MetroCluster.
Étapes
  1. Vérifier que tous les ports de cluster se trouvent dans le broadcast domain approprié :

    L'IPspace et le Cluster broadcast domain sont requis pour créer les LIFs de cluster

    1. Afficher les espaces IP :

      network ipspace show

    2. Créez des espaces IP et attribuez les ports au cluster si nécessaire.

    3. Afficher les domaines de diffusion :

      network port broadcast-domain show

    4. Il est possible d'ajouter n'importe quel port de cluster à un broadcast domain.

    5. Recréez les VLAN et les groupes d'interfaces selon les besoins.

      L'appartenance au VLAN et aux groupes d'interfaces peut être différente de celle de l'ancien nœud.

  2. Vérifiez que les paramètres MTU sont définis correctement pour les ports et le domaine de diffusion et effectuez des modifications à l'aide des commandes suivantes :

    network port broadcast-domain show

    network port broadcast-domain modify -broadcast-domain bcastdomainname -mtu mtu-value

Configuration des ports du cluster et des LIFs du cluster

Vous devez configurer les ports et les LIFs de cluster. Les étapes suivantes doivent être réalisées sur le site A, nœud a démarré avec des agrégats racine.

Étapes
  1. Identifier la liste des LIFs à l'aide du port Cluster souhaité :

    network interface show -curr-port portname

    network interface show -home-port portname

  2. Pour chaque port de cluster, modifier le port de home port de l'une des LIFs de ce port sur un autre port,

    1. Entrer en mode de privilège avancé et entrer « y » lorsque vous êtes invité à continuer :

      set priv advanced

    2. Si le LIF en cours de modification est une LIF de données :

      vserver config override -command "network interface modify -lif lifname -vserver vservername -home-port new-datahomeport"

    3. Si le LIF n'est pas une LIF de données :

      network interface modify -lif lifname -vserver vservername -home-port new-datahomeport

    4. Revert les LIFs modifiées sur leur port de origine :

      network interface revert * -vserver vserver_name

    5. Vérifier qu'il n'y a pas de LIFs sur le port du cluster :

      network interface show -curr-port portname

    network interface show -home-port portname

    1. Supprimez le port du broadcast domain actuel :

      network port broadcast-domain remove-ports -ipspace ipspacename -broadcast-domain bcastdomainname -ports node_name:port_name

    2. Ajoutez le port au cluster IPspace et broadcast domain :

      network port broadcast-domain add-ports -ipspace Cluster -broadcast-domain Cluster -ports node_name:port_name

    3. Vérifiez que le rôle du port a changé : network port show

    4. Répétez ces sous-étapes pour chaque port de cluster.

    5. Revenir en mode admin:

      set priv admin

  3. Création des LIFs de cluster sur les nouveaux ports du cluster :

    1. Pour autoconfiguration utilisant l'adresse lien-local pour le LIF de cluster, utilisez la commande suivante :

      network interface create -vserver Cluster -lif cluster_lifname -service-policy default-cluster -home-node a1name -home-port clusterport -auto true

    2. Pour attribuer une adresse IP statique pour le LIF de cluster, utilisez la commande suivante :

      network interface create -vserver Cluster -lif cluster_lifname -service-policy default-cluster -home-node a1name -home-port clusterport -address ip-address -netmask netmask -status-admin up

Vérification de la configuration de LIF

Le LIF node management, la LIF cluster management et les LIF intercluster seront toujours présents après le déplacement du stockage en provenance de l'ancien contrôleur. Si nécessaire, vous devez déplacer les LIFs vers les ports appropriés.

Étapes
  1. Vérifier si la LIF de management et les LIFs de cluster management sont déjà sur le port désiré:

    network interface show -service-policy default-management

    network interface show -service-policy default-intercluster

    Si les LIF se trouvent sur les ports souhaités, vous pouvez ignorer les autres étapes de cette tâche et passer à la tâche suivante.

  2. Pour chaque nœud, cluster management ou intercluster qui ne sont pas sur le port désiré, modifiez le port de rattachement des LIFs de ce port sur un autre port.

    1. Reconvertir le port souhaité en déplaçant les LIF hébergées sur le port souhaité vers un autre port :

      vserver config override -command "network interface modify -lif lifname -vserver vservername -home-port new-datahomeport"

    2. Revert les LIF modifiées sur leur nouveau port de base :

      vserver config override -command "network interface revert -lif lifname -vserver _vservername"

    3. Si le port désiré n'est pas dans le Right IPspace et le broadcast domain, supprimez le port de l'IPspace et du broadcast domain :

      network port broadcast-domain remove-ports -ipspace current-ipspace -broadcast-domain current-broadcast-domain -ports controller-name:current-port

    4. Déplacez le port souhaité vers l'IPspace et le domaine de diffusion :

      network port broadcast-domain add-ports -ipspace new-ipspace -broadcast-domain new-broadcast-domain -ports controller-name:new-port

    5. Vérifiez que le rôle du port a changé :

      network port show

    6. Répétez ces sous-étapes pour chaque port.

  3. Déplacer le nœud, les LIFs de cluster management et les LIF intercluster vers le port souhaité :

    1. Modifier le port de base du LIF :

      network interface modify -vserver vserver -lif node_mgmt -home-port port -home-node homenode

    2. Revert la LIF sur son nouveau port de home port :

      network interface revert -lif node_mgmt -vserver vservername

    3. Modifier le port d'accueil de la LIF de gestion de cluster :

      network interface modify -vserver vserver -lif cluster-mgmt-LIF-name -home-port port -home-node homenode

    4. Ne rétablit pas la LIF de cluster management à son nouveau port home port :

      network interface revert -lif cluster-mgmt-LIF-name -vserver vservername

    5. Changer le port de base du LIF intercluster :

      network interface modify -vserver vserver -lif intercluster-lif-name -home-node nodename -home-port port

    6. Revert le LIF intercluster sur son nouveau port de home port :

      network interface revert -lif intercluster-lif-name -vserver vservername

Mise en service du noeud_A_2-IP et du noeud_B_2-IP

Vous devez installer et configurer le nouveau nœud IP MetroCluster sur chaque site, créant ainsi une paire haute disponibilité sur chaque site.

Mise en service du noeud_A_2-IP et du noeud_B_2-IP

Vous devez démarrer les nouveaux modules de contrôleur un par un en utilisant l'option correcte dans le menu de démarrage.

Description de la tâche

Lors de ces étapes, vous démarrez les deux nouveaux nœuds, en étendant ce qui était une configuration à deux nœuds en une configuration à quatre nœuds.

Ces étapes sont réalisées sur les nœuds suivants :

  • Node_A_2-IP

  • Node_B_2-IP

transition 2n amorçage a 2 et b 2
Étapes
  1. Démarrez les nouveaux nœuds à l'aide de l'option d'amorçage « 9c ».

    Please choose one of the following:
    (1) Normal Boot.
    (2) Boot without /etc/rc.
    (3) Change password.
    (4) Clean configuration and initialize all disks.
    (5) Maintenance mode boot.
    (6) Update flash from backup config.
    (7) Install new software first.
    (8) Reboot node.
    (9) Configure Advanced Drive Partitioning. Selection (1-9)? 9c

    Le nœud initialise et démarre sur l'assistant de configuration du nœud, comme suit.

    Welcome to node setup
    You can enter the following commands at any time:
    "help" or "?" - if you want to have a question clarified,
    "back" - if you want to change previously answered questions, and
    "exit" or "quit" - if you want to quit the setup wizard.
    Any changes you made before quitting will be saved.
    To accept a default or omit a question, do not enter a value. .
    .
    .

    Si l'option « 9c » ne fonctionne pas, prenez les mesures suivantes pour éviter toute perte de données :

  2. Activez l'outil AutoSupport en suivant les instructions fournies par l'assistant.

  3. Répondez aux invites pour configurer l'interface de gestion des nœuds.

    Enter the node management interface port: [e0M]:
    Enter the node management interface IP address: 10.228.160.229
    Enter the node management interface netmask: 225.225.252.0
    Enter the node management interface default gateway: 10.228.160.1
  4. Vérifier que le mode de basculement du stockage est défini sur HA :

    storage failover show -fields mode

    Si le mode n'est pas HA, définissez-le :

    storage failover modify -mode ha -node localhost

    Vous devez ensuite redémarrer le nœud pour que la modification prenne effet.

  5. Lister les ports dans le cluster :

    network port show

    Pour connaître la syntaxe complète de la commande, reportez-vous à la page man.

    L'exemple suivant montre les ports réseau en cluster01 :

    cluster01::> network port show
                                                                 Speed (Mbps)
    Node   Port      IPspace      Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- ------------ ---------------- ----- ------- ------------
    cluster01-01
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
           e0e       Default      Default          up     1500   auto/1000
           e0f       Default      Default          up     1500   auto/1000
    cluster01-02
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
           e0e       Default      Default          up     1500   auto/1000
           e0f       Default      Default          up     1500   auto/1000
  6. Quittez l'assistant de configuration des nœuds :

    exit

  7. Connectez-vous au compte admin avec le nom d'utilisateur admin.

  8. Associez le cluster existant à l'aide de l'assistant de configuration du cluster.

    :> cluster setup
    Welcome to the cluster setup wizard.
    You can enter the following commands at any time:
    "help" or "?" - if you want to have a question clarified,
    "back" - if you want to change previously answered questions, and "exit" or "quit" - if you want to quit the cluster setup wizard.
    Any changes you made before quitting will be saved.
    You can return to cluster setup at any time by typing "cluster setup". To accept a default or omit a question, do not enter a value.
    Do you want to create a new cluster or join an existing cluster?
    {create, join}:
    join
  9. Une fois l'assistant de configuration du cluster terminé et qu'il quitte, vérifiez que le cluster est actif et que le nœud fonctionne correctement :

    cluster show

  10. Désactiver l'affectation automatique des disques :

    storage disk option modify -autoassign off -node node_A_2-IP

  11. Si le chiffrement est utilisé, restaurez les clés à l'aide de la commande correcte pour la configuration de la gestion des clés.

    Si vous utilisez…​

    Utilisez cette commande…​

    Gestion intégrée des clés

    security key-manager onboard sync

    Gestion externe des clés

    security key-manager key query -node node-name

  12. Répétez les étapes ci-dessus sur le deuxième nouveau module de contrôleur (node_B_2-IP).

Vérification des paramètres MTU

Vérifiez que les paramètres MTU sont définis correctement pour les ports et le domaine de diffusion et effectuez des modifications.

Étapes
  1. Vérifiez la taille de MTU utilisée dans le domaine de diffusion en cluster :

    network port broadcast-domain show

  2. Si nécessaire, mettez à jour la taille de MTU au besoin :

    network port broadcast-domain modify -broadcast-domain bcast-domain-name -mtu mtu-size

Configuration des LIFs intercluster

Configurer les LIFs intercluster nécessaires au peering de clusters

Cette tâche doit être effectuée sur les deux nouveaux nœuds, Node_A_2-IP et node_B_2-IP.

Étape
  1. Configurer les LIFs intercluster Voir "Configuration des LIFs intercluster"

Vérification du peering de cluster

Vérifiez que cluster_A et cluster_B sont associés et que les nœuds de chaque cluster peuvent communiquer entre eux.

Étapes
  1. Vérifier la relation de peering de cluster :

    cluster peer health show

    cluster01::> cluster peer health show
    Node       cluster-Name                Node-Name
                 Ping-Status               RDB-Health Cluster-Health  Avail…
    ---------- --------------------------- ---------  --------------- --------
    node_A_1-IP
               cluster_B                   node_B_1-IP
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           node_B_2-IP
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
    node_A_2-IP
               cluster_B                   node_B_1-IP
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           node_B_2-IP
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
  2. Ping pour vérifier que les adresses des pairs sont accessibles :

    cluster peer ping -originating-node local-node -destination-cluster remote-cluster-name