Skip to main content
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Préparer les nœuds pour une mise à niveau

Contributeurs

Avant de remplacer les nœuds d'origine, vous devez confirmer qu'ils sont dans une paire haute disponibilité, qu'ils ne disposent pas de disques manquants ou défaillants, qu'ils peuvent accéder aux différents nœuds de stockage et qu'ils ne possèdent pas de LIF de données attribuées aux autres nœuds du cluster. Vous devez également collecter des informations sur les nœuds d'origine et, si le cluster se trouve dans un environnement SAN, confirmer que tous les nœuds du cluster sont au quorum.

Étapes
  1. Vérifiez que chaque nœud d'origine dispose de ressources suffisantes pour prendre en charge de manière adéquate la charge de travail des deux nœuds en mode basculement.

    Reportez-vous à la section "Références" Pour établir un lien vers High Availability Management et suivez la section _Best Practices for HA binômes. Aucun des nœuds d'origine ne doit fonctionner à plus de 50 % d'utilisation. Si un nœud fonctionne à moins de 50 %, il peut gérer les charges des deux nœuds lors de la mise à niveau du contrôleur.

  2. Pour créer une base de performances pour les nœuds d'origine, procédez comme suit :

    1. S'assurer que le compte utilisateur de diagnostic est déverrouillé.

      Important

      Le compte d'utilisateur de diagnostic est uniquement destiné à des fins de diagnostic de bas niveau et ne doit être utilisé qu'avec l'aide du support technique.

      Pour plus d'informations sur le déverrouillage des comptes utilisateur, reportez-vous à la section "Références" Pour établir un lien vers System Administration Reference.

    2. Reportez-vous à la section "Références" Pour établir un lien vers le site de support de NetApp et télécharger le collecteur de performances et de statistiques (Perfstat Converged).

      L'outil Perfstat Converged permet d'établir une base de performance comparée après la mise à niveau.

    3. Créez une base de performances en suivant les instructions disponibles sur le site de support NetApp.

  3. Reportez-vous à la section "Références" Pour accéder au site de support NetApp et ouvrir un dossier de demande de support sur le site de support NetApp.

    Vous pouvez utiliser ce ticket pour signaler les problèmes susceptibles de survenir lors de la mise à niveau.

  4. Vérifiez que les batteries NVMEM ou NVRAM des nœuds 3 et 4 sont chargées et chargez les batteries, le cas échéant.

    Vous devez vérifier physiquement les nœud3 et nœud4 pour vérifier si les batteries NVMEM ou NVRAM sont chargées. Pour plus d'informations sur les LED du modèle des nœuds 3 et 4, voir "Références" Pour accéder au Hardware Universe.

    Avertissement Attention n'essayez pas d'effacer le contenu de la NVRAM. Si vous devez effacer le contenu de NVRAM, contactez le support technique NetApp.
  5. Vérifiez la version de ONTAP sur les nœuds 3 et 4.

    La même version de ONTAP 9.x doit être installée sur les nouveaux nœuds. Si une autre version de ONTAP est installée sur les nouveaux nœuds, vous devez netboot les nouveaux contrôleurs après les avoir installés. Pour obtenir des instructions sur la mise à niveau de ONTAP, reportez-vous à la section "Références" Pour accéder à Upgrade ONTAP.

    Les informations relatives à la version de ONTAP sur le node3 et le node4 doivent être incluses dans les boîtes d'expédition. La version ONTAP est affichée lorsque le nœud démarre ou que vous pouvez démarrer le nœud en mode maintenance et exécuter la commande :

    version

  6. Vérifier si vous avez deux ou quatre LIF de cluster sur les nœuds 1 et nœud2 :

    network interface show -role cluster

    Le système affiche n'importe quelle LIF de cluster, comme indiqué dans l'exemple suivant :

    cluster::> network interface show -role cluster
            Logical    Status     Network          Current  Current Is
    Vserver Interface  Admin/Oper Address/Mask     Node     Port    Home
    ------- ---------- ---------- ---------------- -------- ------- ----
    node1
            clus1      up/up      172.17.177.2/24  node1    e0c     true
            clus2      up/up      172.17.177.6/24  node1    e0e     true
    node2
            clus1      up/up      172.17.177.3/24  node2    e0c     true
            clus2      up/up      172.17.177.7/24  node2    e0e     true
  7. Si vous avez deux ou quatre LIF de cluster sur le nœud 1 ou le nœud 2, veillez à exécuter le Ping des deux LIF de cluster sur tous les chemins disponibles en suivant les sous-étapes suivantes :

    1. Saisissez le niveau de privilège avancé :

      set -privilege advanced

      Le système affiche le message suivant :

      Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel.
      Do you wish to continue? (y or n):
    2. Entrez y.

    3. Envoyez une requête ping aux nœuds et testez la connectivité :

      cluster ping-cluster -node node_name

      Un message similaire à l'exemple suivant s'affiche :

    cluster::*> cluster ping-cluster -node node1
    Host is node1
    Getting addresses from network interface table...
    Local = 10.254.231.102 10.254.91.42
    Remote = 10.254.42.25 10.254.16.228
    Ping status:
    ...
    Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s)
    ................
    Detected 1500 byte MTU on 4 path(s):
    Local 10.254.231.102 to Remote 10.254.16.228
    Local 10.254.231.102 to Remote 10.254.42.25
    Local 10.254.91.42 to Remote 10.254.16.228
    Local 10.254.91.42 to Remote 10.254.42.25
    Larger than PMTU communication succeeds on 4 path(s)
    RPC status:
    2 paths up, 0 paths down (tcp check)
    2 paths up, 0 paths down (udp check)

    +
    Si le nœud utilise deux ports de cluster, vous devez voir qu'il peut communiquer sur quatre chemins, comme indiqué dans l'exemple.

    1. Revenir au privilège de niveau administratif :

      set -privilege admin

  8. Vérifiez que les nœuds 1 et 2 se trouvent dans une paire HA et assurez-vous que les nœuds sont connectés les uns aux autres et que le basculement est possible :

    storage failover show

    L'exemple suivant montre la sortie lorsque les nœuds sont connectés l'un à l'autre et le basculement est possible :

    cluster::> storage failover show
                                  Takeover
    Node           Partner        Possible State Description
    -------------- -------------- -------- -------------------------------
    node1          node2          true     Connected to node2
    node2          node1          true     Connected to node1

    Un nœud ne doit pas faire l'objet d'un retour partiel. L'exemple suivant montre que le nœud 1 est en retour partiel :

    cluster::> storage failover show
                                  Takeover
    Node           Partner        Possible State Description
    -------------- -------------- -------- -------------------------------
    node1          node2          true     Connected to node2, Partial giveback
    node2          node1          true     Connected to node1

    Si l'un des nœuds est en cours de rétablissement partiel, utilisez le storage failover giveback pour effectuer le retour, puis utilisez la commande storage failover show-giveback commande afin de s'assurer qu'aucun agrégat n'a toujours besoin d'être redonné. Pour obtenir des informations détaillées sur les commandes, reportez-vous à "Références" Pour établir un lien vers High Availability Management.

  9. Confirmez que ni le nœud1 ni le nœud2 ne possède les agrégats pour lesquels il s'agit du propriétaire actuel (mais pas le propriétaire du domicile) :

    storage aggregate show -nodes node_name -is-home false -fields owner-name, home-name, state

    Si ni le nœud1 ni le nœud2 ne possède des agrégats pour lesquels il s'agit du propriétaire actuel (mais pas le propriétaire du domicile), le système renvoie un message semblable à l'exemple suivant :

    cluster::> storage aggregate show -node node2 -is-home false -fields owner-name,homename,state
    There are no entries matching your query.

    L'exemple suivant montre la sortie de la commande pour un nœud nommé node2 qui est le propriétaire du home, mais pas le propriétaire actuel, de quatre agrégats :

    cluster::> storage aggregate show -node node2 -is-home false
                   -fields owner-name,home-name,state
    
    aggregate     home-name    owner-name   state
    ------------- ------------ ------------ ------
    aggr1         node1        node2        online
    aggr2         node1        node2        online
    aggr3         node1        node2        online
    aggr4         node1        node2        online
    
    4 entries were displayed.
  10. Effectuer l'une des actions suivantes :

    Si la commande dans Étape 9…​ Alors…​

    Sortie vide

    Ignorez l'étape 11 et passez à Étape 12.

    Sortie

    Accédez à Étape 11.

  11. ] si le nœud1 ou le nœud2 possède des agrégats pour lesquels il s'agit du propriétaire actuel, mais pas du propriétaire de la maison, procédez comme suit :

    1. Renvoyez les agrégats actuellement détenus par le nœud partenaire au nœud propriétaire de rattachement :

      storage failover giveback -ofnode home_node_name

    2. Vérifiez que ni le nœud1 ni le nœud2 ne possède toujours des agrégats pour lesquels il s'agit du propriétaire actuel (mais pas le propriétaire du domicile) :

      storage aggregate show -nodes node_name -is-home false -fields owner-name, home-name, state

      L'exemple suivant montre la sortie de la commande lorsqu'un nœud est à la fois le propriétaire actuel et le propriétaire du domicile des agrégats :

    cluster::> storage aggregate show -nodes node1
              -is-home true -fields owner-name,home-name,state
    
    aggregate     home-name    owner-name   state
    ------------- ------------ ------------ ------
    aggr1         node1        node1        online
    aggr2         node1        node1        online
    aggr3         node1        node1        online
    aggr4         node1        node1        online
    
    4 entries were displayed.
  12. Confirmez que les nœuds 1 et 2 peuvent accéder l'un à l'autre au stockage et vérifiez qu'aucun disque n'est manquant :

    storage failover show -fields local-missing-disks,partner-missing-disks

    L'exemple suivant montre la sortie lorsqu'aucun disque n'est manquant :

    cluster::> storage failover show -fields local-missing-disks,partner-missing-disks
    
    node     local-missing-disks partner-missing-disks
    -------- ------------------- ---------------------
    node1    None                None
    node2    None                None

    Si des disques sont manquants, reportez-vous à la section "Références" Pour lier la gestion des disques et des agrégats à la CLI, gestion du stockage logique avec CLI et High Availability management afin de configurer le stockage pour la paire HA.

  13. Confirmer que les nœuds 1 et 2 sont en bonne santé et admissibles à participer au groupe :

    cluster show

    L'exemple suivant montre la sortie lorsque les deux nœuds sont éligibles et fonctionnent correctement :

    cluster::> cluster show
    
    Node                  Health  Eligibility
    --------------------- ------- ------------
    node1                 true    true
    node2                 true    true
  14. Définissez le niveau de privilège sur avancé :

    set -privilege advanced

  15. Confirmez que le nœud1 et le nœud2 exécutent la même version de ONTAP :

    system node image show -node node1,node2 -iscurrent true

    L'exemple suivant montre la sortie de la commande :

    cluster::*> system node image show -node node1,node2 -iscurrent true
    
                     Is      Is                Install
    Node     Image   Default Current Version   Date
    -------- ------- ------- ------- --------- -------------------
    node1
             image1  true    true    9.1         2/7/2017 20:22:06
    node2
             image1  true    true    9.1         2/7/2017 20:20:48
    
    2 entries were displayed.
  16. Vérifiez que le nœud 1 ou le nœud 2 ne possède aucune LIF de données appartenant à d'autres nœuds du cluster et que celui-ci est vérifié Current Node et Is Home colonnes dans la sortie :

    network interface show -role data -is-home false -curr-node node_name

    L'exemple suivant montre la sortie lorsque le nœud 1 n'a pas de LIFs appartenant à d'autres nœuds du cluster :

    cluster::> network interface show -role data -is-home false -curr-node node1
     There are no entries matching your query.

    L'exemple suivant montre la sortie lorsque le nœud 1 possède des LIFs de données détenues en privé par l'autre nœud :

    cluster::> network interface show -role data -is-home false -curr-node node1
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    vs0
                data1      up/up      172.18.103.137/24  node1         e0d     false
                data2      up/up      172.18.103.143/24  node1         e0f     false
    
    2 entries were displayed.
  17. Si la sortie est entrée Étape 15 Indique que le nœud 1 ou le nœud 2 possède des LIF de données détenues par d'autres nœuds du cluster, afin de migrer les LIF de données hors du nœud 1 ou du nœud 2 :

    network interface revert -vserver * -lif *

    Pour des informations détaillées sur le network interface revert commande, voir "Références" Pour lier les commandes ONTAP 9 : Manuel page Reference.

  18. Vérifier si le nœud 1 ou le nœud 2 possède des disques défectueux :

    storage disk show -nodelist node1,node2 -broken

    Si l'un des disques est défectueux, supprimez-les en suivant les instructions de la section Disk and Aggregate management à l'aide de la CLI. (Voir "Références" Pour établir un lien vers Disk et la gestion de l'agrégat avec l'interface de ligne de commande.)

  19. Collectez des informations sur node1 et node2 en effectuant les sous-étapes suivantes et en enregistrant la sortie de chaque commande :

    Remarque
    • Vous utiliserez ces informations plus tard dans la procédure.

    • Si vous possédez un système doté de plus de deux ports de cluster par nœud, par exemple un système FAS8080 ou AFF8080, avant de démarrer la mise à niveau, vous devez migrer et ré-home les LIF de cluster sur deux ports de cluster par nœud. Si vous effectuez la mise à niveau du contrôleur avec plus de deux ports de cluster par nœud, des LIF de cluster risquent d'être manquantes sur le nouveau contrôleur après la mise à niveau.

    1. Enregistrez le modèle, l'ID du système et le numéro de série des deux nœuds :

      system node show -node node1,node2 -instance

      Remarque Vous utiliserez les informations pour réaffecter des disques et désaffecter les nœuds d'origine.
    2. Entrez la commande suivante sur les nœuds 1 et 2, et notez les informations sur les tiroirs, le nombre de disques de chaque tiroir, les détails du stockage Flash, la mémoire, la mémoire NVRAM et les cartes réseau depuis la sortie :

      run -node node_name sysconfig

      Remarque Vous pouvez utiliser ces informations pour identifier des pièces ou des accessoires que vous souhaitez transférer vers node3 ou node4. Si vous ne savez pas si les nœuds sont des systèmes V-Series ou si vous disposez du logiciel de virtualisation FlexArray, vous pouvez également l'apprendre de la sortie.
    3. Entrez la commande suivante sur les nœuds 1 et 2, puis enregistrez les agrégats en ligne sur les deux nœuds :

      storage aggregate show -node node_name -state online

      Remarque Vous pouvez utiliser ces informations ainsi que les informations de la sous-étape suivante pour vérifier que les agrégats et les volumes restent en ligne tout au long de la procédure, à l'exception de la brève période pendant laquelle ils sont hors ligne pendant le transfert.
    4. Entrez la commande suivante sur les nœuds 1 et 2 et enregistrez les volumes hors ligne sur les deux nœuds :

      volume show -node node_name -state offline

    Remarque Après la mise à niveau, vous exécuteront de nouveau la commande et comparerez la sortie avec la sortie de cette étape pour voir si d'autres volumes se sont déconnectés.
  20. Entrez les commandes suivantes pour vérifier si des groupes d'interfaces ou des VLAN sont configurés sur le nœud 1 ou le nœud 2 :

    network port ifgrp show

    network port vlan show

    Notez que les groupes d'interface ou les VLAN sont configurés sur le node1 ou le node2 ; vous avez besoin de ces informations à l'étape suivante et ultérieurement de la procédure.

  21. Pour vérifier que les ports physiques peuvent être correctement mappés ultérieurement au cours de la procédure, procédez comme suit sur les sous-étapes suivantes du node1 et du node2 :

    1. Entrez la commande suivante pour vérifier la présence de groupes de basculement sur le nœud autre que clusterwide:

      network interface failover-groups show

      Les Failover Groups regroupent les ensembles de ports réseau présents sur le système. Étant donné que la mise à niveau du matériel du contrôleur peut modifier l'emplacement des ports physiques, les groupes de basculement peuvent être modifiés par inadvertance au cours de la mise à niveau.

      Le système affiche les groupes de basculement sur le nœud, comme illustré dans l'exemple suivant :

      cluster::> network interface failover-groups show
      
      Vserver             Group             Targets
      ------------------- ----------------- ----------
      Cluster             Cluster           node1:e0a, node1:e0b
                                            node2:e0a, node2:e0b
      
      fg_6210_e0c         Default           node1:e0c, node1:e0d
                                            node1:e0e, node2:e0c
                                            node2:e0d, node2:e0e
      
      2 entries were displayed.
    2. Si des groupes de basculement sont présents, ils sont différents de clusterwide, enregistrez les noms des groupes de basculement et les ports appartenant aux groupes de basculement.

    3. Entrez la commande suivante pour vérifier s'il existe des VLAN configurés sur le nœud :

      network port vlan show -node node_name

      Les VLAN sont configurés sur des ports physiques. Si les ports physiques changent, les VLAN devront être recrétés ultérieurement dans la procédure.

      Le système affiche les VLAN configurés sur le nœud, comme illustré dans l'exemple suivant :

    cluster::> network port vlan show
    
    Network Network
    Node    VLAN Name Port    VLAN ID MAC Address
    ------  --------- ------- ------- ------------------
    node1   e1b-70    e1b     70      00:15:17:76:7b:69
    1. Si des VLAN sont configurés sur le nœud, notez le couplage de chaque port réseau et de l'ID VLAN.

  22. Effectuer l'une des actions suivantes :

    Si les groupes d'interfaces ou LES VLAN sont…​ Alors…​

    Sur le nœud 1 ou le nœud 2

    Terminé Étape 23 et Étape 24.

    Pas sur le nœud1 ou le nœud2

    Accédez à Étape 24.

  23. si vous ne savez pas si le nœud1 et le nœud2 se trouvent dans un environnement SAN ou non-SAN, entrez la commande suivante et examinez sa sortie :

    network interface show -vserver vserver_name -data-protocol iscsi|fcp

    Si ni iSCSI ni FC n'est configuré pour le SVM, la commande affiche un message similaire à l'exemple suivant :

    cluster::> network interface show -vserver Vserver8970 -data-protocol iscsi|fcp
    There are no entries matching your query.

    Vous pouvez vérifier que le nœud se trouve dans un environnement NAS à l'aide de network interface show commande avec -data-protocol nfs|cifs paramètres.

    Si iSCSI ou FC est configuré pour le SVM, la commande affiche un message similaire à l'exemple suivant :

    cluster::> network interface show -vserver vs1 -data-protocol iscsi|fcp
    
             Logical    Status     Network            Current  Current Is
    Vserver  Interface  Admin/Oper Address/Mask       Node     Port    Home
    -------- ---------- ---------- ------------------ -------- ------- ----
    vs1      vs1_lif1   up/down    172.17.176.20/24   node1    0d      true
  24. Vérifiez que tous les nœuds du cluster sont au quorum en effectuant les sous-étapes suivantes :

    1. Saisissez le niveau de privilège avancé :

      set -privilege advanced

      Le système affiche le message suivant :

      Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel.
      Do you wish to continue? (y or n):
    2. Entrez y.

    3. Vérifiez l'état du service du cluster dans le noyau, une fois pour chaque nœud :

      cluster kernel-service show

      Un message similaire à l'exemple suivant s'affiche :

    cluster::*> cluster kernel-service show
    
    Master        Cluster       Quorum        Availability  Operational
    Node          Node          Status        Status        Status
    ------------- ------------- ------------- ------------- -------------
    node1         node1         in-quorum     true          operational
                  node2         in-quorum     true          operational
    
    2 entries were displayed.

    +
    Les nœuds d'un cluster sont dans le quorum lorsqu'une simple majorité de nœuds sont en bon état et peuvent communiquer entre eux. Pour plus d'informations, reportez-vous à la section "Références" Pour établir un lien vers System Administration Reference.

    1. Revenir au niveau de privilège administratif :

      set -privilege admin

  25. Effectuer l'une des actions suivantes :

    Si le cluster…​ Alors…​

    A configuré SAN

    Accédez à Étape 26.

    Aucun SAN n'est configuré

    Accédez à Étape 29.

  26. vérifier la présence de LIF SAN sur le nœud1 et le nœud2 pour chaque SVM dont le service SAN iSCSI ou FC est activé en entrant la commande suivante et en examinant sa sortie :

    network interface show -data-protocol iscsi|fcp -home-node node_name

    La commande affiche les informations San LIF pour les nœuds 1 et 2. Les exemples suivants présentent l'état dans la colonne Status Admin/Oper en tant que up/up, indiquant que le service SAN iSCSI et FC sont activés :

    cluster::> network interface show -data-protocol iscsi|fcp
                Logical    Status     Network                  Current   Current Is
    Vserver     Interface  Admin/Oper Address/Mask             Node      Port    Home
    ----------- ---------- ---------- ------------------       --------- ------- ----
    a_vs_iscsi  data1      up/up      10.228.32.190/21         node1     e0a     true
                data2      up/up      10.228.32.192/21         node2     e0a     true
    
    b_vs_fcp    data1      up/up      20:09:00:a0:98:19:9f:b0  node1     0c      true
                data2      up/up      20:0a:00:a0:98:19:9f:b0  node2     0c      true
    
    c_vs_iscsi_fcp data1   up/up      20:0d:00:a0:98:19:9f:b0  node2     0c      true
                data2      up/up      20:0e:00:a0:98:19:9f:b0  node2     0c      true
                data3      up/up      10.228.34.190/21         node2     e0b     true
                data4      up/up      10.228.34.192/21         node2     e0b     true

    Vous pouvez également afficher des informations plus détaillées sur les LIF en entrant la commande suivante :

    network interface show -instance -data-protocol iscsi|fcp

  27. Capturer la configuration par défaut de n'importe quel port FC sur les nœuds d'origine en saisissant la commande suivante et en enregistrant la sortie de vos systèmes :

    ucadmin show

    La commande affiche des informations concernant tous les ports FC du cluster, comme illustré dans l'exemple suivant :

    cluster::> ucadmin show
    
                    Current Current   Pending Pending   Admin
    Node    Adapter Mode    Type      Mode    Type      Status
    ------- ------- ------- --------- ------- --------- -----------
    node1   0a      fc      initiator -       -         online
    node1   0b      fc      initiator -       -         online
    node1   0c      fc      initiator -       -         online
    node1   0d      fc      initiator -       -         online
    node2   0a      fc      initiator -       -         online
    node2   0b      fc      initiator -       -         online
    node2   0c      fc      initiator -       -         online
    node2   0d      fc      initiator -       -         online
    8 entries were displayed.

    Vous pouvez utiliser les informations après la mise à niveau pour définir la configuration des ports FC sur les nouveaux nœuds.

  28. Si vous mettez à niveau un système V-Series ou un système avec le logiciel de virtualisation FlexArray, capturez les informations relatives à la topologie des nœuds d'origine en entrant la commande suivante et en enregistrant le résultat :

    storage array config show -switch

    Le système affiche les informations relatives à la topologie, comme le montre l'exemple suivant :

    cluster::> storage array config show -switch
    
          LUN LUN                                  Target Side Initiator Side Initi-
    Node  Grp Cnt Array Name    Array Target Port  Switch Port Switch Port    ator
    ----- --- --- ------------- ------------------ ----------- -------------- ------
    node1 0   50  I_1818FAStT_1
                                205700a0b84772da   vgbr6510a:5  vgbr6510s164:3  0d
                                206700a0b84772da   vgbr6510a:6  vgbr6510s164:4  2b
                                207600a0b84772da   vgbr6510b:6  vgbr6510s163:1  0c
    node2 0   50  I_1818FAStT_1
                                205700a0b84772da   vgbr6510a:5  vgbr6510s164:1  0d
                                206700a0b84772da   vgbr6510a:6  vgbr6510s164:2  2b
                                207600a0b84772da   vgbr6510b:6  vgbr6510s163:3  0c
                                208600a0b84772da   vgbr6510b:5  vgbr6510s163:4  2a
    7 entries were displayed.
  29. effectuez les sous-étapes suivantes :

    1. Entrez la commande suivante sur l'un des nœuds d'origine et enregistrez le résultat :

      service-processor show -node * -instance

    Le système affiche des informations détaillées sur le processeur de service sur les deux nœuds.

    1. Vérifiez que le statut du processeur de service est online.

    2. Vérifiez que le réseau du processeur de service est configuré.

    3. Enregistrez l'adresse IP et d'autres informations sur le processeur de service.

      Vous pouvez réutiliser les paramètres réseau des périphériques de gestion à distance, dans ce cas les SP, du système d'origine pour les SP sur les nouveaux nœuds. Pour plus d'informations sur le processeur de service, reportez-vous à "Références" Pour établir un lien vers les System Administration Reference et les ONTAP 9 Commands: Manual page Reference.

  30. si vous souhaitez que les nouveaux nœuds disposent de la même fonctionnalité sous licence que les nœuds d'origine, entrez la commande suivante pour afficher les licences de cluster sur le système d'origine :

    system license show -owner *

    L'exemple suivant montre les licences de site pour cluster1 :

    system license show -owner *
    Serial Number: 1-80-000013
    Owner: cluster1
    
    Package           Type    Description           Expiration
    ----------------- ------- --------------------- -----------
    Base              site    Cluster Base License  -
    NFS               site    NFS License           -
    CIFS              site    CIFS License          -
    SnapMirror        site    SnapMirror License    -
    FlexClone         site    FlexClone License     -
    SnapVault         site    SnapVault License     -
    6 entries were displayed.
  31. Obtenir de nouvelles clés de licence pour les nouveaux nœuds sur le site NetApp support site. Reportez-vous à la section "Références" Lien vers site de support NetApp.

    Si le site ne dispose pas des clés de licence dont vous avez besoin, contactez votre ingénieur commercial NetApp.

  32. Vérifiez si AutoSupport est activé sur le système d'origine en entrant la commande suivante sur chaque nœud et en examinant son résultat :

    system node autosupport show -node node1,node2

    Le résultat de la commande indique si le protocole AutoSupport est activé, comme illustré dans l'exemple suivant :

    cluster::> system node autosupport show -node node1,node2
    
    Node             State     From          To                Mail Hosts
    ---------------- --------- ------------- ----------------  ----------
    node1            enable    Postmaster    admin@netapp.com  mailhost
    
    node2            enable    Postmaster    -                 mailhost
    2 entries were displayed.
  33. Effectuer l'une des actions suivantes :

    Si le système d'origine…​ Alors…​

    A activé AutoSupport…​

    Accédez à Étape 34.

    AutoSupport n'est pas activé…​

    Activez AutoSupport en suivant les instructions de la System Administration Reference. (Voir "Références" Pour établir un lien vers System Administration Reference.)

    Remarque : AutoSupport est activé par défaut lorsque vous configurez votre système de stockage pour la première fois. Bien que vous puissiez désactiver AutoSupport à tout moment, vous devez le laisser activé. L'activation d'AutoSupport peut considérablement aider à identifier les problèmes et les solutions qui pourraient survenir sur votre système de stockage.

  34. Vérifiez que AutoSupport est configuré avec les informations de l'hôte de courrier et les ID de courrier électronique de destinataire en entrant la commande suivante sur les deux nœuds d'origine et en examinant la sortie :

    system node autosupport show -node node_name -instance

    Pour plus d'informations sur AutoSupport, reportez-vous à "Références" Pour établir un lien vers les System Administration Reference et les ONTAP 9 Commands: Manual page Reference.

  35. Envoyer un message AutoSupport à NetApp pour le nœud 1 en entrant la commande suivante :

    system node autosupport invoke -node node1 -type all -message "Upgrading node1 from platform_old to platform_new"

    Remarque N'envoyez pas de message AutoSupport à NetApp pour le noeud 2 à ce stade ; vous le faites plus tard dans la procédure.
  36. Vérifiez que le message AutoSupport a été envoyé en entrant la commande suivante et en examinant sa sortie :

    system node autosupport show -node node1 -instance

    Les champs Last Subject Sent: et Last Time Sent: contient le titre du message du dernier message envoyé et l'heure à laquelle le message a été envoyé.

  37. Si votre système utilise des lecteurs auto-cryptés, consultez l'article de la base de connaissances "Comment savoir si un disque est certifié FIPS" Pour déterminer le type de disques à autocryptage utilisés sur la paire haute disponibilité que vous mettez à niveau. Le logiciel ONTAP prend en charge deux types de disques avec autocryptage :

    • Disques SAS ou NVMe NetApp Storage Encryption (NSE) certifiés FIPS

    • Disques NVMe non-FIPS à autochiffrement (SED)

    Remarque

    Vous ne pouvez pas combiner des disques FIPS avec d'autres types de disques sur le même nœud ou la même paire HA.

    Vous pouvez utiliser les disques SED avec des disques sans cryptage sur le même nœud ou une paire haute disponibilité.