Skip to main content
Se proporciona el idioma español mediante traducción automática para su comodidad. En caso de alguna inconsistencia, el inglés precede al español.

Prepare los nodos para la actualización

Colaboradores

Antes de poder sustituir los nodos originales, debe confirmar que están en un par de alta disponibilidad, que no faltan discos o que han fallado, que pueden acceder al almacenamiento de otros y que no tienen LIF de datos asignadas a los otros nodos del clúster. También debe recopilar información acerca de los nodos originales y, si el clúster se encuentra en un entorno SAN, confirmar que todos los nodos del clúster están en quórum.

Pasos
  1. Confirme que cada uno de los nodos originales tiene suficientes recursos para admitir adecuadamente la carga de trabajo de ambos nodos durante el modo de toma de control.

    Consulte "Referencias"el enlace HA PARK MANAGEMENT y siga la sección Best practices for HA PARES. Ninguno de los nodos originales debe estar funcionando con una utilización superior al 50 %; si el nodo se está ejecutando con una utilización inferior al 50 %, puede manejar las cargas de ambos nodos durante la actualización de la controladora.

  2. Complete los siguientes subpasos para crear una base de rendimiento para los nodos originales:

    1. Asegúrese de que la cuenta de usuario de diagnóstico está desbloqueada.

      Importante

      La cuenta de usuario de diagnóstico está diseñada únicamente para fines de diagnóstico de bajo nivel y sólo se debe utilizar con la orientación del soporte técnico.

      Para obtener información acerca de cómo desbloquear las cuentas de usuario, consulte "Referencias" Para vincular a System Administration Reference.

    2. Consulte "Referencias" Para establecer un enlace al sitio de soporte de NetApp y descargar el recopilador de rendimiento y estadísticas (Perfstat Converged).

      La herramienta convergente Perfstat le permite establecer una base de rendimiento para realizar la comparación después de la actualización.

    3. Cree una línea de rendimiento de base, siguiendo las instrucciones que se encuentran en el sitio de soporte de NetApp.

  3. Consulte "Referencias" Para enlazar con el sitio de soporte de NetApp y abrir un caso de soporte en el sitio de soporte de NetApp.

    Puede utilizar este caso para informar de los problemas que puedan surgir durante la actualización.

  4. Verifique que se carguen las baterías de NVMEM o NVRAM de nodo 3 y nodo 4 y carguen si no lo son.

    Debe comprobar físicamente los nodos 3 y 4 para ver si se cargan las baterías de NVMEM o NVRAM. Para obtener información sobre los LED del modelo de nodo 3 y nodo 4, consulte "Referencias" Para enlazar con Hardware Universe.

    Advertencia Atención no intente borrar el contenido de la NVRAM. Si necesita borrar el contenido de NVRAM, póngase en contacto con el soporte técnico de NetApp.
  5. Comprobar la versión de ONTAP en los nodos 3 y 4.

    Los nodos nuevos deben tener la misma versión de ONTAP 9.x instalada en ellos que se haya instalado en los nodos originales. Si los nodos nuevos tienen otra versión de ONTAP instalada, debe reiniciar las controladoras nuevas después de instalarlas. Para obtener instrucciones sobre cómo actualizar ONTAP, consulte "Referencias" Para enlazar a Upgrade ONTAP.

    En las cajas de envío, se debe incluir información sobre la versión de ONTAP en los nodos 3 y 4. La versión de ONTAP se muestra cuando el nodo arranca o puede arrancar el nodo en modo de mantenimiento y ejecutar el comando:

    version

  6. Compruebe si tiene dos o cuatro LIF de clúster en los nodos 1 y 2:

    network interface show -role cluster

    El sistema muestra cualquier LIF del clúster, como se muestra en el ejemplo siguiente:

    cluster::> network interface show -role cluster
            Logical    Status     Network          Current  Current Is
    Vserver Interface  Admin/Oper Address/Mask     Node     Port    Home
    ------- ---------- ---------- ---------------- -------- ------- ----
    node1
            clus1      up/up      172.17.177.2/24  node1    e0c     true
            clus2      up/up      172.17.177.6/24  node1    e0e     true
    node2
            clus1      up/up      172.17.177.3/24  node2    e0c     true
            clus2      up/up      172.17.177.7/24  node2    e0e     true
  7. Si tiene dos o cuatro LIF de clúster en los nodos 1 o 2, asegúrese de poder hacer el ping de ambos LIF de clúster en todas las rutas disponibles completando los siguientes subpasos:

    1. Introduzca el nivel de privilegio avanzado:

      set -privilege advanced

      El sistema muestra el siguiente mensaje:

      Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel.
      Do you wish to continue? (y or n):
    2. Introduzca y.

    3. Haga ping en los nodos y pruebe la conectividad:

      cluster ping-cluster -node node_name

      El sistema muestra un mensaje similar al siguiente ejemplo:

    cluster::*> cluster ping-cluster -node node1
    Host is node1
    Getting addresses from network interface table...
    Local = 10.254.231.102 10.254.91.42
    Remote = 10.254.42.25 10.254.16.228
    Ping status:
    ...
    Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s)
    ................
    Detected 1500 byte MTU on 4 path(s):
    Local 10.254.231.102 to Remote 10.254.16.228
    Local 10.254.231.102 to Remote 10.254.42.25
    Local 10.254.91.42 to Remote 10.254.16.228
    Local 10.254.91.42 to Remote 10.254.42.25
    Larger than PMTU communication succeeds on 4 path(s)
    RPC status:
    2 paths up, 0 paths down (tcp check)
    2 paths up, 0 paths down (udp check)

    +
    Si el nodo utiliza dos puertos de clúster, debe ver que puede comunicarse en cuatro rutas, como se muestra en el ejemplo.

    1. Devolver al privilegio de nivel administrativo:

      set -privilege admin

  8. Confirme que los nodos 1 y 2 están en un par de alta disponibilidad y compruebe que los nodos están conectados entre sí y que la toma de control es posible:

    storage failover show

    En el siguiente ejemplo, se muestra el resultado cuando los nodos están conectados entre sí y es posible la toma de control:

    cluster::> storage failover show
                                  Takeover
    Node           Partner        Possible State Description
    -------------- -------------- -------- -------------------------------
    node1          node2          true     Connected to node2
    node2          node1          true     Connected to node1

    Ninguno de los nodos debe estar en una devolución parcial. El siguiente ejemplo muestra que el nodo 1 está en una devolución parcial:

    cluster::> storage failover show
                                  Takeover
    Node           Partner        Possible State Description
    -------------- -------------- -------- -------------------------------
    node1          node2          true     Connected to node2, Partial giveback
    node2          node1          true     Connected to node1

    Si alguno de los nodos está en retorno parcial, utilice storage failover giveback el comando para realizar el retorno al nodo primario y, a continuación, utilice storage failover show-giveback el comando para asegurarse de que aún no es necesario devolver agregados. Para obtener información detallada sobre los comandos, consulte "Referencias"el enlace a HA pair management.

  9. confirme que ni el nodo 1 ni el nodo 2 poseen los agregados para los que es el propietario actual (pero no el propietario del hogar):

    storage aggregate show -nodes node_name -is-home false -fields owner-name, home-name, state

    Si ni el nodo 1 ni el nodo 2 tienen agregados cuyos propietarios son actuales (pero no el propietario del hogar), el sistema devolverá un mensaje similar al siguiente ejemplo:

    cluster::> storage aggregate show -node node2 -is-home false -fields owner-name,homename,state
    There are no entries matching your query.

    En el siguiente ejemplo, se muestra el resultado del comando para un nodo con el nombre 2, que es el propietario raíz, pero no el propietario actual, de cuatro agregados:

    cluster::> storage aggregate show -node node2 -is-home false
                   -fields owner-name,home-name,state
    
    aggregate     home-name    owner-name   state
    ------------- ------------ ------------ ------
    aggr1         node1        node2        online
    aggr2         node1        node2        online
    aggr3         node1        node2        online
    aggr4         node1        node2        online
    
    4 entries were displayed.
  10. Realice una de las siguientes acciones:

    Si el comando de Paso 9…​ Realice lo siguiente…​

    Tenía salida en blanco

    Vaya al paso 11 y vaya a. Paso 12.

    Tenía salida

    Vaya a. Paso 11.

  11. Si el nodo 1 o el nodo 2 tienen agregados cuyos propietarios son actuales, pero no el propietario raíz, complete los siguientes subpasos:

    1. Devolver los agregados que actualmente pertenecen al nodo asociado al nodo propietario principal:

      storage failover giveback -ofnode home_node_name

    2. Compruebe que ni el nodo 1 ni el nodo 2 siguen teniendo agregados cuyos propietarios son actualmente (pero no el propietario del hogar):

      storage aggregate show -nodes node_name -is-home false -fields owner-name, home-name, state

      En el ejemplo siguiente se muestra el resultado del comando cuando un nodo es al mismo tiempo el propietario actual y el propietario principal de los agregados:

    cluster::> storage aggregate show -nodes node1
              -is-home true -fields owner-name,home-name,state
    
    aggregate     home-name    owner-name   state
    ------------- ------------ ------------ ------
    aggr1         node1        node1        online
    aggr2         node1        node1        online
    aggr3         node1        node1        online
    aggr4         node1        node1        online
    
    4 entries were displayed.
  12. confirmar que los nodos 1 y 2 pueden acceder entre sí al almacenamiento y comprobar que no faltan discos:

    storage failover show -fields local-missing-disks,partner-missing-disks

    El ejemplo siguiente muestra el resultado cuando no hay discos:

    cluster::> storage failover show -fields local-missing-disks,partner-missing-disks
    
    node     local-missing-disks partner-missing-disks
    -------- ------------------- ---------------------
    node1    None                None
    node2    None                None

    Si falta algún disco, consulte "Referencias"el enlace a Disk and Aggregate management con CLI, Logical storage management con CLI y HA pair management para configurar el almacenamiento para la pareja de alta disponibilidad.

  13. Confirmar que los nodos 1 y 2 están en buen estado y que pueden participar en el clúster:

    cluster show

    En el siguiente ejemplo se muestra el resultado cuando ambos nodos son elegibles y están en buen estado:

    cluster::> cluster show
    
    Node                  Health  Eligibility
    --------------------- ------- ------------
    node1                 true    true
    node2                 true    true
  14. Configure el nivel de privilegio en Advanced:

    set -privilege advanced

  15. ] confirme que los nodos 1 y 2 ejecutan la misma versión de ONTAP:

    system node image show -node node1,node2 -iscurrent true

    En el siguiente ejemplo se muestra el resultado del comando:

    cluster::*> system node image show -node node1,node2 -iscurrent true
    
                     Is      Is                Install
    Node     Image   Default Current Version   Date
    -------- ------- ------- ------- --------- -------------------
    node1
             image1  true    true    9.1         2/7/2017 20:22:06
    node2
             image1  true    true    9.1         2/7/2017 20:20:48
    
    2 entries were displayed.
  16. Compruebe que ni el nodo 1 ni el nodo 2 tienen a sus LIF de datos que pertenecen a otros nodos del clúster y compruebe el Current Node y.. Is Home columnas de la salida:

    network interface show -role data -is-home false -curr-node node_name

    El ejemplo siguiente muestra el resultado cuando el nodo 1 no tiene ninguna LIF propietaria de otros nodos del clúster:

    cluster::> network interface show -role data -is-home false -curr-node node1
     There are no entries matching your query.

    En el ejemplo siguiente se muestra el resultado cuando el nodo 1 tiene las LIF de datos propias del otro nodo:

    cluster::> network interface show -role data -is-home false -curr-node node1
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    vs0
                data1      up/up      172.18.103.137/24  node1         e0d     false
                data2      up/up      172.18.103.143/24  node1         e0f     false
    
    2 entries were displayed.
  17. Si la salida en Paso 15 Muestra que los nodos 1 o 2 tienen a su propio propietario cualquier LIF de datos que otros nodos del clúster, migre las LIF de datos del nodo 1 o del nodo 2:

    network interface revert -vserver * -lif *

    Para obtener información detallada acerca de network interface revert consulte "Referencias" Para enlazar a los comandos ONTAP 9: Manual Page Reference.

  18. Compruebe si el nodo 1 o el nodo 2 tienen algún disco con errores:

    storage disk show -nodelist node1,node2 -broken

    Si alguno de los discos ha fallado, extráigalos siguiendo las instrucciones de la gestión de Disk y aggregate con la CLI. (Consulte "Referencias" Para enlazar con Disk y aggregate Management con la CLI).

  19. Recopile información acerca de los nodos 1 y 2 completando los siguientes subpasos y grabando la salida de cada comando:

    Nota Utilizará esta información más adelante en el procedimiento.
    1. Registre el modelo, el ID de sistema y el número de serie de ambos nodos:

      system node show -node node1,node2 -instance

      Nota Utilizará la información para reasignar discos y retirar los nodos originales.
    2. Escriba el siguiente comando en los nodos 1 y 2, y registre información sobre las bandejas, el número de discos de cada bandeja, los detalles del almacenamiento flash, la memoria, la NVRAM y las tarjetas de red de los resultados:

      run -node node_name sysconfig

      Nota Es posible usar la información para identificar las piezas o accesorios que se pueden transferir al nodo 3 o al nodo 4. Si no sabe si los nodos son sistemas V-Series o tienen software de virtualización FlexArray, puede obtener información de la salida.
    3. Escriba el siguiente comando en el nodo 1 y en el nodo 2, y registre los agregados que están en línea en ambos nodos:

      storage aggregate show -node node_name -state online

      Nota Puede utilizar esta información y la información del siguiente subpaso para comprobar que los agregados y volúmenes permanecen en línea durante el procedimiento, excepto durante el breve período en el que se encuentran sin conexión durante la reubicación.
    4. Introduzca el siguiente comando en los nodos 1 y 2 y registre los volúmenes que están sin conexión en ambos nodos:

      volume show -node node_name -state offline

    Nota Después de la actualización, se volverá a ejecutar el comando y se comparará el resultado con el resultado de este paso para ver si otros volúmenes se han desconectado.
  20. Introduzca los siguientes comandos para ver si hay grupos de interfaces o VLAN configurados en el nodo 1 o el nodo 2:

    network port ifgrp show

    network port vlan show

    Tenga en cuenta si los grupos de interfaces o las VLAN están configurados en el nodo 1 o el nodo 2, necesita esa información en el siguiente paso y, más adelante, en el procedimiento.

  21. Complete los siguientes subpasos en el nodo 1 y en el nodo 2 para confirmar que los puertos físicos se pueden asignar correctamente más adelante en el procedimiento:

    1. Introduzca el siguiente comando para ver si hay grupos de conmutación al nodo de respaldo en el nodo distinto de clusterwide:

      network interface failover-groups show

      Los grupos de recuperación tras fallos son conjuntos de puertos de red presentes en el sistema. Como al actualizar el hardware de la controladora puede cambiar la ubicación de los puertos físicos, los grupos de conmutación por error pueden cambiarse inadvertidamente durante la actualización.

      El sistema muestra los grupos de conmutación por error en el nodo, como se muestra en el ejemplo siguiente:

      cluster::> network interface failover-groups show
      
      Vserver             Group             Targets
      ------------------- ----------------- ----------
      Cluster             Cluster           node1:e0a, node1:e0b
                                            node2:e0a, node2:e0b
      
      fg_6210_e0c         Default           node1:e0c, node1:e0d
                                            node1:e0e, node2:e0c
                                            node2:e0d, node2:e0e
      
      2 entries were displayed.
    2. Si hay grupos de conmutación por error presentes diferentes de clusterwide, registre los nombres de los grupos de conmutación por error y los puertos que pertenecen a los grupos de conmutación por error.

    3. Introduzca el siguiente comando para ver si hay alguna VLAN configurada en el nodo:

      network port vlan show -node node_name

      Las VLAN se configuran mediante puertos físicos. Si cambian los puertos físicos, deberán volver a crear las VLAN más adelante en este procedimiento.

      El sistema muestra las VLAN que se han configurado en el nodo, como se muestra en el ejemplo siguiente:

    cluster::> network port vlan show
    
    Network Network
    Node    VLAN Name Port    VLAN ID MAC Address
    ------  --------- ------- ------- ------------------
    node1   e1b-70    e1b     70      00:15:17:76:7b:69
    1. Si hay VLAN configuradas en el nodo, anote cada emparejamiento de puertos de red e ID de VLAN.

  22. Realice una de las siguientes acciones:

    Si los grupos de interfaces o VLAN son…​ Realice lo siguiente…​

    En los nodos 1 o 2

    Completo Paso 23 y.. Paso 24.

    No en el nodo 1 o el nodo 2

    Vaya a. Paso 24.

  23. Si no sabe si el nodo 1 y el nodo 2 están en un entorno SAN o no SAN, introduzca el siguiente comando y examine su salida:

    network interface show -vserver vserver_name -data-protocol iscsi|fcp

    Si no hay ningún iSCSI ni FC configurado para la SVM, el comando mostrará un mensaje similar al siguiente ejemplo:

    cluster::> network interface show -vserver Vserver8970 -data-protocol iscsi|fcp
    There are no entries matching your query.

    Puede confirmar que el nodo está en un entorno NAS mediante el network interface show con el -data-protocol nfs|cifs parámetros.

    Si iSCSI o FC está configurado para la SVM, el comando mostrará un mensaje similar al siguiente ejemplo:

    cluster::> network interface show -vserver vs1 -data-protocol iscsi|fcp
    
             Logical    Status     Network            Current  Current Is
    Vserver  Interface  Admin/Oper Address/Mask       Node     Port    Home
    -------- ---------- ---------- ------------------ -------- ------- ----
    vs1      vs1_lif1   up/down    172.17.176.20/24   node1    0d      true
  24. Compruebe que todos los nodos del clúster están en quórum completando los siguientes subpasos:

    1. Introduzca el nivel de privilegio avanzado:

      set -privilege advanced

      El sistema muestra el siguiente mensaje:

      Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel.
      Do you wish to continue? (y or n):
    2. Introduzca y.

    3. Compruebe el estado del servicio de clúster en el kernel, una vez para cada nodo:

      cluster kernel-service show

      El sistema muestra un mensaje similar al siguiente ejemplo:

    cluster::*> cluster kernel-service show
    
    Master        Cluster       Quorum        Availability  Operational
    Node          Node          Status        Status        Status
    ------------- ------------- ------------- ------------- -------------
    node1         node1         in-quorum     true          operational
                  node2         in-quorum     true          operational
    
    2 entries were displayed.

    +
    Los nodos de un clúster quórum cuando una mayoría simple de nodos están en buen estado y pueden comunicarse entre sí. Para obtener más información, consulte "Referencias" Para vincular a System Administration Reference.

    1. Volver al nivel de privilegio administrativo:

      set -privilege admin

  25. Realice una de las siguientes acciones:

    Si el clúster…​ Realice lo siguiente…​

    Tiene configurada LA San

    Vaya a. Paso 26.

    No tiene configurada LA SAN

    Vaya a. Paso 29.

  26. Compruebe que hay LIF SAN en el nodo 1 y el nodo 2 para cada SVM con servicio SAN iSCSI o FC habilitado. Para ello, introduzca el siguiente comando y examine su salida:

    network interface show -data-protocol iscsi|fcp -home-node node_name

    El comando muestra información de la LIF DE SAN para el nodo 1 y el nodo 2. En los siguientes ejemplos, se muestra el estado de la columna Status Admin/Oper como up/up, lo que indica que EL servicio SAN iSCSI y FC está habilitado:

    cluster::> network interface show -data-protocol iscsi|fcp
                Logical    Status     Network                  Current   Current Is
    Vserver     Interface  Admin/Oper Address/Mask             Node      Port    Home
    ----------- ---------- ---------- ------------------       --------- ------- ----
    a_vs_iscsi  data1      up/up      10.228.32.190/21         node1     e0a     true
                data2      up/up      10.228.32.192/21         node2     e0a     true
    
    b_vs_fcp    data1      up/up      20:09:00:a0:98:19:9f:b0  node1     0c      true
                data2      up/up      20:0a:00:a0:98:19:9f:b0  node2     0c      true
    
    c_vs_iscsi_fcp data1   up/up      20:0d:00:a0:98:19:9f:b0  node2     0c      true
                data2      up/up      20:0e:00:a0:98:19:9f:b0  node2     0c      true
                data3      up/up      10.228.34.190/21         node2     e0b     true
                data4      up/up      10.228.34.192/21         node2     e0b     true

    También puede ver información más detallada de la LIF introduciendo el comando siguiente:

    network interface show -instance -data-protocol iscsi|fcp

  27. Capture la configuración predeterminada de cualquier puerto FC en los nodos originales introduciendo el siguiente comando y grabando la salida para sus sistemas:

    ucadmin show

    El comando muestra información sobre todos los puertos FC del clúster, como se muestra en el ejemplo siguiente:

    cluster::> ucadmin show
    
                    Current Current   Pending Pending   Admin
    Node    Adapter Mode    Type      Mode    Type      Status
    ------- ------- ------- --------- ------- --------- -----------
    node1   0a      fc      initiator -       -         online
    node1   0b      fc      initiator -       -         online
    node1   0c      fc      initiator -       -         online
    node1   0d      fc      initiator -       -         online
    node2   0a      fc      initiator -       -         online
    node2   0b      fc      initiator -       -         online
    node2   0c      fc      initiator -       -         online
    node2   0d      fc      initiator -       -         online
    8 entries were displayed.

    Puede usar la información después de la actualización para establecer la configuración de los puertos de FC en los nodos nuevos.

  28. Si va a actualizar un sistema V-Series o un sistema con software de virtualización FlexArray, capture la información sobre la topología de los nodos originales introduciendo el comando siguiente y grabando el resultado:

    storage array config show -switch

    El sistema muestra información de topología, como se muestra en el ejemplo siguiente:

    cluster::> storage array config show -switch
    
          LUN LUN                                  Target Side Initiator Side Initi-
    Node  Grp Cnt Array Name    Array Target Port  Switch Port Switch Port    ator
    ----- --- --- ------------- ------------------ ----------- -------------- ------
    node1 0   50  I_1818FAStT_1
                                205700a0b84772da   vgbr6510a:5  vgbr6510s164:3  0d
                                206700a0b84772da   vgbr6510a:6  vgbr6510s164:4  2b
                                207600a0b84772da   vgbr6510b:6  vgbr6510s163:1  0c
    node2 0   50  I_1818FAStT_1
                                205700a0b84772da   vgbr6510a:5  vgbr6510s164:1  0d
                                206700a0b84772da   vgbr6510a:6  vgbr6510s164:2  2b
                                207600a0b84772da   vgbr6510b:6  vgbr6510s163:3  0c
                                208600a0b84772da   vgbr6510b:5  vgbr6510s163:4  2a
    7 entries were displayed.
  29. lleve a cabo los siguientes subpasos:

    1. Introduzca el siguiente comando en uno de los nodos originales y registre el resultado:

      service-processor show -node * -instance

    El sistema muestra información detallada sobre el SP en ambos nodos.

    1. Confirme que el estado del SP es online.

    2. Confirme que la red del SP está configurada.

    3. Registre la dirección IP y otra información acerca del SP.

      Tal vez desee reutilizar los parámetros de red de los dispositivos de gestión remota, en este caso los SPS, del sistema original para los SPS en los nuevos nodos. Para obtener información detallada sobre el SP, consulte "Referencias" Para establecer un vínculo a los comandos System Administration Reference y ONTAP 9: Manual Page Reference.

  30. Si desea que los nuevos nodos tengan la misma funcionalidad con licencia que los nodos originales, introduzca el siguiente comando para ver las licencias de clúster en el sistema original:

    system license show -owner *

    El siguiente ejemplo muestra las licencias de sitio para cluster1:

    system license show -owner *
    Serial Number: 1-80-000013
    Owner: cluster1
    
    Package           Type    Description           Expiration
    ----------------- ------- --------------------- -----------
    Base              site    Cluster Base License  -
    NFS               site    NFS License           -
    CIFS              site    CIFS License          -
    SnapMirror        site    SnapMirror License    -
    FlexClone         site    FlexClone License     -
    SnapVault         site    SnapVault License     -
    6 entries were displayed.
  31. Obtenga claves de licencia nuevas para los nodos nuevos en el sitio de soporte de NetApp. Consulte "Referencias" Para enlazar con sitio de soporte de NetApp.

    Si el sitio no tiene las claves de licencia que necesita, póngase en contacto con su representante de ventas de NetApp.

  32. Compruebe si el sistema original tiene AutoSupport habilitado. Para ello, introduzca el siguiente comando en cada nodo y examine su resultado:

    system node autosupport show -node node1,node2

    El resultado del comando muestra si AutoSupport está habilitado, como se muestra en el ejemplo siguiente:

    cluster::> system node autosupport show -node node1,node2
    
    Node             State     From          To                Mail Hosts
    ---------------- --------- ------------- ----------------  ----------
    node1            enable    Postmaster    admin@netapp.com  mailhost
    
    node2            enable    Postmaster    -                 mailhost
    2 entries were displayed.
  33. Realice una de las siguientes acciones:

    Si el sistema original…​ Realice lo siguiente…​

    Tiene AutoSupport habilitado…​

    Vaya a. Paso 34.

    No tiene AutoSupport habilitado…​

    Habilite AutoSupport siguiendo las instrucciones de System Administration Reference. (Consulte "Referencias" Para establecer un vínculo a la referencia de administración del sistema.)

    Nota: AutoSupport se activa de forma predeterminada cuando configura el sistema de almacenamiento por primera vez. Aunque puede deshabilitar AutoSupport en cualquier momento, debe dejarla habilitada. Habilitar AutoSupport puede ayudar de forma significativa a identificar problemas y soluciones cuando se producen fallos en el sistema de almacenamiento.

  34. Compruebe que AutoSupport está configurado con los detalles del host de correo y los ID de correo electrónico del destinatario correctos introduciendo el siguiente comando en ambos nodos originales y examinando la salida:

    system node autosupport show -node node_name -instance

    Para obtener información detallada sobre AutoSupport, consulte "Referencias" Para establecer un vínculo a los comandos System Administration Reference y ONTAP 9: Manual Page Reference.

  35. ] Enviar un mensaje de AutoSupport a NetApp para el nodo 1 introduciendo el comando siguiente:

    system node autosupport invoke -node node1 -type all -message "Upgrading node1 from platform_old to platform_new"

    Nota No envíe un mensaje de AutoSupport a NetApp para el nodo 2 en este punto, ya que lo hará más adelante en el procedimiento.
  36. Compruebe que el mensaje de AutoSupport se ha enviado introduciendo el comando siguiente y examinando su salida:

    system node autosupport show -node node1 -instance

    Los campos Last Subject Sent: y.. Last Time Sent: contiene el título del mensaje del último mensaje enviado y la hora de envío del mensaje.

  37. Si su sistema utiliza unidades de autocifrado, consulte el artículo de la base de conocimientos "Cómo saber si una unidad tiene la certificación FIPS" Para determinar el tipo de unidades de autocifrado que se están utilizando en la pareja de alta disponibilidad que se está actualizando. El software ONTAP admite dos tipos de unidades de autocifrado:

    • Unidades SAS o NVMe con cifrado en almacenamiento de NetApp (NSE) certificado FIPS

    • Unidades NVMe (SED) con autocifrado no FIPS

    Nota

    No es posible mezclar unidades FIPS con otros tipos de unidades en el mismo nodo o la pareja de alta disponibilidad.

    Puede mezclar unidades de cifrado distinto de SED en el mismo nodo o par de alta disponibilidad.