Skip to main content
ONTAP MetroCluster
Se proporciona el idioma español mediante traducción automática para su comodidad. En caso de alguna inconsistencia, el inglés precede al español.

Configuración del software MetroCluster en ONTAP

Colaboradores

Debe configurar cada nodo en la configuración de MetroCluster en ONTAP, incluidas las configuraciones a nivel de nodo y la configuración de los nodos en dos sitios. También debe implementar la relación de MetroCluster entre los dos sitios. Los pasos para sistemas con bandejas de discos nativas son ligeramente diferentes a los de sistemas con LUN de cabina.

flujo de trabajo: software de configuración de nodos y clústeres de alto nivel

Obteniendo información obligatoria

Debe recopilar las direcciones IP necesarias para los módulos de la controladora antes de comenzar el proceso de configuración.

Hoja de trabajo de información de red IP para el sitio A

Antes de configurar el sistema, debe obtener direcciones IP y otra información de red para el primer sitio MetroCluster (sitio A) del administrador de red.

Información del switch del centro a (clústeres con switches)

Cuando cablee el sistema, necesita un nombre de host y una dirección IP de gestión para cada switch del clúster. Esta información no es necesaria si utiliza un clúster sin switch de dos nodos o si tiene una configuración MetroCluster de dos nodos (un nodo en cada sitio).

Switch de clúster

Nombre de host

Dirección IP

Máscara de red

Pasarela predeterminada

Interconexión 1

Interconexión 2

Gestión 1

Gestión 2

Información de creación de clústeres de sitio a

Cuando cree el clúster por primera vez, necesita la siguiente información:

Tipo de información

Sus valores

Nombre del clúster

Ejemplo utilizado en esta guía: Site_A

Dominio DNS

Servidores de nombres DNS

Ubicación

Contraseña de administrador

Información del sitio a del nodo

Para cada nodo del clúster, necesita una dirección IP de gestión, una máscara de red y una pasarela predeterminada.

Nodo

Puerto

Dirección IP

Máscara de red

Pasarela predeterminada

Nodo 1

Ejemplo utilizado en esta guía: Controller_A_1

Nodo 2

No es necesario si se usa una configuración MetroCluster de dos nodos (un nodo en cada sitio).

Ejemplo utilizado en esta guía: Controller_A_2

Realizar las LIF De sitio A y los puertos para el cluster peering

Para cada nodo del clúster necesita las direcciones IP de dos LIF de interconexión de clústeres, incluidas una máscara de red y una puerta de enlace predeterminada. Las LIF de interconexión de clústeres se usan para establecer la relación entre iguales de los clústeres.

Nodo

Puerto

Dirección IP de la LIF de interconexión de clústeres

Máscara de red

Pasarela predeterminada

Nodo 1 IC LIF 1

Nodo 1 IC LIF 2

Nodo 2 IC LIF 1

No es necesario para configuraciones MetroCluster de dos nodos (un nodo en cada sitio).

Nodo 2 IC LIF 2

No es necesario para configuraciones MetroCluster de dos nodos (un nodo en cada sitio).

Información del servidor de tiempo del sitio

Debe sincronizar la hora, lo que requiere uno o varios servidores de hora NTP.

Nodo

Nombre de host

Dirección IP

Máscara de red

Pasarela predeterminada

Servidor NTP 1

Servidor NTP 2

Site a   Información de AutoSupport

Tiene que configurar AutoSupport en cada nodo, lo que requiere la siguiente información:

Tipo de información

Sus valores

Dirección de correo electrónico del remitente

Hosts de correo

Nombres o direcciones IP

Protocolo de transporte

HTTP, HTTPS O SMTP

Servidor proxy

Direcciones de correo electrónico de destinatarios o listas de distribución

Mensajes completos

Mensajes concisos

Información del &SP del sitio a  

Debe habilitar el acceso al Service Processor (SP) de cada nodo para la solución de problemas y el mantenimiento, que requiere la siguiente información de red para cada nodo:

Nodo

Dirección IP

Máscara de red

Pasarela predeterminada

Nodo 1

Nodo 2

No es necesario para configuraciones MetroCluster de dos nodos (un nodo en cada sitio).

Hoja de trabajo de información de la red IP para el sitio B

Antes de configurar el sistema, debe obtener direcciones IP y otra información de red para el segundo sitio MetroCluster (sitio B) del administrador de red.

Información del switch del centro B (clústeres con switches)

Cuando cablee el sistema, necesita un nombre de host y una dirección IP de gestión para cada switch del clúster. Esta información no es necesaria si utiliza un clúster sin switch de dos nodos o si tiene una configuración de MetroCluster de dos nodos (un nodo en cada sitio).

Switch de clúster

Nombre de host

Dirección IP

Máscara de red

Pasarela predeterminada

Interconexión 1

Interconexión 2

Gestión 1

Gestión 2

Información de creación de clústeres del sitio B.

Cuando cree el clúster por primera vez, necesita la siguiente información:

Tipo de información

Sus valores

Nombre del clúster

Ejemplo utilizado en esta guía: Site_B

Dominio DNS

Servidores de nombres DNS

Ubicación

Contraseña de administrador

Información del nodo del sitio B

Para cada nodo del clúster, necesita una dirección IP de gestión, una máscara de red y una pasarela predeterminada.

Nodo

Puerto

Dirección IP

Máscara de red

Pasarela predeterminada

Nodo 1

Ejemplo utilizado en esta guía: Controller_B_1

Nodo 2

No es necesario para configuraciones MetroCluster de dos nodos (un nodo en cada sitio).

Ejemplo utilizado en esta guía: Controller_B_2

Puertos y LIF del sitio B para paridad de clústeres

Para cada nodo del clúster necesita las direcciones IP de dos LIF de interconexión de clústeres, incluidas una máscara de red y una puerta de enlace predeterminada. Las LIF de interconexión de clústeres se usan para establecer la relación entre iguales de los clústeres.

Nodo

Puerto

Dirección IP de la LIF de interconexión de clústeres

Máscara de red

Pasarela predeterminada

Nodo 1 IC LIF 1

Nodo 1 IC LIF 2

Nodo 2 IC LIF 1

No es necesario para configuraciones MetroCluster de dos nodos (un nodo en cada sitio).

Nodo 2 IC LIF 2

No es necesario para configuraciones MetroCluster de dos nodos (un nodo en cada sitio).

Información del servidor horario del centro B.

Debe sincronizar la hora, lo que requiere uno o varios servidores de hora NTP.

Nodo

Nombre de host

Dirección IP

Máscara de red

Pasarela predeterminada

Servidor NTP 1

Servidor NTP 2

Centro B  Información de AutoSupport

Tiene que configurar AutoSupport en cada nodo, lo que requiere la siguiente información:

Tipo de información

Sus valores

Dirección de correo electrónico del remitente

Hosts de correo

Nombres o direcciones IP

Protocolo de transporte

HTTP, HTTPS O SMTP

Servidor proxy

Direcciones de correo electrónico de destinatarios o listas de distribución

Mensajes completos

Mensajes concisos

De NetApp

Centro B  Información del SP

Debe habilitar el acceso al Service Processor (SP) de cada nodo para la solución de problemas y el mantenimiento, que requiere la siguiente información de red para cada nodo:

Nodo

Dirección IP

Máscara de red

Pasarela predeterminada

Nodo 1 (controladora_B_1)

Nodo 2 (controladora_B_2)

No es necesario para configuraciones MetroCluster de dos nodos (un nodo en cada sitio).

Similitudes y diferencias entre configuraciones estándar de clústeres y MetroCluster

La configuración de los nodos de cada clúster en una configuración de MetroCluster es similar a la de los nodos de un clúster estándar.

La configuración de MetroCluster se basa en dos clústeres estándar. Físicamente, la configuración debe ser simétrica, en la que cada nodo tenga la misma configuración de hardware y todos los componentes de MetroCluster deben cablearse y configurarse. Sin embargo, la configuración de software básica para los nodos de una configuración MetroCluster es la misma que para los nodos de un clúster estándar.

Paso de configuración

Configuración de clúster estándar

Configuración de MetroCluster

Configure LIF de gestión, clúster y datos en cada nodo.

Lo mismo en ambos tipos de clústeres

Configure el agregado raíz.

Lo mismo en ambos tipos de clústeres

Configure los nodos en el clúster como parejas de alta disponibilidad

Lo mismo en ambos tipos de clústeres

Configure el clúster en un nodo del clúster.

Lo mismo en ambos tipos de clústeres

Una el otro nodo al clúster.

Lo mismo en ambos tipos de clústeres

Crear un agregado raíz reflejado.

Opcional

Obligatorio

Conectar los clústeres en relación de paridad.

Opcional

Obligatorio

Habilite la configuración de MetroCluster.

No aplicable

Obligatorio

Verificación y configuración del estado de alta disponibilidad de los componentes en modo de mantenimiento

Para configurar un sistema de almacenamiento en una configuración de MetroCluster FC, debe asegurarse de que el estado de alta disponibilidad de los componentes del módulo de la controladora y del chasis sea mcc o mcc-2n para que estos componentes arranquen correctamente. Aunque este valor debe preconfigurarse en los sistemas recibidos de fábrica, debe verificar el ajuste antes de continuar.

Precaución

Si el estado de alta disponibilidad del módulo de la controladora y el chasis es incorrecto, no se puede configurar MetroCluster sin volver a inicializar el nodo. Debe corregir la configuración mediante este procedimiento y, a continuación, inicializar el sistema mediante uno de los siguientes procedimientos:

Antes de empezar

Compruebe que el sistema está en modo de mantenimiento.

Pasos
  1. En el modo de mantenimiento, muestre el estado de alta disponibilidad del módulo de controladora y el chasis:

    ha-config show

    El estado de alta disponibilidad correcto depende de la configuración de la MetroCluster.

    Tipo de configuración de MetroCluster

    Estado de ALTA DISPONIBILIDAD para todos los componentes…​

    Configuración FC MetroCluster de ocho o cuatro nodos

    mcc

    Configuración MetroCluster FC de dos nodos

    mcc-2n

    Configuración IP de MetroCluster de ocho o cuatro nodos

    mccip

  2. Si el estado del sistema que se muestra en la controladora no es correcto, establezca el estado de alta disponibilidad correcto para su configuración en el módulo de controladora:

    Tipo de configuración de MetroCluster

    Comando

    Configuración FC MetroCluster de ocho o cuatro nodos

    ha-config modify controller mcc

    Configuración MetroCluster FC de dos nodos

    ha-config modify controller mcc-2n

    Configuración IP de MetroCluster de ocho o cuatro nodos

    ha-config modify controller mccip

  3. Si el estado del sistema que se muestra del chasis no es correcto, establezca el estado de alta disponibilidad correcto para su configuración en el chasis:

    Tipo de configuración de MetroCluster

    Comando

    Configuración FC MetroCluster de ocho o cuatro nodos

    ha-config modify chassis mcc

    Configuración MetroCluster FC de dos nodos

    ha-config modify chassis mcc-2n

    Configuración IP de MetroCluster de ocho o cuatro nodos

    ha-config modify chassis mccip

  4. Arrancar el nodo en ONTAP:

    boot_ontap

  5. Repita todo este procedimiento para comprobar el estado HA en cada nodo de la configuración MetroCluster.

Restaurando los valores predeterminados del sistema y configurar el tipo de HBA en un módulo de controladora

Acerca de esta tarea

Para garantizar que la instalación de MetroCluster se realice correctamente, restablezca y restaure los valores predeterminados en los módulos de la controladora.

Importante

Esta tarea solo es necesaria para configuraciones de ampliación mediante puentes FC a SAS.

Pasos
  1. En el aviso del CARGADOR, devuelva las variables de entorno a su configuración predeterminada:

    set-defaults

  2. Inicie el nodo en modo de mantenimiento y, a continuación, configure los ajustes de cualquier HBA del sistema:

    1. Arranque en modo de mantenimiento:

      boot_ontap maint

    2. Compruebe la configuración actual de los puertos:

      ucadmin show

    3. Actualice la configuración del puerto según sea necesario.

    Si tiene este tipo de HBA y el modo que desea…​

    Se usa este comando…​

    CNA FC

    ucadmin modify -m fc -t initiator adapter_name

    Ethernet de CNA

    ucadmin modify -mode cna adapter_name

    Destino FC

    fcadmin config -t target adapter_name

    Iniciador FC

    fcadmin config -t initiator adapter_name

  3. Salir del modo de mantenimiento:

    halt

    Después de ejecutar el comando, espere hasta que el nodo se detenga en el símbolo del sistema DEL CARGADOR.

  4. Vuelva a arrancar el nodo en modo de mantenimiento para permitir que los cambios de configuración surtan efecto:

    boot_ontap maint

  5. Compruebe los cambios realizados:

    Si tiene este tipo de HBA…​

    Se usa este comando…​

    CNA

    ucadmin show

    FC

    fcadmin show

  6. Salir del modo de mantenimiento:

    halt

    Después de ejecutar el comando, espere hasta que el nodo se detenga en el símbolo del sistema DEL CARGADOR.

  7. Arrancar el nodo en el menú de arranque:

    boot_ontap menu

    Después de ejecutar el comando, espere hasta que se muestre el menú de arranque.

  8. Borre la configuración del nodo escribiendo "'wipeconfig'" en el símbolo del sistema del menú de inicio y, a continuación, pulse Intro.

    La siguiente pantalla muestra el indicador del menú de inicio:

Please choose one of the following:

     (1) Normal Boot.
     (2) Boot without /etc/rc.
     (3) Change password.
     (4) Clean configuration and initialize all disks.
     (5) Maintenance mode boot.
     (6) Update flash from backup config.
     (7) Install new software first.
     (8) Reboot node.
     (9) Configure Advanced Drive Partitioning.
     Selection (1-9)?  wipeconfig
 This option deletes critical system configuration, including cluster membership.
 Warning: do not run this option on a HA node that has been taken over.
 Are you sure you want to continue?: yes
 Rebooting to finish wipeconfig request.

Configurar puertos FC-VI en una tarjeta de puerto cuádruple X1132A-R6 en sistemas FAS8020

Si utiliza la tarjeta de cuatro puertos X1132A-R6 en un sistema FAS8020, puede introducir el modo de mantenimiento para configurar los puertos 1a y 1b para el uso de FC-VI y del iniciador. Esto no es necesario en los sistemas MetroCluster recibidos de fábrica, en los que los puertos están configurados correctamente para su configuración.

Acerca de esta tarea

Esta tarea se debe realizar en modo de mantenimiento.

Nota Solo se admite la conversión de un puerto FC-VI con el comando ucadmin en los sistemas FAS8020 y AFF 8020. La conversión de puertos FC a puertos FCVI no se admite en ninguna otra plataforma.
Pasos
  1. Desactive los puertos:

    storage disable adapter 1a

    storage disable adapter 1b

    *> storage disable adapter 1a
    Jun 03 02:17:57 [controller_B_1:fci.adapter.offlining:info]: Offlining Fibre Channel adapter 1a.
    Host adapter 1a disable succeeded
    Jun 03 02:17:57 [controller_B_1:fci.adapter.offline:info]: Fibre Channel adapter 1a is now offline.
    *> storage disable adapter 1b
    Jun 03 02:18:43 [controller_B_1:fci.adapter.offlining:info]: Offlining Fibre Channel adapter 1b.
    Host adapter 1b disable succeeded
    Jun 03 02:18:43 [controller_B_1:fci.adapter.offline:info]: Fibre Channel adapter 1b is now offline.
    *>
  2. Compruebe que los puertos están deshabilitados:

    ucadmin show

    *> ucadmin show
             Current  Current    Pending  Pending    Admin
    Adapter  Mode     Type       Mode     Type       Status
    -------  -------  ---------  -------  ---------  -------
      ...
      1a     fc       initiator  -        -          offline
      1b     fc       initiator  -        -          offline
      1c     fc       initiator  -        -          online
      1d     fc       initiator  -        -          online
  3. Establezca los puertos a y b en modo FC-VI:

    ucadmin modify -adapter 1a -type fcvi

    El comando establece el modo en ambos puertos de la pareja de puertos, 1a y 1b (aunque sólo se haya especificado 1a en el comando).

    *> ucadmin modify -t fcvi 1a
    Jun 03 02:19:13 [controller_B_1:ucm.type.changed:info]: FC-4 type has changed to fcvi on adapter 1a. Reboot the controller for the changes to take effect.
    Jun 03 02:19:13 [controller_B_1:ucm.type.changed:info]: FC-4 type has changed to fcvi on adapter 1b. Reboot the controller for the changes to take effect.
  4. Confirme que el cambio está pendiente:

    ucadmin show

    *> ucadmin show
             Current  Current    Pending  Pending    Admin
    Adapter  Mode     Type       Mode     Type       Status
    -------  -------  ---------  -------  ---------  -------
      ...
      1a     fc       initiator  -        fcvi       offline
      1b     fc       initiator  -        fcvi       offline
      1c     fc       initiator  -        -          online
      1d     fc       initiator  -        -          online
  5. Apague la controladora y luego reinicie en modo de mantenimiento.

  6. Confirme el cambio de configuración:

    ucadmin show local

    Node           Adapter  Mode     Type       Mode     Type       Status
    ------------   -------  -------  ---------  -------  ---------  -----------
    ...
    controller_B_1
                   1a       fc       fcvi       -        -          online
    controller_B_1
                   1b       fc       fcvi       -        -          online
    controller_B_1
                   1c       fc       initiator  -        -          online
    controller_B_1
                   1d       fc       initiator  -        -          online
    6 entries were displayed.

Verificación de la asignación de discos en modo de mantenimiento en una configuración de ocho o cuatro nodos

Antes de arrancar completamente el sistema en ONTAP, puede opcionalmente arrancar en modo de mantenimiento y comprobar la asignación de disco en los nodos. Se deben asignar los discos para crear una configuración activo-activo completamente simétrica, en la que cada pool tiene asignado el mismo número de discos.

Acerca de esta tarea

Los nuevos sistemas MetroCluster tienen asignación de discos finalizada antes del envío.

En la siguiente tabla se muestran ejemplos de asignaciones de pools para una configuración de MetroCluster. Los discos se asignan a pools por bandeja.

Bandejas de discos en el sitio A

Bandeja de discos (sample_shelf_name)…​

Pertenece a…​

Y se asigna a ese nodo…​

Bandeja de discos 1 (shelf_A_1_1)

Nodo a 1

Piscina 0

Bandeja de discos 2 (shelf_A_1_3)

Bandeja de discos 3 (shelf_B_1_1)

Nodo B 1

Piscina 1

Bandeja de discos 4 (shelf_B_1_3)

Bandeja de discos 5 (shelf_A_2_1)

Nodo A 2

Piscina 0

Bandeja de discos 6 (shelf_A_2_3)

Bandeja de discos 7 (shelf_B_2_1)

Nodo B 2

Piscina 1

Bandeja de discos 8 (shelf_B_2_3)

Bandeja de discos 1 (shelf_A_3_1)

Nodo a 3

Piscina 0

Bandeja de discos 2 (shelf_A_3_3)

Bandeja de discos 3 (shelf_B_3_1)

Nodo B 3

Piscina 1

Bandeja de discos 4 (shelf_B_3_3)

Bandeja de discos 5 (shelf_A_4_1)

Nodo a 4

Piscina 0

Bandeja de discos 6 (shelf_A_4_3)

Bandeja de discos 7 (shelf_B_4_1)

Nodo B 4

Piscina 1

Bandeja de discos 8 (shelf_B_4_3)

Bandejas de discos en el sitio B

Bandeja de discos (sample_shelf_name)…​

Pertenece a…​

Y se asigna a ese nodo…​

Bandeja de discos 9 (shelf_B_1_2)

Nodo B 1

Piscina 0

Bandeja de discos 10 (shelf_B_1_4)

Bandeja de discos 11 (shelf_A_1_2)

Nodo a 1

Piscina 1

Bandeja de discos 12 (shelf_A_1_4)

Bandeja de discos 13 (shelf_B_2_2)

Nodo B 2

Piscina 0

Bandeja de discos 14 (shelf_B_2_4)

Bandeja de discos 15 (shelf_A_2_2)

Nodo A 2

Piscina 1

Bandeja de discos 16 (shelf_A_2_4)

Bandeja de discos 1 (shelf_B_3_2)

Nodo a 3

Piscina 0

Bandeja de discos 2 (shelf_B_3_4)

Bandeja de discos 3 (shelf_A_3_2)

Nodo B 3

Piscina 1

Bandeja de discos 4 (shelf_A_3_4)

Bandeja de discos 5 (shelf_B_4_2)

Nodo a 4

Piscina 0

Bandeja de discos 6 (shelf_B_4_4)

Bandeja de discos 7 (shelf_A_4_2)

Nodo B 4

Pasos
  1. Confirme las asignaciones de bandejas:

    disk show –v

  2. Si es necesario, asigne de forma explícita los discos de las bandejas de discos conectadas al pool apropiado:

    disk assign

    El uso de comodines en el comando permite asignar todos los discos de una bandeja de discos con un comando. Es posible identificar los ID de la bandeja de discos y las bahías para cada disco con el storage show disk -x comando.

Asignación de la propiedad de disco en sistemas que no son AFF

Si los nodos MetroCluster no tienen los discos correctamente asignados, o si utiliza bandejas de discos DS460C en su configuración, debe asignar discos a cada uno de los nodos de la configuración de MetroCluster de bandeja a bandeja. Creará una configuración en la que cada nodo tenga el mismo número de discos en sus pools de discos locales y remotos.

Antes de empezar

Las controladoras de almacenamiento deben estar en modo de mantenimiento.

Acerca de esta tarea

Si su configuración no incluye bandejas de discos DS460C, esta tarea no es necesaria si los discos se han asignado correctamente cuando se han recibido de fábrica.

Nota

El pool 0 siempre contiene los discos que se encuentran en el mismo lugar que el sistema de almacenamiento propietario.

El pool 1 siempre contiene los discos remotos para el sistema de almacenamiento propietario de estos.

Si su configuración incluye bandejas de discos DS460C, debe asignar manualmente los discos con las siguientes directrices para cada cajón de 12 discos:

Asigne estos discos en el cajón…​

Para este nodo y pool…​

0 - 2

Pool del nodo local 0

3 - 5

Pool del nodo del partner de ALTA DISPONIBILIDAD 0

6 - 8

El partner de recuperación ante desastres del pool del nodo local 1

9 - 11

Partner de recuperación ante desastres del pool del partner de alta disponibilidad 1

Este patrón de asignación de discos garantiza que un agregado se vea mínimo afectado si un cajón se desconecta.

Pasos
  1. Si no lo ha hecho, arranque cada sistema en modo de mantenimiento.

  2. Asigne las bandejas de discos a los nodos ubicados en el primer sitio (sitio A):

    Las bandejas de discos en el mismo sitio que el nodo están asignadas al pool 0 y las bandejas de discos ubicadas en el sitio del partner se asignan al pool 1.

    Debe asignar un mismo número de bandejas a cada pool.

    1. En el primer nodo, asigne de forma sistemática las bandejas de discos locales al pool 0 y las bandejas de discos remotas al pool 1:

      disk assign -shelf local-switch-name:shelf-name.port -p pool

      Si la controladora de almacenamiento Controller_A_1 tiene cuatro bandejas, emita los siguientes comandos:

      *> disk assign -shelf FC_switch_A_1:1-4.shelf1 -p 0
      *> disk assign -shelf FC_switch_A_1:1-4.shelf2 -p 0
      
      *> disk assign -shelf FC_switch_B_1:1-4.shelf1 -p 1
      *> disk assign -shelf FC_switch_B_1:1-4.shelf2 -p 1
    2. Repita el proceso para el segundo nodo del sitio local, asignando sistemáticamente las bandejas de discos locales al pool 0 y las bandejas de discos remotos al pool 1:

      disk assign -shelf local-switch-name:shelf-name.port -p pool

      Si la controladora de almacenamiento Controller_A_2 tiene cuatro bandejas, emita los siguientes comandos:

    *> disk assign -shelf FC_switch_A_1:1-4.shelf3 -p 0
    *> disk assign -shelf FC_switch_B_1:1-4.shelf4 -p 1
    
    *> disk assign -shelf FC_switch_A_1:1-4.shelf3 -p 0
    *> disk assign -shelf FC_switch_B_1:1-4.shelf4 -p 1
  3. Asigne las bandejas de discos a los nodos ubicados en el segundo sitio (sitio B):

    Las bandejas de discos en el mismo sitio que el nodo están asignadas al pool 0 y las bandejas de discos ubicadas en el sitio del partner se asignan al pool 1.

    Debe asignar un mismo número de bandejas a cada pool.

    1. En el primer nodo del centro remoto, asigne de forma sistemática sus bandejas de discos locales al pool 0 y sus bandejas de discos remotas al pool 1:

      disk assign -shelf local-switch-nameshelf-name -p pool

      Si la controladora de almacenamiento Controller_B_1 tiene cuatro bandejas, emita los siguientes comandos:

      *> disk assign -shelf FC_switch_B_1:1-5.shelf1 -p 0
      *> disk assign -shelf FC_switch_B_1:1-5.shelf2 -p 0
      
      *> disk assign -shelf FC_switch_A_1:1-5.shelf1 -p 1
      *> disk assign -shelf FC_switch_A_1:1-5.shelf2 -p 1
    2. Repita el proceso para el segundo nodo del sitio remoto, asignando sistemáticamente sus bandejas de discos locales al pool 0 y sus bandejas de discos remotas al pool 1:

      disk assign -shelf shelf-name -p pool

      Si la controladora de almacenamiento Controller_B_2 tiene cuatro bandejas, emita los siguientes comandos:

    *> disk assign -shelf FC_switch_B_1:1-5.shelf3 -p 0
    *> disk assign -shelf FC_switch_B_1:1-5.shelf4 -p 0
    
    *> disk assign -shelf FC_switch_A_1:1-5.shelf3 -p 1
    *> disk assign -shelf FC_switch_A_1:1-5.shelf4 -p 1
  4. Confirme las asignaciones de bandejas:

    storage show shelf

  5. Salir del modo de mantenimiento:

    halt

  6. Mostrar el menú de inicio:

    boot_ontap menu

  7. En cada nodo, seleccione la opción 4 para inicializar todos los discos.

Asignación de propiedad de disco en sistemas AFF

Si utiliza sistemas AFF en una configuración con agregados reflejados y los nodos no tienen los discos (SSD) asignados correctamente, debe asignar la mitad de los discos de cada bandeja a un nodo local y la otra mitad de los discos a su nodo asociado de alta disponibilidad. Debe crear una configuración en la que cada nodo tenga el mismo número de discos en sus pools de discos locales y remotos.

Antes de empezar

Las controladoras de almacenamiento deben estar en modo de mantenimiento.

Acerca de esta tarea

Esto no se aplica a configuraciones que tengan agregados no reflejados, una configuración activa/pasiva o que tengan un número desigual de discos en pools locales y remotos.

Esta tarea no es necesaria si los discos se asignaron correctamente cuando se recibieron de fábrica.

Nota

El pool 0 siempre contiene los discos que se encuentran en el mismo lugar que el sistema de almacenamiento propietario.

El pool 1 siempre contiene los discos remotos para el sistema de almacenamiento propietario de estos.

Pasos
  1. Si no lo ha hecho, arranque cada sistema en modo de mantenimiento.

  2. Asigne los discos a los nodos ubicados en el primer sitio (sitio A):

    Debe asignar un número igual de discos a cada pool.

    1. En el primer nodo, asigne sistemáticamente la mitad de los discos de cada bandeja al pool 0 y la otra mitad al pool del partner de alta disponibilidad 0:

      disk assign -shelf <shelf-name> -p <pool> -n <number-of-disks>

      Si la controladora de almacenamiento Controller_A_1 tiene cuatro bandejas, cada una con 8 SSD, emita los siguientes comandos:

      *> disk assign -shelf FC_switch_A_1:1-4.shelf1 -p 0 -n 4
      *> disk assign -shelf FC_switch_A_1:1-4.shelf2 -p 0 -n 4
      
      *> disk assign -shelf FC_switch_B_1:1-4.shelf1 -p 1 -n 4
      *> disk assign -shelf FC_switch_B_1:1-4.shelf2 -p 1 -n 4
    2. Repita el proceso para el segundo nodo del sitio local, asignando sistemáticamente la mitad de los discos de cada bandeja al pool 1 y la otra mitad al pool del partner de alta disponibilidad 1:

      disk assign -disk disk-name -p pool

      Si la controladora de almacenamiento Controller_A_1 tiene cuatro bandejas, cada una con 8 SSD, emita los siguientes comandos:

    *> disk assign -shelf FC_switch_A_1:1-4.shelf3 -p 0 -n 4
    *> disk assign -shelf FC_switch_B_1:1-4.shelf4 -p 1 -n 4
    
    *> disk assign -shelf FC_switch_A_1:1-4.shelf3 -p 0 -n 4
    *> disk assign -shelf FC_switch_B_1:1-4.shelf4 -p 1 -n 4
  3. Asigne los discos a los nodos ubicados en el segundo sitio (sitio B):

    Debe asignar un número igual de discos a cada pool.

    1. En el primer nodo del centro remoto, asigne sistemáticamente la mitad de los discos de cada bandeja al pool 0 y la otra mitad al pool 0 del partner de alta disponibilidad:

      disk assign -disk disk-name -p pool

      Si la controladora de almacenamiento Controller_B_1 tiene cuatro bandejas, cada una con 8 SSD, emita los siguientes comandos:

      *> disk assign -shelf FC_switch_B_1:1-5.shelf1 -p 0 -n 4
      *> disk assign -shelf FC_switch_B_1:1-5.shelf2 -p 0 -n 4
      
      *> disk assign -shelf FC_switch_A_1:1-5.shelf1 -p 1 -n 4
      *> disk assign -shelf FC_switch_A_1:1-5.shelf2 -p 1 -n 4
    2. Repita el proceso para el segundo nodo del sitio remoto, asignando sistemáticamente la mitad de los discos de cada bandeja al pool 1 y la otra mitad al pool del partner de alta disponibilidad 1:

      disk assign -disk disk-name -p pool

      Si la controladora de almacenamiento Controller_B_2 tiene cuatro bandejas, cada una con 8 SSD, emita los siguientes comandos:

    *> disk assign -shelf FC_switch_B_1:1-5.shelf3 -p 0 -n 4
    *> disk assign -shelf FC_switch_B_1:1-5.shelf4 -p 0 -n 4
    
    *> disk assign -shelf FC_switch_A_1:1-5.shelf3 -p 1 -n 4
    *> disk assign -shelf FC_switch_A_1:1-5.shelf4 -p 1 -n 4
  4. Confirme las asignaciones de discos:

    storage show disk

  5. Salir del modo de mantenimiento:

    halt

  6. Mostrar el menú de inicio:

    boot_ontap menu

  7. En cada nodo, seleccione la opción 4 para inicializar todos los discos.

Verificación de la asignación de discos en modo de mantenimiento en una configuración de dos nodos

Antes de arrancar completamente el sistema en ONTAP, tiene la opción de arrancar el sistema en modo de mantenimiento y comprobar la asignación de disco en los nodos. Los discos deben asignarse para crear una configuración simétrica en la que ambos sitios poseen sus propias bandejas de disco y proporcionan datos, en la que cada nodo y cada pool tienen asignado un mismo número de discos reflejados.

Antes de empezar

El sistema debe estar en modo de mantenimiento.

Acerca de esta tarea

Los nuevos sistemas MetroCluster tienen asignación de discos finalizada antes del envío.

En la siguiente tabla se muestran ejemplos de asignaciones de pools para una configuración de MetroCluster. Los discos se asignan a pools por bandeja.

Bandeja de discos (nombre de ejemplo)…​

En el sitio…​

Pertenece a…​

Y se asigna a ese nodo…​

Bandeja de discos 1 (shelf_A_1_1)

Centro a

Nodo a 1

Piscina 0

Bandeja de discos 2 (shelf_A_1_3)

Bandeja de discos 3 (shelf_B_1_1)

Nodo B 1

Piscina 1

Bandeja de discos 4 (shelf_B_1_3)

Bandeja de discos 9 (shelf_B_1_2)

Centro B

Nodo B 1

Piscina 0

Bandeja de discos 10 (shelf_B_1_4)

Bandeja de discos 11 (shelf_A_1_2)

Nodo a 1

Piscina 1

Bandeja de discos 12 (shelf_A_1_4)

Si su configuración incluye bandejas de discos DS460C, debe asignar manualmente los discos con las siguientes directrices para cada cajón de 12 discos:

Asigne estos discos en el cajón…​

Para este nodo y pool…​

1 - 6

Pool del nodo local 0

7 - 12

Pool del partner de recuperación ante desastres 1

Este patrón de asignación de discos minimiza el efecto en un agregado si un cajón se desconecta.

Pasos
  1. Si el sistema ha sido recibido de fábrica, confirme las asignaciones de bandejas:

    disk show –v

  2. Si es necesario, se pueden asignar explícitamente discos de las bandejas de discos conectadas al pool correspondiente mediante el comando Disk assign.

    Las bandejas de discos en el mismo sitio que el nodo están asignadas al pool 0 y las bandejas de discos ubicadas en el sitio del partner se asignan al pool 1. Debe asignar un mismo número de bandejas a cada pool.

    1. Si no lo ha hecho, arranque cada sistema en modo de mantenimiento.

    2. En el nodo del sitio A, asigne de forma sistemática las bandejas de discos locales al pool 0 y las bandejas de discos remotas al pool 1:

      disk assign -shelf disk_shelf_name -p pool

      Si la controladora de almacenamiento node_A_1 tiene cuatro bandejas, emita los siguientes comandos:

      *> disk assign -shelf shelf_A_1_1 -p 0
      *> disk assign -shelf shelf_A_1_3 -p 0
      
      *> disk assign -shelf shelf_A_1_2 -p 1
      *> disk assign -shelf shelf_A_1_4 -p 1
    3. En el nodo del sitio remoto (sitio B), asigne de forma sistemática sus bandejas de discos locales al pool 0 y sus bandejas de discos remotas al pool 1:

      disk assign -shelf disk_shelf_name -p pool

      Si la controladora de almacenamiento node_B_1 tiene cuatro bandejas, emita los siguientes comandos:

    *> disk assign -shelf shelf_B_1_2   -p 0
    *> disk assign -shelf shelf_B_1_4  -p 0
    
    *> disk assign -shelf shelf_B_1_1 -p 1
     *> disk assign -shelf shelf_B_1_3 -p 1
    1. Muestre los ID de bandeja de discos y las bahías para cada disco:

      disk show –v

Configurar ONTAP

Debe configurar ONTAP en cada módulo de controladora.

Si debe reiniciar el sistema de las nuevas controladoras, consulte "Netarrancando los nuevos módulos del controlador" En la MetroCluster Guía de actualización, transición y ampliación.

Configurar ONTAP en una configuración MetroCluster de dos nodos

En una configuración MetroCluster de dos nodos, en cada clúster debe arrancar el nodo, salir del asistente de configuración de clúster y utilizar el comando cluster setup para configurar el nodo en un clúster de un solo nodo.

Antes de empezar

No debe haber configurado Service Processor.

Acerca de esta tarea

Esta tarea se realiza para configuraciones MetroCluster de dos nodos que utilizan almacenamiento de NetApp nativo.

Esta tarea debe realizarse en ambos clústeres de la configuración de MetroCluster.

Para obtener más información general sobre la configuración de ONTAP, consulte "Configure ONTAP".

Pasos
  1. Encienda el primer nodo.

    Nota Debe repetir este paso en el nodo en el sitio de recuperación ante desastres (DR).

    El nodo arranca y, a continuación, se inicia el Asistente de configuración de clúster en la consola, para informarle de que AutoSupport se habilitará automáticamente.

    ::> Welcome to the cluster setup wizard.
    
    You can enter the following commands at any time:
      "help" or "?" - if you want to have a question clarified,
      "back" - if you want to change previously answered questions, and
      "exit" or "quit" - if you want to quit the cluster setup wizard.
         Any changes you made before quitting will be saved.
    
    You can return to cluster setup at any time by typing "cluster setup".
    To accept a default or omit a question, do not enter a value.
    
    This system will send event messages and periodic reports to NetApp Technical
    Support. To disable this feature, enter
    autosupport modify -support disable
    within 24 hours.
    
    Enabling AutoSupport can significantly speed problem determination and
    resolution, should a problem occur on your system.
    For further information on AutoSupport, see:
    http://support.netapp.com/autosupport/
    
    Type yes to confirm and continue {yes}: yes
    
    Enter the node management interface port [e0M]:
    Enter the node management interface IP address [10.101.01.01]:
    
    Enter the node management interface netmask [101.010.101.0]:
    Enter the node management interface default gateway [10.101.01.0]:
    
    
    
    Do you want to create a new cluster or join an existing cluster? {create, join}:
  2. Cree un nuevo clúster:

    create

  3. Elija si el nodo se va a usar como un clúster de nodo único.

    Do you intend for this node to be used as a single node cluster? {yes, no} [yes]:
  4. Acepte los valores predeterminados del sistema yes Pulsando Intro, o introduzca sus propios valores escribiendo `no`Y, a continuación, pulse Intro.

  5. Siga las indicaciones para completar el asistente Cluster Setup, pulsando Entrar para aceptar los valores predeterminados o escribiendo sus propios valores y, a continuación, pulsando Intro.

    Los valores predeterminados se determinan automáticamente en función de la plataforma y la configuración de la red.

  6. Después de completar el asistente Cluster Setup y de salir, compruebe que el clúster está activo y que el primer nodo está en buen estado: '

    cluster show

    El siguiente ejemplo muestra un clúster en el que el primer nodo (cluster1-01) está en buen estado y puede participar:

    cluster1::> cluster show
    Node                  Health  Eligibility
    --------------------- ------- ------------
    cluster1-01           true    true

    Si necesita cambiar cualquiera de los ajustes introducidos para la SVM de administrador o la SVM de nodo, puede acceder al asistente de configuración de clúster mediante el comando cluster setup.

Configurar ONTAP en una configuración MetroCluster de ocho o cuatro nodos

Tras arrancar cada nodo, se le pedirá que ejecute la herramienta de configuración del sistema para realizar una configuración básica del nodo y del clúster. Después de configurar el clúster, volverá a la CLI de ONTAP para crear agregados y crear la configuración de MetroCluster.

Antes de empezar

Debe haber cableado la configuración de MetroCluster.

Acerca de esta tarea

Esta tarea se realiza para configuraciones MetroCluster de ocho o cuatro nodos utilizando almacenamiento nativo de NetApp.

Los nuevos sistemas MetroCluster están preconfigurados, no es necesario realizar estos pasos. No obstante, debe configurar la herramienta AutoSupport.

Esta tarea debe realizarse en ambos clústeres de la configuración de MetroCluster.

Este procedimiento utiliza la herramienta Configuración del sistema. Si lo desea, puede usar el asistente de configuración de clúster de la CLI en su lugar.

Pasos
  1. Si aún no lo ha hecho, encienda cada nodo y deje que arranque por completo.

    Si el sistema se encuentra en modo de mantenimiento, emita el comando halt para salir del modo de mantenimiento y, a continuación, emita el siguiente comando desde el símbolo del SISTEMA DEL CARGADOR:

    boot_ontap

    La salida debe ser similar a la siguiente:

    Welcome to node setup
    
    You can enter the following commands at any time:
      "help" or "?" - if you want to have a question clarified,
      "back" - if you want to change previously answered questions, and
      "exit" or "quit" - if you want to quit the setup wizard.
    				Any changes you made before quitting will be saved.
    
    To accept a default or omit a question, do not enter a value.
    .
    .
    .
  2. Active la herramienta AutoSupport siguiendo las instrucciones del sistema.

  3. Responda a las solicitudes para configurar la interfaz de gestión de nodos.

    Los mensajes son similares a los siguientes:

    Enter the node management interface port: [e0M]:
    Enter the node management interface IP address: 10.228.160.229
    Enter the node management interface netmask: 225.225.252.0
    Enter the node management interface default gateway: 10.228.160.1
  4. Confirme que los nodos están configurados en el modo de alta disponibilidad:

    storage failover show -fields mode

    Si no es así, debe emitir el siguiente comando en cada nodo y reiniciar el nodo:

    storage failover modify -mode ha -node localhost

    Este comando configura el modo de alta disponibilidad, pero no permite la conmutación por error del almacenamiento. La conmutación por error del almacenamiento se habilita automáticamente cuando se realiza la configuración de MetroCluster más adelante en el proceso de configuración.

  5. Confirme que tiene cuatro puertos configurados como interconexiones del clúster:

    network port show

    En el ejemplo siguiente se muestra el resultado de cluster_A:

    cluster_A::> network port show
                                                                 Speed (Mbps)
    Node   Port      IPspace      Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- ------------ ---------------- ----- ------- ------------
    node_A_1
           **e0a       Cluster      Cluster          up       1500  auto/1000
           e0b       Cluster      Cluster          up       1500  auto/1000**
           e0c       Default      Default          up       1500  auto/1000
           e0d       Default      Default          up       1500  auto/1000
           e0e       Default      Default          up       1500  auto/1000
           e0f       Default      Default          up       1500  auto/1000
           e0g       Default      Default          up       1500  auto/1000
    node_A_2
           **e0a       Cluster      Cluster          up       1500  auto/1000
           e0b       Cluster      Cluster          up       1500  auto/1000**
           e0c       Default      Default          up       1500  auto/1000
           e0d       Default      Default          up       1500  auto/1000
           e0e       Default      Default          up       1500  auto/1000
           e0f       Default      Default          up       1500  auto/1000
           e0g       Default      Default          up       1500  auto/1000
    14 entries were displayed.
  6. Si va a crear un clúster sin switches de dos nodos (un clúster sin switches de interconexión de clúster), habilite el modo de red de clúster sin switches:

    1. Cambie al nivel de privilegio avanzado:

      set -privilege advanced

    Usted puede responder y cuando se le solicite que continúe en el modo avanzado. Aparece el símbolo del sistema del modo avanzado (*>).

    1. Habilitar modo de clúster sin switch:

      network options switchless-cluster modify -enabled true

    2. Vuelva al nivel de privilegio de administrador:

      set -privilege admin

  7. Inicie la herramienta de configuración del sistema tal como se indica mediante la información que aparece en la consola del sistema después del arranque inicial.

  8. Utilice la herramienta System Setup para configurar cada nodo y crear el clúster, pero no cree agregados.

    Nota Puede crear agregados reflejados en tareas posteriores.
Después de terminar

Vuelva a la interfaz de línea de comandos de ONTAP y complete la configuración de MetroCluster realizando las tareas siguientes.

Configurar los clústeres en una configuración MetroCluster

Debe configurar la paridad de los clústeres, reflejar los agregados raíz, crear un agregado de datos reflejados y, a continuación, emitir el comando para implementar las operaciones de MetroCluster.

Acerca de esta tarea

Antes de correr metrocluster configure, El modo ha y la duplicación DR no están habilitados y puede que aparezca un mensaje de error relacionado con este comportamiento esperado. Habilite el modo de alta disponibilidad y la duplicación de recuperación ante desastres más adelante cuando ejecute el comando metrocluster configure para implementar la configuración.

Una relación entre iguales de los clústeres

Los clústeres de la configuración de MetroCluster deben tener una relación entre iguales para que puedan comunicarse entre sí y realizar las operaciones de mirroring de datos esenciales para la recuperación ante desastres de MetroCluster.

Configurar las LIF de interconexión de clústeres

Debe crear LIF de interconexión de clústeres en puertos utilizados para la comunicación entre los clústeres de partners de MetroCluster. Puede utilizar puertos o puertos dedicados que también tengan tráfico de datos.

Configurar las LIF de interconexión de clústeres en puertos dedicados

Puede configurar LIF de interconexión de clústeres en puertos dedicados. Al hacerlo, normalmente aumenta el ancho de banda disponible para el tráfico de replicación.

Pasos
  1. Enumere los puertos del clúster:

    network port show

    Para obtener una sintaxis de comando completa, consulte la página man.

    En el siguiente ejemplo, se muestran los puertos de red en "cluster01":

    cluster01::> network port show
                                                                 Speed (Mbps)
    Node   Port      IPspace      Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- ------------ ---------------- ----- ------- ------------
    cluster01-01
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
           e0e       Default      Default          up     1500   auto/1000
           e0f       Default      Default          up     1500   auto/1000
    cluster01-02
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
           e0e       Default      Default          up     1500   auto/1000
           e0f       Default      Default          up     1500   auto/1000
  2. Determine qué puertos están disponibles para dedicar a la comunicación entre clústeres:

    network interface show -fields home-port,curr-port

    Para obtener una sintaxis de comando completa, consulte la página man.

    En el siguiente ejemplo se muestra que no se han asignado LIF a los puertos "e0e" y "e0f":

    cluster01::> network interface show -fields home-port,curr-port
    vserver lif                  home-port curr-port
    ------- -------------------- --------- ---------
    Cluster cluster01-01_clus1   e0a       e0a
    Cluster cluster01-01_clus2   e0b       e0b
    Cluster cluster01-02_clus1   e0a       e0a
    Cluster cluster01-02_clus2   e0b       e0b
    cluster01
            cluster_mgmt         e0c       e0c
    cluster01
            cluster01-01_mgmt1   e0c       e0c
    cluster01
            cluster01-02_mgmt1   e0c       e0c
  3. Cree un grupo de recuperación tras fallos para los puertos dedicados:

    network interface failover-groups create -vserver system_SVM -failover-group failover_group -targets physical_or_logical_ports

    En el siguiente ejemplo se asignan los puertos "e0e" y "e0f" al grupo de recuperación tras fallos intercluster01 en el sistema "SVMcluster01":

    cluster01::> network interface failover-groups create -vserver cluster01 -failover-group
    intercluster01 -targets
    cluster01-01:e0e,cluster01-01:e0f,cluster01-02:e0e,cluster01-02:e0f
  4. Compruebe que el grupo de recuperación tras fallos se ha creado:

    network interface failover-groups show

    Para obtener una sintaxis de comando completa, consulte la página man.

    cluster01::> network interface failover-groups show
                                      Failover
    Vserver          Group            Targets
    ---------------- ---------------- --------------------------------------------
    Cluster
                     Cluster
                                      cluster01-01:e0a, cluster01-01:e0b,
                                      cluster01-02:e0a, cluster01-02:e0b
    cluster01
                     Default
                                      cluster01-01:e0c, cluster01-01:e0d,
                                      cluster01-02:e0c, cluster01-02:e0d,
                                      cluster01-01:e0e, cluster01-01:e0f
                                      cluster01-02:e0e, cluster01-02:e0f
                     intercluster01
                                      cluster01-01:e0e, cluster01-01:e0f
                                      cluster01-02:e0e, cluster01-02:e0f
  5. Cree LIF de interconexión de clústeres en la SVM del sistema y asígnelas al grupo de recuperación tras fallos.

    ONTAP 9.6 y posteriores

    network interface create -vserver system_SVM -lif LIF_name -service-policy default-intercluster -home-node node -home-port port -address port_IP -netmask netmask -failover-group failover_group

    ONTAP 9.5 y anteriores

    network interface create -vserver system_SVM -lif LIF_name -role intercluster -home-node node -home-port port -address port_IP -netmask netmask -failover-group failover_group

    Para obtener una sintaxis de comando completa, consulte la página man.

    En el siguiente ejemplo se crean las LIF de interconexión de clústeres "cluster01_icl01" y "cluster01_icl02" en el grupo de conmutación por error "intercluster01":

    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl01 -service-
    policy default-intercluster -home-node cluster01-01 -home-port e0e -address 192.168.1.201
    -netmask 255.255.255.0 -failover-group intercluster01
    
    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl02 -service-
    policy default-intercluster -home-node cluster01-02 -home-port e0e -address 192.168.1.202
    -netmask 255.255.255.0 -failover-group intercluster01
  6. Compruebe que se han creado las LIF de interconexión de clústeres:

    ONTAP 9.6 y posteriores

    Ejecute el comando: network interface show -service-policy default-intercluster

    ONTAP 9.5 y anteriores

    Ejecute el comando: network interface show -role intercluster

    Para obtener una sintaxis de comando completa, consulte la página man.

    cluster01::> network interface show -service-policy default-intercluster
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    cluster01
                cluster01_icl01
                           up/up      192.168.1.201/24   cluster01-01  e0e     true
                cluster01_icl02
                           up/up      192.168.1.202/24   cluster01-02  e0f     true
  7. Compruebe que las LIF de interconexión de clústeres son redundantes:

    ONTAP 9.6 y posteriores

    Ejecute el comando: network interface show -service-policy default-intercluster -failover

    ONTAP 9.5 y anteriores

    Ejecute el comando: network interface show -role intercluster -failover

    Para obtener una sintaxis de comando completa, consulte la página man.

    En el siguiente ejemplo, se muestra que las LIF de interconexión de clústeres "cluster01_icl01" y "cluster01_icl02" en el puerto SVM "e0e" conmutarán al puerto "e0f".

    cluster01::> network interface show -service-policy default-intercluster –failover
             Logical         Home                  Failover        Failover
    Vserver  Interface       Node:Port             Policy          Group
    -------- --------------- --------------------- --------------- --------
    cluster01
             cluster01_icl01 cluster01-01:e0e   local-only      intercluster01
                                Failover Targets:  cluster01-01:e0e,
                                                   cluster01-01:e0f
             cluster01_icl02 cluster01-02:e0e   local-only      intercluster01
                                Failover Targets:  cluster01-02:e0e,
                                                   cluster01-02:e0f

Cuando determinar si usar un puerto dedicado para la replicación entre clústeres es la solución de red entre clústeres correcta, debe tener en cuenta las configuraciones y requisitos como el tipo de LAN, el banda WAN disponible, el intervalo de replicación, la tasa de cambio y el número de puertos.

Configurar las LIF de interconexión de clústeres en puertos de datos compartidos

Las LIF de interconexión de clústeres se pueden configurar en los puertos compartidos con la red de datos. De este modo, se reduce el número de puertos necesarios para interconectar redes.

Pasos
  1. Enumere los puertos del clúster:

    network port show

    Para obtener una sintaxis de comando completa, consulte la página man.

    En el siguiente ejemplo, se muestran los puertos de red en cluster01:

    cluster01::> network port show
                                                                 Speed (Mbps)
    Node   Port      IPspace      Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- ------------ ---------------- ----- ------- ------------
    cluster01-01
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
    cluster01-02
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
  2. Crear LIF de interconexión de clústeres en la SVM del sistema:

    ONTAP 9.6 y posteriores

    Ejecute el comando: network interface create -vserver system_SVM -lif LIF_name -service-policy default-intercluster -home-node node -home-port port -address port_IP -netmask netmask

    ONTAP 9.5 y anteriores

    Ejecute el comando: network interface create -vserver system_SVM -lif LIF_name -role intercluster -home-node node -home-port port -address port_IP -netmask netmask

    Para obtener una sintaxis de comando completa, consulte la página man. En el siguiente ejemplo se crean LIF de interconexión de clústeres cluster01_icl01 y cluster01_icl02:

    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl01 -service-
    policy default-intercluster -home-node cluster01-01 -home-port e0c -address 192.168.1.201
    -netmask 255.255.255.0
    
    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl02 -service-
    policy default-intercluster -home-node cluster01-02 -home-port e0c -address 192.168.1.202
    -netmask 255.255.255.0
  3. Compruebe que se han creado las LIF de interconexión de clústeres:

    ONTAP 9.6 y posteriores

    Ejecute el comando: network interface show -service-policy default-intercluster

    ONTAP 9.5 y anteriores

    Ejecute el comando: network interface show -role intercluster

    Para obtener una sintaxis de comando completa, consulte la página man.

    cluster01::> network interface show -service-policy default-intercluster
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    cluster01
                cluster01_icl01
                           up/up      192.168.1.201/24   cluster01-01  e0c     true
                cluster01_icl02
                           up/up      192.168.1.202/24   cluster01-02  e0c     true
  4. Compruebe que las LIF de interconexión de clústeres son redundantes:

    ONTAP 9.6 y posteriores

    Ejecute el comando: network interface show –service-policy default-intercluster -failover

    ONTAP 9.5 y anteriores

    Ejecute el comando: network interface show -role intercluster -failover

    Para obtener una sintaxis de comando completa, consulte la página man.

    En el siguiente ejemplo, se muestra que las LIF de interconexión de clústeres "cluster01_icl01" y "cluster01_icl02" en el puerto "e0c" conmutarán al puerto "e0d".

    cluster01::> network interface show -service-policy default-intercluster –failover
             Logical         Home                  Failover        Failover
    Vserver  Interface       Node:Port             Policy          Group
    -------- --------------- --------------------- --------------- --------
    cluster01
             cluster01_icl01 cluster01-01:e0c   local-only      192.168.1.201/24
                                Failover Targets: cluster01-01:e0c,
                                                  cluster01-01:e0d
             cluster01_icl02 cluster01-02:e0c   local-only      192.168.1.201/24
                                Failover Targets: cluster01-02:e0c,
                                                  cluster01-02:e0d

Creación de una relación de paridad entre clústeres

Debe crear la relación de paridad entre los clústeres de MetroCluster.

Acerca de esta tarea

Puede utilizar el cluster peer create comando para crear una relación entre iguales entre un clúster local y remoto. Una vez creada la relación de paridad, puede ejecutarse cluster peer create en el clúster remoto para autenticarse en el clúster local.

Antes de empezar
  • Debe haber creado LIF de interconexión de clústeres en todos los nodos de los clústeres que se están interponiendo.

  • Los clústeres deben ejecutar ONTAP 9.3 o una versión posterior.

Pasos
  1. En el clúster de destino, cree una relación entre iguales con el clúster de origen:

    cluster peer create -generate-passphrase -offer-expiration MM/DD/YYYY HH:MM:SS|1…​7days|1…​168hours -peer-addrs peer_LIF_IPs -ipspace ipspace

    Si especifica ambas -generate-passphrase y.. -peer-addrs, Sólo el clúster cuyas LIF de interconexión de clústeres se especifican en -peer-addrs puede utilizar la contraseña generada.

    Puede ignorar la -ipspace Si no está utilizando un espacio IP personalizado. Para obtener una sintaxis de comando completa, consulte la página man.

    En el siguiente ejemplo se crea una relación de paridad de clústeres en un clúster remoto no especificado:

    cluster02::> cluster peer create -generate-passphrase -offer-expiration 2days
    
                         Passphrase: UCa+6lRVICXeL/gq1WrK7ShR
                    Expiration Time: 6/7/2017 08:16:10 EST
      Initial Allowed Vserver Peers: -
                Intercluster LIF IP: 192.140.112.101
                  Peer Cluster Name: Clus_7ShR (temporary generated)
    
    Warning: make a note of the passphrase - it cannot be displayed again.
  2. En el clúster de origen, autentique el clúster de origen con el clúster de destino:

    cluster peer create -peer-addrs peer_LIF_IPs -ipspace ipspace

    Para obtener una sintaxis de comando completa, consulte la página man.

    En el siguiente ejemplo se autentica el clúster local en el clúster remoto en las direcciones IP de LIF entre clústeres "192.140.112.101" y "192.140.112.102":

    cluster01::> cluster peer create -peer-addrs 192.140.112.101,192.140.112.102
    
    Notice: Use a generated passphrase or choose a passphrase of 8 or more characters.
            To ensure the authenticity of the peering relationship, use a phrase or sequence of characters that would be hard to guess.
    
    Enter the passphrase:
    Confirm the passphrase:
    
    Clusters cluster02 and cluster01 are peered.

    Introduzca la frase de acceso para la relación entre iguales cuando se le solicite.

  3. Compruebe que se ha creado la relación de paridad entre clústeres:

    cluster peer show -instance

    cluster01::> cluster peer show -instance
    
                                   Peer Cluster Name: cluster02
                       Remote Intercluster Addresses: 192.140.112.101, 192.140.112.102
                  Availability of the Remote Cluster: Available
                                 Remote Cluster Name: cluster2
                                 Active IP Addresses: 192.140.112.101, 192.140.112.102
                               Cluster Serial Number: 1-80-123456
                      Address Family of Relationship: ipv4
                Authentication Status Administrative: no-authentication
                   Authentication Status Operational: absent
                                    Last Update Time: 02/05 21:05:41
                        IPspace for the Relationship: Default
  4. Compruebe la conectividad y el estado de los nodos en la relación de paridad:

    cluster peer health show

    cluster01::> cluster peer health show
    Node       cluster-Name                Node-Name
                 Ping-Status               RDB-Health Cluster-Health  Avail…
    ---------- --------------------------- ---------  --------------- --------
    cluster01-01
               cluster02                   cluster02-01
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           cluster02-02
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
    cluster01-02
               cluster02                   cluster02-01
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           cluster02-02
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true

Creación de una relación de paridad entre clústeres (ONTAP 9.2 y versiones anteriores)

Puede utilizar el cluster peer create comando para iniciar una solicitud de relación de paridad entre un clúster local y remoto. Después de que el clúster local haya solicitado la relación de paridad, puede ejecutar cluster peer create en el clúster remoto para aceptar la relación.

Antes de empezar
  • Debe haber creado LIF de interconexión de clústeres en cada nodo en los clústeres que se están interponiendo.

  • Los administradores del clúster deben haber acordado la clave de acceso que usará cada clúster para autenticarse con el otro.

Pasos
  1. En el clúster de destino de la protección de datos, cree una relación entre iguales con el clúster de origen de protección de datos:

    cluster peer create -peer-addrs peer_LIF_IPs -ipspace ipspace

    Puede ignorar la opción -ipspace si no está utilizando un espacio IP personalizado. Para obtener una sintaxis de comando completa, consulte la página man.

    En el siguiente ejemplo se crea una relación de paridad de clúster con el clúster remoto en las direcciones IP de LIF de interconexión de clústeres "192.168.2.201" y "192.168.2.202":

    cluster02::> cluster peer create -peer-addrs 192.168.2.201,192.168.2.202
    Enter the passphrase:
    Please enter the passphrase again:

    Introduzca la frase de acceso para la relación entre iguales cuando se le solicite.

  2. En el clúster de origen de protección de datos, autentique el clúster de origen en el clúster de destino:

    cluster peer create -peer-addrs peer_LIF_IPs -ipspace ipspace

    Para obtener una sintaxis de comando completa, consulte la página man.

    En el siguiente ejemplo se autentica el clúster local en el clúster remoto en las direcciones IP de LIF entre clústeres "192.140.112.203" y "192.140.112.204":

    cluster01::> cluster peer create -peer-addrs 192.168.2.203,192.168.2.204
    Please confirm the passphrase:
    Please confirm the passphrase again:

    Introduzca la frase de acceso para la relación entre iguales cuando se le solicite.

  3. Compruebe que se ha creado la relación de paridad entre clústeres:

    cluster peer show –instance

    Para obtener una sintaxis de comando completa, consulte la página man.

    cluster01::> cluster peer show –instance
    Peer Cluster Name: cluster01
    Remote Intercluster Addresses: 192.168.2.201,192.168.2.202
    Availability: Available
    Remote Cluster Name: cluster02
    Active IP Addresses: 192.168.2.201,192.168.2.202
    Cluster Serial Number: 1-80-000013
  4. Compruebe la conectividad y el estado de los nodos en la relación de paridad:

    cluster peer health show`

    Para obtener una sintaxis de comando completa, consulte la página man.

    cluster01::> cluster peer health show
    Node       cluster-Name                Node-Name
                 Ping-Status               RDB-Health Cluster-Health  Avail…
    ---------- --------------------------- ---------  --------------- --------
    cluster01-01
               cluster02                   cluster02-01
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           cluster02-02
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
    cluster01-02
               cluster02                   cluster02-01
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           cluster02-02
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true

Mirroring de los agregados raíz

Para proporcionar protección de datos, debe reflejar los agregados raíz.

Acerca de esta tarea

De forma predeterminada, el agregado raíz se crea como agregado de tipo RAID-DP. Puede cambiar el agregado raíz de RAID-DP a agregado de tipo RAID4. El siguiente comando modifica el agregado raíz para el agregado de tipo RAID4:

storage aggregate modify –aggregate aggr_name -raidtype raid4
Nota En los sistemas que no son ADP, el tipo RAID del agregado se puede modificar desde el RAID-DP predeterminado a RAID4 antes o después de la duplicación del agregado.
Pasos
  1. Reflejar el agregado raíz:

    storage aggregate mirror aggr_name

    El siguiente comando refleja el agregado raíz para Controller_A_1:

    controller_A_1::> storage aggregate mirror aggr0_controller_A_1

    Esto refleja el agregado, por lo que consta de un complejo local y un complejo remoto ubicado en el sitio remoto de MetroCluster.

  2. Repita el paso anterior para cada nodo de la configuración MetroCluster.

Crear un agregado de datos reflejados en cada nodo

Debe crear un agregado de datos reflejados en cada nodo del grupo de recuperación ante desastres.

  • Debe conocer qué unidades o LUN de cabina se utilizarán en el nuevo agregado.

  • Si tiene varios tipos de unidades en el sistema (almacenamiento heterogéneo), debe comprender cómo puede asegurarse de seleccionar el tipo de unidad correcto.

  • Las unidades y los LUN de cabina son propiedad de un nodo específico; cuando se crea un agregado, todas las unidades de ese agregado deben ser propiedad del mismo nodo, que se convierte en el nodo inicial para ese agregado.

  • Los nombres de agregados deben ajustarse al esquema de nomenclatura que se determinó al planificar la configuración de MetroCluster. Consulte "Gestión de discos y agregados".

Pasos
  1. Mostrar una lista de repuestos disponibles:

    storage disk show -spare -owner node_name

  2. Cree el agregado mediante el comando create -mirror true.

    Si ha iniciado sesión en el clúster en la interfaz de gestión del clúster, puede crear un agregado en cualquier nodo del clúster. Para garantizar que el agregado se ha creado en un nodo concreto, utilice -node especifique o especifique las unidades que son propiedad de ese nodo.

    Puede especificar las siguientes opciones:

    • Nodo principal del agregado (es decir, el nodo al que pertenece el agregado en un funcionamiento normal)

    • Lista de unidades específicas o LUN de cabina que se añadirán al agregado

    • Cantidad de unidades que se incluirán

    Nota En la configuración mínima compatible, debe utilizar la force-small-aggregate Opción para permitir la creación de un agregado de tres discos RAID-DP.
    • Estilo de suma de comprobación que se utilizará para el agregado

    • El tipo de unidades que se van a utilizar

    • El tamaño de las unidades que se van a utilizar

    • Conduzca la velocidad que se va a utilizar

    • Tipo de RAID para grupos RAID en el agregado

    • Cantidad máxima de unidades o LUN de cabina que se pueden incluir en un grupo RAID

    • Si se permiten unidades con RPM diferentes

    Para obtener más información acerca de estas opciones, consulte storage aggregate create página de manual.

    El siguiente comando crea un agregado con 10 discos:

    cluster_A::> storage aggregate create aggr1_node_A_1 -diskcount 10 -node node_A_1 -mirror true
    [Job 15] Job is queued: Create aggr1_node_A_1.
    [Job 15] The job is starting.
    [Job 15] Job succeeded: DONE
  3. Compruebe el grupo RAID y las unidades del nuevo agregado:

    storage aggregate show-status -aggregate aggregate-name

Creación de agregados de datos no reflejados

Opcionalmente, puede crear agregados de datos no reflejados para datos que no requieren el mirroring redundante que proporcionan las configuraciones de MetroCluster.

Antes de empezar
  • Debe conocer qué unidades o LUN de cabina se utilizarán en el nuevo agregado.

  • Si tiene varios tipos de unidades en el sistema (almacenamiento heterogéneo), debe comprender cómo verificar que se selecciona el tipo de unidad correcto.

Importante En las configuraciones FC de MetroCluster, los agregados no reflejados solo estarán en línea tras una conmutación de sitios si es posible acceder a los discos remotos del agregado. Si fallan los ISL, es posible que el nodo local no pueda acceder a los datos en los discos remotos sin mirroring. El error de un agregado puede provocar un reinicio del nodo local.
  • Las unidades y los LUN de cabina son propiedad de un nodo específico; cuando se crea un agregado, todas las unidades de ese agregado deben ser propiedad del mismo nodo, que se convierte en el nodo inicial para ese agregado.

Nota Los agregados no reflejados deben ser locales para el nodo a los que pertenecen.
  • Los nombres de agregados deben ajustarse al esquema de nomenclatura que se determinó al planificar la configuración de MetroCluster.

  • Administración de discos y agregados contiene más información sobre el mirroring de agregados.

Pasos
  1. Mostrar una lista de repuestos disponibles:

    storage disk show -spare -owner node_name

  2. Cree el agregado:

    storage aggregate create

    Si ha iniciado sesión en el clúster en la interfaz de gestión del clúster, puede crear un agregado en cualquier nodo del clúster. Para verificar que el agregado se ha creado en un nodo concreto, debe usar el -node especifique o especifique las unidades que son propiedad de ese nodo.

    Puede especificar las siguientes opciones:

    • Nodo principal del agregado (es decir, el nodo al que pertenece el agregado en un funcionamiento normal)

    • Lista de unidades específicas o LUN de cabina que se añadirán al agregado

    • Cantidad de unidades que se incluirán

    • Estilo de suma de comprobación que se utilizará para el agregado

    • El tipo de unidades que se van a utilizar

    • El tamaño de las unidades que se van a utilizar

    • Conduzca la velocidad que se va a utilizar

    • Tipo de RAID para grupos RAID en el agregado

    • Cantidad máxima de unidades o LUN de cabina que se pueden incluir en un grupo RAID

    • Si se permiten unidades con RPM diferentes

    Para obtener más información sobre estas opciones, consulte la página man de creación de agregados de almacenamiento.

    El siguiente comando crea un agregado no reflejado con 10 discos:

    controller_A_1::> storage aggregate create aggr1_controller_A_1 -diskcount 10 -node controller_A_1
    [Job 15] Job is queued: Create aggr1_controller_A_1.
    [Job 15] The job is starting.
    [Job 15] Job succeeded: DONE
  3. Compruebe el grupo RAID y las unidades del nuevo agregado:

    storage aggregate show-status -aggregate aggregate-name

Implementar la configuración de MetroCluster

Debe ejecutar el metrocluster configure Comando para iniciar la protección de datos en una configuración de MetroCluster.

Antes de empezar
  • Debe haber al menos dos agregados de datos reflejados no raíz en cada clúster.

    Los agregados de datos adicionales pueden tener mirroring o no estar reflejados.

    Puede comprobarlo con la storage aggregate show comando.

    Nota Si desea utilizar un solo agregado de datos reflejados, consulte Paso 1 si desea obtener instrucciones.
  • El estado ha-config de las controladoras y el chasis debe ser "mcc".

Acerca de esta tarea

Emita el metrocluster configure De una vez en cualquiera de los nodos, para habilitar la configuración de MetroCluster. No es necesario emitir el comando en cada uno de los sitios o nodos y no importa el nodo o sitio en el que elija ejecutar el comando.

La metrocluster configure El comando empareja automáticamente los dos nodos con el ID de sistema más bajo de cada uno de los dos clústeres como socios de recuperación ante desastres (DR). En una configuración MetroCluster de cuatro nodos, existen dos pares de recuperación ante desastres asociados. El segundo par DR se crea a partir de los dos nodos con ID de sistema superiores.

Nota No debe configurar el Administrador de claves incorporado (OKM) o la gestión de claves externas antes de ejecutar el comando metrocluster configure.
Pasos
  1. Configurar el MetroCluster con el siguiente formato:

    Si la configuración de MetroCluster tiene…​

    Realice lo siguiente…​

    Varios agregados de datos

    Desde el símbolo del sistema de cualquier nodo, configure MetroCluster:

    metrocluster configure node-name

    Un único agregado de datos reflejado

    1. Desde el símbolo del sistema de cualquier nodo, cambie al nivel de privilegio avanzado:

      set -privilege advanced

      Debe responder con y cuando se le pida que continúe en modo avanzado y vea el símbolo del sistema del modo avanzado (*>).

    2. Configure la MetroCluster con el -allow-with-one-aggregate true parámetro:

      metrocluster configure -allow-with-one-aggregate true node-name

    3. Vuelva al nivel de privilegio de administrador:

      set -privilege admin

    Nota Lo mejor es disponer de varios agregados de datos. Si el primer grupo de recuperación ante desastres tiene un solo agregado y desea añadir un grupo de recuperación ante desastres con un agregado, debe mover el volumen de metadatos desde el único agregado de datos. Para obtener más información sobre este procedimiento, consulte "Mover un volumen de metadatos en configuraciones de MetroCluster".

    El siguiente comando habilita la configuración MetroCluster en todos los nodos del grupo DR que contiene Controller_A_1:

    cluster_A::*> metrocluster configure -node-name controller_A_1
    
    [Job 121] Job succeeded: Configure is successful.
  2. Compruebe el estado de la red en el sitio A:

    network port show

    En el ejemplo siguiente se muestra el uso de puerto de red en una configuración de MetroCluster de cuatro nodos:

    cluster_A::> network port show
                                                              Speed (Mbps)
    Node   Port      IPspace   Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- --------- ---------------- ----- ------- ------------
    controller_A_1
           e0a       Cluster   Cluster          up     9000  auto/1000
           e0b       Cluster   Cluster          up     9000  auto/1000
           e0c       Default   Default          up     1500  auto/1000
           e0d       Default   Default          up     1500  auto/1000
           e0e       Default   Default          up     1500  auto/1000
           e0f       Default   Default          up     1500  auto/1000
           e0g       Default   Default          up     1500  auto/1000
    controller_A_2
           e0a       Cluster   Cluster          up     9000  auto/1000
           e0b       Cluster   Cluster          up     9000  auto/1000
           e0c       Default   Default          up     1500  auto/1000
           e0d       Default   Default          up     1500  auto/1000
           e0e       Default   Default          up     1500  auto/1000
           e0f       Default   Default          up     1500  auto/1000
           e0g       Default   Default          up     1500  auto/1000
    14 entries were displayed.
  3. Compruebe la configuración de MetroCluster en ambos sitios de la configuración de MetroCluster.

    1. Verifique la configuración desde el sitio A:

      metrocluster show

      cluster_A::> metrocluster show
      
      Cluster                   Entry Name          State
      ------------------------- ------------------- -----------
       Local: cluster_A         Configuration state configured
                                Mode                normal
                                AUSO Failure Domain auso-on-cluster-disaster
      Remote: cluster_B         Configuration state configured
                                Mode                normal
                                AUSO Failure Domain auso-on-cluster-disaster
    2. Verifique la configuración desde el sitio B:

      metrocluster show

    cluster_B::> metrocluster show
    Cluster                   Entry Name          State
    ------------------------- ------------------- -----------
     Local: cluster_B         Configuration state configured
                              Mode                normal
                              AUSO Failure Domain auso-on-cluster-disaster
    Remote: cluster_A         Configuration state configured
                              Mode                normal
                              AUSO Failure Domain auso-on-cluster-disaster

Configurar la entrega bajo pedido o la entrega fuera de servicio de tramas en el software ONTAP

Debe configurar la entrega bajo pedido (IOD) o la entrega fuera de servicio (OOD) de tramas según la configuración de switch de canal de fibra (FC).

Acerca de esta tarea

Si el switch FC está configurado para IOD, el software ONTAP debe configurarse para IOD. Del mismo modo, si el switch FC está configurado para OOD, ONTAP se debe configurar para OOD.

Nota Es necesario reiniciar la controladora para cambiar la configuración.
Paso
  1. Configure ONTAP para que funcione IOD o OOD de tramas.

    • De forma predeterminada, IOD de tramas está habilitado en ONTAP. Para comprobar los detalles de la configuración:

      1. Entrar al modo avanzado:

        set advanced

      2. Compruebe la configuración:

        metrocluster interconnect adapter show

      mcc4-b12_siteB::*> metrocluster interconnect adapter show
                                   Adapter Link   Is OOD
      Node         Adapter Name    Type    Status Enabled? IP Address  Port Number
      ------------ --------------- ------- ------ -------- ----------- -----------
      mcc4-b1      fcvi_device_0   FC-VI    Up    false    17.0.1.2 	   	6a
      mcc4-b1      fcvi_device_1   FC-VI    Up    false    18.0.0.2   	 	6b
      mcc4-b1      mlx4_0          IB       Down  false    192.0.5.193 	 ib2a
      mcc4-b1      mlx4_0          IB       Up    false    192.0.5.194 	 ib2b
      mcc4-b2      fcvi_device_0   FC-VI    Up    false    17.0.2.2		    6a
      mcc4-b2      fcvi_device_1   FC-VI    Up    false    18.0.1.2    	 6b
      mcc4-b2      mlx4_0          IB       Down  false    192.0.2.9   	 ib2a
      mcc4-b2      mlx4_0          IB       Up    false    192.0.2.10  	 ib2b
      8 entries were displayed.
    • Se deben realizar los siguientes pasos en cada nodo para configurar OOD de tramas:

      1. Entrar al modo avanzado:

        set advanced

      2. Compruebe los ajustes de configuración de MetroCluster:

        metrocluster interconnect adapter show

        mcc4-b12_siteB::*> metrocluster interconnect adapter show
                                     Adapter Link   Is OOD
        Node         Adapter Name    Type    Status Enabled? IP Address  Port Number
        ------------ --------------- ------- ------ -------- ----------- -----------
        mcc4-b1      fcvi_device_0   FC-VI    Up    false    17.0.1.2 	   	6a
        mcc4-b1      fcvi_device_1   FC-VI    Up    false    18.0.0.2   	 	6b
        mcc4-b1      mlx4_0          IB       Down  false    192.0.5.193 	 ib2a
        mcc4-b1      mlx4_0          IB       Up    false    192.0.5.194 	 ib2b
        mcc4-b2      fcvi_device_0   FC-VI    Up    false    17.0.2.2		    6a
        mcc4-b2      fcvi_device_1   FC-VI    Up    false    18.0.1.2    	 6b
        mcc4-b2      mlx4_0          IB       Down  false    192.0.2.9   	 ib2a
        mcc4-b2      mlx4_0          IB       Up    false    192.0.2.10  	 ib2b
        8 entries were displayed.
      3. Activar OOD en el nodo «mccc4-b1» y en el nodo «mcc4-b2»:

        metrocluster interconnect adapter modify -node node_name -is-ood-enabled true

      mcc4-b12_siteB::*> metrocluster interconnect adapter modify -node mcc4-b1 -is-ood-enabled true
      mcc4-b12_siteB::*> metrocluster interconnect adapter modify -node mcc4-b2 -is-ood-enabled true
      1. Reinicie la controladora llevando a cabo una toma de control de alta disponibilidad (HA) en ambas direcciones.

      2. Compruebe la configuración:

        metrocluster interconnect adapter show

    mcc4-b12_siteB::*> metrocluster interconnect adapter show
                                 Adapter Link   Is OOD
    Node         Adapter Name    Type    Status Enabled? IP Address  Port Number
    ------------ --------------- ------- ------ -------- ----------- -----------
    mcc4-b1      fcvi_device_0   FC-VI   Up     true      17.0.1.2   	 6a
    mcc4-b1      fcvi_device_1   FC-VI   Up     true      18.0.0.2    	6b
    mcc4-b1      mlx4_0          IB      Down   false     192.0.5.193 	ib2a
    mcc4-b1      mlx4_0          IB      Up     false     192.0.5.194 	ib2b
    mcc4-b2      fcvi_device_0   FC-VI   Up     true      17.0.2.2    	6a
    mcc4-b2      fcvi_device_1   FC-VI   Up     true      18.0.1.2    	6b
    mcc4-b2      mlx4_0          IB      Down   false     192.0.2.9   	ib2a
    mcc4-b2      mlx4_0          IB      Up     false     192.0.2.10  	ib2b
    8 entries were displayed.

Configuración de SNMPv3 en una configuración MetroCluster

Antes de empezar

Los protocolos de autenticación y privacidad de los switches y del sistema ONTAP deben ser los mismos.

Acerca de esta tarea

ONTAP admite actualmente el cifrado AES-128.

Pasos
  1. Cree un usuario SNMP para cada switch desde el símbolo del sistema de la controladora:

    security login create

    Controller_A_1::> security login create -user-or-group-name snmpv3user -application snmp -authentication-method usm -role none -remote-switch-ipaddress 10.10.10.10
  2. Responda a las siguientes indicaciones según sea necesario en su sitio:

    Enter the authoritative entity's EngineID [remote EngineID]:
    
    Which authentication protocol do you want to choose (none, md5, sha, sha2-256) [none]: sha
    
    Enter the authentication protocol password (minimum 8 characters long):
    
    Enter the authentication protocol password again:
    
    Which privacy protocol do you want to choose (none, des, aes128) [none]: aes128
    
    Enter privacy protocol password (minimum 8 characters long):
    
    Enter privacy protocol password again:
    Nota Puede añadirse el mismo nombre de usuario a distintos switches con diferentes direcciones IP.
  3. Cree un usuario SNMP para el resto de los switches.

    El ejemplo siguiente muestra cómo crear un nombre de usuario para un switch con la dirección IP 10.10.10.11.

    Controller_A_1::> security login create -user-or-group-name snmpv3user -application snmp -authentication-method usm -role none -remote-switch-ipaddress 10.
    10.10.11
  4. Compruebe que hay una entrada de inicio de sesión para cada switch:

    security login show

    Controller_A_1::> security login show -user-or-group-name snmpv3user -fields remote-switch-ipaddress
    
    vserver      user-or-group-name application authentication-method remote-switch-ipaddress
    
    ------------ ------------------ ----------- --------------------- -----------------------
    
    node_A_1 SVM 1 snmpv3user     snmp        usm                   10.10.10.10
    
    node_A_1 SVM 2 snmpv3user     snmp        usm                   10.10.10.11
    
    node_A_1 SVM 3 snmpv3user    snmp        usm                   10.10.10.12
    
    node_A_1 SVM 4 snmpv3user     snmp        usm                   10.10.10.13
    
    4 entries were displayed.
  5. Configure SNMPv3 en los interruptores desde el indicador del conmutador:

    Switches Brocade

    snmpconfig --set snmpv3

    Switches Cisco

    snmp-server user <user_name> auth [md5/sha/sha-256] <auth_password> priv (aes-128) <priv_password>

    Si necesita acceso RO, después de “Usuario (ro):” especifique el “snmpv3user”. En el siguiente ejemplo se utilizan switches Brocade:

    Switch-A1:admin> snmpconfig --set snmpv3
    SNMP Informs Enabled (true, t, false, f): [false] true
    SNMPv3 user configuration(snmp user not configured in FOS user database will have physical AD and admin role as the default):
    User (rw): [snmpadmin1]
    Auth Protocol [MD5(1)/SHA(2)/noAuth(3)]: (1..3) [3]
    Priv Protocol [DES(1)/noPriv(2)/AES128(3)/AES256(4)]): (2..2) [2]
    Engine ID: [00:00:00:00:00:00:00:00:00]
    User (ro): [snmpuser2] snmpv3user
    Auth Protocol [MD5(1)/SHA(2)/noAuth(3)]: (1..3) [2]
    Priv Protocol [DES(1)/noPriv(2)/AES128(3)/AES256(4)]): (2..2) [3]

    El ejemplo muestra cómo configurar un usuario de sólo lectura. Puede ajustar los usuarios de RW si es necesario.

    También debe configurar contraseñas en cuentas sin utilizar para asegurarlas y usar el mejor cifrado disponible en la versión de ONTAP.

  6. Configure el cifrado y las contraseñas en los demás usuarios del switch según sea necesario en su sitio.

Configurar los componentes de MetroCluster para supervisar el estado

Debe realizar algunos pasos de configuración especiales antes de supervisar los componentes en una configuración de MetroCluster.

Acerca de esta tarea

Estas tareas solo se aplican a sistemas con puentes FC a SAS.

A partir de Fabric OS 9,0.1, SNMPv2 no se admite para la supervisión de estado de los switches Brocade, debe utilizar SNMPv3 en su lugar. Si está utilizando SNMPv3, debe configurar SNMPv3 en ONTAP antes de continuar con la siguiente sección. Para obtener información detallada, consulte Configuración de SNMPv3 en una configuración MetroCluster.

Nota
  • Debería colocar puentes y una LIF de gestión de nodos en una red dedicada para evitar interferencias de otras fuentes.

  • Si utiliza una red dedicada para la supervisión del estado, cada nodo debe tener una LIF de gestión de nodos en esa red dedicada.

Configurar los switches FC de MetroCluster para supervisar el estado

En una configuración MetroCluster estructural, debe realizar algunos pasos de configuración adicionales para supervisar los switches FC.

Nota A partir de ONTAP 9.8, el storage switch el comando se sustituye por system switch. Los siguientes pasos muestran el storage switch Pero si ejecuta ONTAP 9.8 o una versión posterior, el system switch el comando es preferido.
Pasos
  1. Añada un switch con una dirección IP a cada nodo MetroCluster:

    El comando que ejecute depende de si está utilizando SNMPv2 o SNMPv3.

    Agregue un interruptor usando SNMPv3:

    storage switch add -address <ip_adddress> -snmp-version SNMPv3 -snmp-community-or-username <SNMP_user_configured_on_the_switch>

    Agregue un interruptor usando SNMPv2:

    storage switch add -address ipaddress

    Este comando debe repetirse en los cuatro switches de la configuración de MetroCluster.

    Nota La supervisión del estado es compatible con los switches FC Brocade 7840 y todas las alertas, excepto NoISLPresent_Alert.

    En el ejemplo siguiente se muestra el comando para añadir un switch con la dirección IP 10.10.10.10:

    controller_A_1::> storage switch add -address 10.10.10.10
  2. Compruebe que todos los conmutadores están configurados correctamente:

    storage switch show

    Es posible que tarde hasta 15 minutos en reflejar todos los datos debido al intervalo de sondeo de 15 minutos.

    En el siguiente ejemplo se muestra el comando dado para verificar que los switches FC de MetroCluster están configurados:

    controller_A_1::> storage switch show
    Fabric           Switch Name     Vendor  Model        Switch WWN       Status
    ---------------- --------------- ------- ------------ ---------------- ------
    1000000533a9e7a6 brcd6505-fcs40  Brocade Brocade6505  1000000533a9e7a6 OK
    1000000533a9e7a6 brcd6505-fcs42  Brocade Brocade6505  1000000533d3660a OK
    1000000533ed94d1 brcd6510-fcs44  Brocade Brocade6510  1000000533eda031 OK
    1000000533ed94d1 brcd6510-fcs45  Brocade Brocade6510  1000000533ed94d1 OK
    4 entries were displayed.
    
    controller_A_1::>

    Si se muestra el nombre a nivel mundial (WWN) del switch, el monitor de estado ONTAP puede ponerse en contacto con el switch FC y supervisarlo.

Información relacionada

"Administración del sistema"

Configurar puentes de FC a SAS para supervisión del estado

En los sistemas que ejecutan versiones de ONTAP anteriores a la 9.8, debe realizar algunos pasos de configuración especiales para supervisar los puentes de FC a SAS en la configuración de MetroCluster.

Acerca de esta tarea
  • Las herramientas de supervisión SNMP de terceros no son compatibles con los puentes FibreBridge.

  • A partir de ONTAP 9.8, los puentes FC a SAS se supervisan a través de conexiones en banda de forma predeterminada, por lo que no se requiere ninguna configuración adicional.

Nota A partir de ONTAP 9.8, el storage bridge el comando se sustituye por system bridge. Los siguientes pasos muestran el storage bridge Pero si ejecuta ONTAP 9.8 o una versión posterior, el system bridge el comando es preferido.
Pasos
  1. Desde el símbolo del sistema del clúster ONTAP, añada el puente a la supervisión del estado:

    1. Agregue el puente utilizando el comando para su versión de ONTAP:

      Versión de ONTAP

      Comando

      9.5 y posterior

      storage bridge add -address 0.0.0.0 -managed-by in-band -name bridge-name

      9.4 y anteriores

      storage bridge add -address bridge-ip-address -name bridge-name

    2. Compruebe que el puente se ha agregado y que está configurado correctamente:

      storage bridge show

      Es posible que tarde hasta 15 minutos en reflejar todos los datos debido al intervalo de sondeo. El monitor de estado de ONTAP puede contactar y supervisar el puente si el valor de la columna "Estado" es "correcto", y se muestra otra información, como el nombre mundial (WWN).

      En el siguiente ejemplo, se muestra que están configurados los puentes de FC a SAS:

    controller_A_1::> storage bridge show
    
    Bridge              Symbolic Name Is Monitored  Monitor Status  Vendor Model                Bridge WWN
    ------------------  ------------- ------------  --------------  ------ -----------------    ----------
    ATTO_10.10.20.10  atto01        true          ok              Atto   FibreBridge 7500N   	20000010867038c0
    ATTO_10.10.20.11  atto02        true          ok              Atto   FibreBridge 7500N   	20000010867033c0
    ATTO_10.10.20.12  atto03        true          ok              Atto   FibreBridge 7500N   	20000010867030c0
    ATTO_10.10.20.13  atto04        true          ok              Atto   FibreBridge 7500N   	2000001086703b80
    
    4 entries were displayed
    
     controller_A_1::>

Comprobar la configuración de MetroCluster

Puede comprobar que los componentes y las relaciones de la configuración de MetroCluster funcionan correctamente.

Debe hacer una comprobación después de la configuración inicial y después de realizar cualquier cambio en la configuración de MetroCluster. También debe hacer una comprobación antes de una operación de conmutación negociada (planificada) o de conmutación de estado.

Acerca de esta tarea

Si la metrocluster check run el comando se emite dos veces en un corto tiempo en uno de los clústeres o en ambos, se puede producir un conflicto y es posible que el comando no recopile todos los datos. Posteriormente metrocluster check show a continuación, los comandos no muestran el resultado esperado.

Pasos
  1. Compruebe la configuración:

    metrocluster check run

    El comando se ejecuta como un trabajo en segundo plano y es posible que no se complete inmediatamente.

    cluster_A::> metrocluster check run
    The operation has been started and is running in the background. Wait for
    it to complete and run "metrocluster check show" to view the results. To
    check the status of the running metrocluster check operation, use the command,
    "metrocluster operation history show -job-id 2245"
    cluster_A::> metrocluster check show
    
    Component           Result
    ------------------- ---------
    nodes               ok
    lifs                ok
    config-replication  ok
    aggregates          ok
    clusters            ok
    connections         ok
    volumes             ok
    7 entries were displayed.
  2. Mostrar resultados más detallados de los más recientes metrocluster check run comando:

    metrocluster check aggregate show

    metrocluster check cluster show

    metrocluster check config-replication show

    metrocluster check lif show

    metrocluster check node show

    Nota La metrocluster check show los comandos muestran los resultados de los más recientes metrocluster check run comando. Siempre debe ejecutar el metrocluster check run antes de utilizar el metrocluster check show comandos para que la información mostrada sea actual.

    En el siguiente ejemplo se muestra el metrocluster check aggregate show Resultado del comando para una configuración de MetroCluster de cuatro nodos en buen estado:

    cluster_A::> metrocluster check aggregate show
    
    Last Checked On: 8/5/2014 00:42:58
    
    Node                  Aggregate                  Check                      Result
    ---------------       --------------------       ---------------------      ---------
    controller_A_1        controller_A_1_aggr0
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_1_aggr1
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_1_aggr2
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
    
    
    controller_A_2        controller_A_2_aggr0
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_2_aggr1
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_2_aggr2
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
    
    18 entries were displayed.

    En el siguiente ejemplo se muestra el metrocluster check cluster show Resultado del comando para una configuración de MetroCluster de cuatro nodos en buen estado. Indica que los clústeres están listos para ejecutar una conmutación de sitios negociada, si es necesario.

    Last Checked On: 9/13/2017 20:47:04
    
    Cluster               Check                           Result
    --------------------- ------------------------------- ---------
    mccint-fas9000-0102
                          negotiated-switchover-ready     not-applicable
                          switchback-ready                not-applicable
                          job-schedules                   ok
                          licenses                        ok
                          periodic-check-enabled          ok
    mccint-fas9000-0304
                          negotiated-switchover-ready     not-applicable
                          switchback-ready                not-applicable
                          job-schedules                   ok
                          licenses                        ok
                          periodic-check-enabled          ok
    10 entries were displayed.
Información relacionada

"Gestión de discos y agregados"

Comprobación de errores de configuración de MetroCluster con Config Advisor

Puede ir al sitio de soporte de NetApp y descargar la herramienta Config Advisor para comprobar si hay errores de configuración comunes.

Acerca de esta tarea

Config Advisor es una herramienta de validación de configuración y comprobación del estado. Puede implementarlo tanto en sitios seguros como en sitios no seguros para la recopilación de datos y el análisis del sistema.

Nota El soporte para Config Advisor es limitado y solo está disponible en línea.
Pasos
  1. Vaya a la página de descarga de Config Advisor y descargue la herramienta.

  2. Ejecute Config Advisor, revise el resultado de la herramienta y siga las recomendaciones del resultado para solucionar los problemas detectados.

Verificación del funcionamiento de la alta disponibilidad local

Si tiene una configuración MetroCluster de cuatro nodos, debe verificar el funcionamiento de las parejas de alta disponibilidad locales en la configuración de MetroCluster. No es necesario para configuraciones de dos nodos.

Acerca de esta tarea

Las configuraciones de MetroCluster de dos nodos no están compuestas por parejas de alta disponibilidad locales y esta tarea no se aplica.

Los ejemplos de esta tarea utilizan convenciones de nomenclatura estándar:

  • Cluster_a

    • Controller_A_1

    • Controller_A_2

  • Cluster_B

    • Controller_B_1

    • Controller_B_2

Pasos
  1. En cluster_A, realice una conmutación al nodo de respaldo y una devolución en ambas direcciones.

    1. Confirme que la recuperación tras fallos del almacenamiento está activada:

      storage failover show

      La salida debe indicar que la toma de control es posible para ambos nodos:

      cluster_A::> storage failover show
                                    Takeover
      Node           Partner        Possible State Description
      -------------- -------------- -------- ---------------------------
      controller_A_1 controller_A_2 true     Connected to controller_A_2
      
      controller_A_2 controller_A_1 true     Connected to controller_A_1
      2 entries were displayed.
    2. Asuma el control Controller_A_2 desde Controller_A_1:

      storage failover takeover controller_A_2

      Puede utilizar el storage failover show-takeover comando para supervisar el progreso de la operación de toma de control.

    3. Confirme que se ha completado la toma de control:

      storage failover show

      El resultado debe indicar que Controller_A_1 está en estado de toma de control, lo que significa que ha tomado el control de su partner de alta disponibilidad:

      cluster_A::> storage failover show
                                    Takeover
      Node           Partner        Possible State Description
      -------------- -------------- -------- -----------------
      controller_A_1 controller_A_2 false    In takeover
      
      controller_A_2 controller_A_1 -        Unknown
      2 entries were displayed.
    4. Devolver Controller_A_2:

      storage failover giveback controller_A_2

      Puede utilizar el storage failover show-giveback comando para supervisar el progreso de la operación de devolución del nodo primario.

    5. Confirme que la recuperación tras fallos del almacenamiento volvió a su estado normal:

      storage failover show

      La salida debe indicar que la toma de control es posible para ambos nodos:

    cluster_A::> storage failover show
                                  Takeover
    Node           Partner        Possible State Description
    -------------- -------------- -------- ---------------------------
    controller_A_1 controller_A_2 true     Connected to controller_A_2
    
    controller_A_2 controller_A_1 true     Connected to controller_A_1
    2 entries were displayed.
    1. Repita los subpasos anteriores, esta vez tomando el control Controller_A_1 de Controller_A_2.

  2. Repita los pasos anteriores en cluster_B.

Información relacionada

"Configuración de alta disponibilidad"

Verificación de la conmutación de sitios, el reparación y la conmutación de estado

Debe verificar las operaciones de conmutación de sitios, reparación y conmutación de estado de la configuración de MetroCluster.

Paso
  1. Utilice los procedimientos para la conmutación negociada, la reparación y la conmutación de estado que se mencionan en el "Recuperación tras un desastre".

Proteger archivos de copia de seguridad de configuración

Puede proporcionar una protección adicional para los archivos de backup de configuración del clúster especificando una URL remota (HTTP o FTP) en la que se carguen los archivos de backup de configuración además de las ubicaciones predeterminadas en el clúster local.

Paso
  1. Establezca la dirección URL del destino remoto para los archivos de copia de seguridad de configuración:

    system configuration backup settings modify URL-of-destination

    La "Gestión del clúster con la CLI" Contiene información adicional bajo la sección Administrar copias de seguridad de configuración.