Skip to main content
NetApp Solutions
Se proporciona el idioma español mediante traducción automática para su comodidad. En caso de alguna inconsistencia, el inglés precede al español.

TR-4979: Oracle simplificado y autogestionado en VMware Cloud on AWS con FSx ONTAP montado en invitado

Colaboradores

Allen Cao, Niyaz Mohamed, NetApp

Esta solución ofrece información general y detallada sobre la implementación y la protección de Oracle en VMware Cloud in AWS con FSx ONTAP como almacenamiento de base de datos principal y la base de datos de Oracle configurada en un reinicio independiente usando asm como administrador de volúmenes.

Específico

Las empresas utilizan Oracle en VMware en centros de datos privados durante décadas. VMware Cloud (VMC) en AWS proporciona una solución de solo pulsar un botón para llevar el software de centro de datos definido por software (SDDC) de clase empresarial de VMware a la infraestructura dedicada, elástica y de configuración básica de la nube de AWS. AWS FSx ONTAP ofrece almacenamiento premium para VMC SDDC y un Data Fabric que permite a los clientes ejecutar aplicaciones críticas para el negocio, como Oracle, en entornos de nube privada, pública e híbrida basados en vSphere®, con acceso optimizado a los servicios de AWS. Ya sea una carga de trabajo de Oracle nueva o existente, VMC en AWS proporciona un entorno Oracle familiar, simplificado y autogestionado en VMware con todas las ventajas de la nube de AWS a la vez que aplaza toda la gestión y optimización de la plataforma para VMware.

Esta documentación muestra la puesta en marcha y la protección de una base de datos de Oracle en un entorno de VMC con Amazon FSx ONTAP como almacenamiento de base de datos principal. Las bases de datos de Oracle pueden implementarse en almacenamiento VMC on FSx como LUN montados directamente en los invitados de máquinas virtuales o discos de almacenes de datos VMware VMDK montados en NFS. Este informe técnico se centra en la puesta en marcha de las bases de datos de Oracle como almacenamiento FSx directo montado en invitado para máquinas virtuales en el clúster de VMC con el protocolo iSCSI y ASM de Oracle. También mostramos cómo usar la herramienta de interfaz de usuario de NetApp SnapCenter para realizar backups, restaurar y clonar una base de datos Oracle para prueba y desarrollo u otros casos prácticos para que funcione una base de datos con un uso eficiente del almacenamiento en VMC en AWS.

Esta solución aborda los siguientes casos prácticos:

  • Puesta en marcha de bases de datos de Oracle en VMC en AWS con Amazon FSx ONTAP como almacenamiento de base de datos principal

  • Backup y restauración de bases de datos de Oracle en VMC en AWS con la herramienta NetApp SnapCenter

  • Clone bases de datos de Oracle para prueba y desarrollo u otros casos prácticos en VMC en AWS mediante la herramienta NetApp SnapCenter

Destinatarios

Esta solución está dirigida a las siguientes personas:

  • Un administrador de bases de datos que desea poner en marcha Oracle en VMC en AWS con Amazon FSx ONTAP

  • Un arquitecto de la solución de bases de datos al que le gustaría probar las cargas de trabajo de Oracle en VMC en el cloud de AWS

  • Un administrador de almacenamiento que quisiera poner en marcha y gestionar una base de datos de Oracle puesta en marcha en VMC en AWS con Amazon FSx ONTAP

  • Propietario de una aplicación que desea poner en marcha una base de datos de Oracle en VMC en el cloud de AWS

Entorno de prueba y validación de la solución

Las pruebas y la validación de esta solución se realizaron en un entorno de laboratorio con VMC en AWS que puede que no concuerde con el entorno de puesta en marcha final. Para obtener más información, consulte la sección Factores clave a tener en cuenta la puesta en marcha.

Arquitectura

Esta imagen proporciona una imagen detallada de la configuración de la puesta en marcha de Oracle en el cloud público de AWS con iSCSI y ASM.

Componentes de hardware y software

Hardware

Almacenamiento FSX ONTAP

Versión actual ofrecida por AWS

Un clúster de alta disponibilidad de FSx ONTAP en la misma VPC y zona de disponibilidad que VMC

Clúster SDDC VMC

Nodo único Amazon EC2 i3.metal/CPU Intel Xeon E5-2686, 36 núcleos/512G GB de RAM

10,37 TB de almacenamiento vSAN

Software

Red Hat Linux

Kernel RHEL-8,6, 4.18.0-372,9.1.el8.x86_64

Suscripción RedHat implementada para pruebas

Servidor Windows Server

2022 Estándar, 10.0.20348 Construcción 20348

Hospedando servidor SnapCenter

Infraestructura de Grid de Oracle

Versión 19.18

Parche RU aplicado p34762026_190000_Linux-x86-64.zip

Base de datos Oracle

Versión 19.18

Parche RU aplicado p34765931_190000_Linux-x86-64.zip

Oracle OPatch

Versión 12.2.0.1.36

Último parche p6880880_190000_Linux-x86-64.zip

Servidor SnapCenter

Versión 4.9P1

Implementación de grupos de trabajo

Backup y recuperación de datos de BlueXP para máquinas virtuales

Versión 1,0

Puesta en marcha como máquina virtual del complemento de ova vSphere

VSphere de VMware

Versión 8.0.1.00300

VMware Tools, Version: 11365 - Linux, 12352 - Windows

Abra JDK

Versión java-1,8.0-openjdk.x86_64

Requisito de complemento de SnapCenter en equipos virtuales de bases de datos

Configuración de base de datos de Oracle en VMC en AWS

Servidor

Base de datos

Almacenamiento de DB

ora_01

cdb1(cdb1_pdb1,cdb1_pdb2,cdb1_pdb3)

Almacén de datos VMDK en FSx ONTAP

ora_01

cdb2(cdb2_pdb)

Almacén de datos VMDK en FSx ONTAP

ora_02

cdb3(cdb3_pdb1,cdb3_pdb2,cdb3_pdb3)

Invitado directo montado FSX ONTAP

ora_02

cdb4(cdb4_pdb)

Invitado directo montado FSX ONTAP

Factores clave a tener en cuenta la puesta en marcha

  • Conectividad FSX a VMC. Cuando implementa SDDC en VMware Cloud en AWS, se crea dentro de una cuenta de AWS y una VPC dedicada a su organización y gestionada por VMware. También debe conectar el SDDC a una cuenta de AWS que le pertenezca, denominada cuenta de AWS del cliente. Esta conexión permite a su SDDC acceder a los servicios de AWS pertenecientes a su cuenta de cliente. FSX ONTAP es un servicio de AWS implementado en tu cuenta de cliente. Una vez que VMC SDDC está conectado a tu cuenta de cliente, el almacenamiento FSx está disponible para máquinas virtuales en VMC SDDC para montaje «guest» directo.

  • FSX storage HA clusters despliegue de una o varias zonas. En estas pruebas y validaciones, pusimos en marcha un clúster de alta disponibilidad de FSx en una única zona de disponibilidad de AWS. NetApp también recomienda poner en marcha FSx ONTAP y VMware Cloud en AWS en la misma zona de disponibilidad para conseguir un mejor rendimiento y evitar los cargos de transferencia de datos entre zonas de disponibilidad.

  • Tamaño del clúster de almacenamiento FSX. Un sistema de archivos de almacenamiento de Amazon FSx ONTAP proporciona hasta 160.000 000 IOPS de SSD sin configurar, hasta 4Gbps Gbps de rendimiento y una capacidad máxima de 192TiB TB. Sin embargo, puede ajustar el tamaño del clúster en términos de IOPS aprovisionadas, rendimiento y límite de almacenamiento (mínimo de 1.024 GiB) en función de sus requisitos reales en el momento de la puesta en marcha. La capacidad se puede ajustar de forma dinámica y sobre la marcha sin que se vea afectada la disponibilidad de las aplicaciones.

  • Diseño de datos y registros de Oracle. En nuestras pruebas y validaciones, pusimos en marcha dos grupos de discos de ASM para los datos y los registros respectivamente. Dentro del grupo de discos +DATA asm, aprovisionamos cuatro LUN en un volumen de datos. Dentro del grupo de discos asm +LOGS, aprovisionamos dos LUN en un volumen de registro. En general, múltiples LUN dispuestas en un volumen de Amazon FSx ONTAP ofrecen un mejor rendimiento.

  • Configuración iSCSI. Las VM de base de datos en VMC SDDC se conectan al almacenamiento FSX con el protocolo iSCSI. Es importante medir el requisito de rendimiento máximo de E/S de la base de datos Oracle analizando cuidadosamente el informe de Oracle AWR para determinar los requisitos de rendimiento de tráfico de iSCSI y de la aplicación. NetApp también recomienda asignar cuatro conexiones iSCSI a extremos FSX iSCSI con multivía correctamente configurada.

  • Nivel de redundancia de Oracle ASM para usar para cada grupo de discos de Oracle ASM que cree. Debido a que FSX ONTAP ya refleja el almacenamiento en el nivel de cluster FSX, debe usar Redundancia externa, lo que significa que la opción no permite que Oracle ASM refleje el contenido del grupo de discos.

  • Copia de seguridad de la base de datos. NetApp proporciona un paquete de software SnapCenter para copia de seguridad, restauración y clonación de bases de datos con una interfaz de interfaz de usuario fácil de usar. NetApp recomienda implantar esta herramienta de gestión para conseguir un backup de snapshot rápido (de menos de un minuto), una restauración rápida de base de datos y una clonación de la base de datos.

Puesta en marcha de la solución

En las siguientes secciones se proporcionan procedimientos paso a paso para la implementación de Oracle 19C en VMC en AWS con almacenamiento FSx ONTAP montado directamente en DB VM en una configuración de reinicio de un solo nodo con Oracle ASM como administrador de volúmenes de base de datos.

Requisitos previos para la implementación

Details

La implementación requiere los siguientes requisitos previos.

  1. Se ha creado un centro de datos definido mediante software (SDDC) con VMware Cloud en AWS. Para obtener instrucciones detalladas sobre cómo crear un SDDC en VMC, consulte la documentación de VMware "Introducción a VMware Cloud en AWS"

  2. Se configuró una cuenta de AWS y se crearon el VPC y los segmentos de red necesarios en la cuenta de AWS. La cuenta de AWS está vinculada a su SDDC VMC.

  3. Desde la consola AWS EC2, implementar clústeres de alta disponibilidad de almacenamiento de Amazon FSx ONTAP para alojar los volúmenes de la base de datos de Oracle. Si no estás familiarizado con la puesta en marcha del almacenamiento FSx, consulta la documentación "Creación de sistemas de archivos FSX ONTAP" para obtener instrucciones paso a paso.

  4. El paso anterior se puede realizar con el siguiente kit de herramientas de automatización de Terraform, que crea una instancia EC2 como host de salto para SDDC en acceso VMC a través de SSH y un sistema de archivos FSX. Revise las instrucciones detenidamente y cambie las variables para adaptarlas a su entorno antes de ejecutarlas.

    git clone https://github.com/NetApp-Automation/na_aws_fsx_ec2_deploy.git
  5. Crea máquinas virtuales en VMware SDDC en AWS para alojar el entorno de Oracle para implementarlo en VMC. En nuestra demostración, hemos creado dos equipos virtuales Linux como servidores de base de datos Oracle, un servidor Windows para el servidor SnapCenter y un servidor Linux opcional como controladora Ansible para una instalación o una configuración Oracle automatizadas si así se desea. A continuación se muestra una instantánea del entorno de laboratorio para la validación de la solución.

    Captura de pantalla en la que se muestra el entorno de prueba de SDDC de VMC.

  6. Opcionalmente, NetApp también proporciona varios kits de herramientas de automatización para ejecutar la implementación y la configuración de Oracle cuando sea necesario. Consulte "Kits de herramientas de automatización DE BASES DE DATOS" si quiere más información.

Nota Asegúrese de haber asignado al menos 50g en el volumen raíz de Oracle VM para tener espacio suficiente para almacenar en zona intermedia los archivos de instalación de Oracle.

Configuración del núcleo de VM de BASE DE DATOS

Details

Con los requisitos previos aprovisionados, inicie sesión en el equipo virtual Oracle como usuario administrador a través de SSH y sudo al usuario raíz para configurar el núcleo Linux para la instalación de Oracle. Los archivos de instalación de Oracle se pueden almacenar en zona intermedia en un bloque de AWS S3 y transferir a la máquina virtual.

  1. Crear un directorio provisional /tmp/archive y establezca la 777 permiso.

    mkdir /tmp/archive
    chmod 777 /tmp/archive
  2. Descargue y prepare los archivos de instalación binarios de Oracle y otros archivos RPM necesarios en el /tmp/archive directorio.

    Consulte la siguiente lista de archivos de instalación que se deben incluir en la /tmp/archive En la VM de base de datos.

    [admin@ora_02 ~]$ ls -l /tmp/archive/
    total 10539364
    -rw-rw-r--. 1 admin  admin         19112 Oct  4 17:04 compat-libcap1-1.10-7.el7.x86_64.rpm
    -rw-rw-r--. 1 admin  admin    3059705302 Oct  4 17:10 LINUX.X64_193000_db_home.zip
    -rw-rw-r--. 1 admin  admin    2889184573 Oct  4 17:11 LINUX.X64_193000_grid_home.zip
    -rw-rw-r--. 1 admin  admin        589145 Oct  4 17:04 netapp_linux_unified_host_utilities-7-1.x86_64.rpm
    -rw-rw-r--. 1 admin  admin         31828 Oct  4 17:04 oracle-database-preinstall-19c-1.0-2.el8.x86_64.rpm
    -rw-rw-r--. 1 admin  admin    2872741741 Oct  4 17:12 p34762026_190000_Linux-x86-64.zip
    -rw-rw-r--. 1 admin  admin    1843577895 Oct  4 17:13 p34765931_190000_Linux-x86-64.zip
    -rw-rw-r--. 1 admin  admin     124347218 Oct  4 17:13 p6880880_190000_Linux-x86-64.zip
    -rw-rw-r--. 1 admin  admin        257136 Oct  4 17:04 policycoreutils-python-utils-2.9-9.el8.noarch.rpm
    [admin@ora_02 ~]$
  3. Instalar Oracle 19c preinstall RPM, que cumple la mayoría de los requisitos de configuración del kernel.

    yum install /tmp/archive/oracle-database-preinstall-19c-1.0-2.el8.x86_64.rpm
  4. Descargue e instale lo que falta compat-libcap1 En Linux 8.

    yum install /tmp/archive/compat-libcap1-1.10-7.el7.x86_64.rpm
  5. En NetApp, descargue e instale las utilidades del host de NetApp.

    yum install /tmp/archive/netapp_linux_unified_host_utilities-7-1.x86_64.rpm
  6. Instale policycoreutils-python-utils.

    yum install /tmp/archive/policycoreutils-python-utils-2.9-9.el8.noarch.rpm
  7. Instale JDK abierto versión 1.8.

    yum install java-1.8.0-openjdk.x86_64
  8. Instale las utilidades del iniciador iSCSI.

    yum install iscsi-initiator-utils
  9. Instale SG3_utils.

    yum install sg3_utils
  10. Instale device-mapper-multipath.

    yum install device-mapper-multipath
  11. Desactive hugepages transparentes en el sistema actual.

    echo never > /sys/kernel/mm/transparent_hugepage/enabled
    echo never > /sys/kernel/mm/transparent_hugepage/defrag
  12. Añada las siguientes líneas en /etc/rc.local para desactivarla transparent_hugepage después del reinicio.

    vi /etc/rc.local
      # Disable transparent hugepages
              if test -f /sys/kernel/mm/transparent_hugepage/enabled; then
                echo never > /sys/kernel/mm/transparent_hugepage/enabled
              fi
              if test -f /sys/kernel/mm/transparent_hugepage/defrag; then
                echo never > /sys/kernel/mm/transparent_hugepage/defrag
              fi
  13. Desactive selinux cambiando SELINUX=enforcing para SELINUX=disabled. Debe reiniciar el host para que el cambio sea efectivo.

    vi /etc/sysconfig/selinux
  14. Añada las siguientes líneas a. limit.conf para definir el límite del descriptor de archivo y el tamaño de pila.

    vi /etc/security/limits.conf
    *               hard    nofile          65536
    *               soft    stack           10240
  15. Agregue espacio de intercambio a la VM de la base de datos si no hay espacio de intercambio configurado con esta instrucción: "¿Cómo puedo asignar memoria para que funcione como espacio de intercambio en una instancia de Amazon EC2 utilizando un archivo de intercambio?" La cantidad exacta de espacio que se debe agregar depende del tamaño de RAM hasta 16 GB.

  16. Cambiar node.session.timeo.replacement_timeout en la iscsi.conf archivo de configuración de 120 a 5 segundos.

    vi /etc/iscsi/iscsid.conf
  17. Habilite e inicie el servicio iSCSI en la instancia de EC2.

    systemctl enable iscsid
    systemctl start iscsid
  18. Recupere la dirección del iniciador de iSCSI que se usará para el mapa de LUN de la base de datos.

    cat /etc/iscsi/initiatorname.iscsi
  19. Agregue los grupos de asm para el usuario de gestión de asm (oracle).

    groupadd asmadmin
    groupadd asmdba
    groupadd asmoper
  20. Modifique el usuario oracle para agregar grupos de asm como grupos secundarios (el usuario oracle se debe haber creado después de la instalación de RPM previa a Oracle).

    usermod -a -G asmadmin oracle
    usermod -a -G asmdba oracle
    usermod -a -G asmoper oracle
  21. Detenga y desactive el firewall de Linux si está activo.

    systemctl stop firewalld
    systemctl disable firewalld
  22. Habilite sudo sin contraseña para el usuario administrador anulando el comentario # %wheel ALL=(ALL) NOPASSWD: ALL línea en el archivo /etc/sudoers. Cambie el permiso de archivo para realizar la edición.

    chmod 640 /etc/sudoers
    vi /etc/sudoers
    chmod 440 /etc/sudoers
  23. Reinicie la instancia de EC2.

Aprovisione y asigne LUN de FSx ONTAP a la máquina virtual de base de datos

Details

Aprovisione tres volúmenes de la línea de comandos iniciando sesión en el clúster FSx como usuario fsxadmin a través de la IP de gestión del clúster ssh y FSx. Crear LUN dentro de los volúmenes para alojar los archivos binarios, de datos y de registros de la base de datos de Oracle.

  1. Inicie sesión en el clúster FSX a través de SSH como usuario fsxadmin.

    ssh fsxadmin@10.49.0.74
  2. Ejecute el comando siguiente para crear un volumen para el binario de Oracle.

    vol create -volume ora_02_biny -aggregate aggr1 -size 50G -state online  -type RW -snapshot-policy none -tiering-policy snapshot-only
  3. Ejecute el siguiente comando para crear un volumen para los datos de Oracle.

    vol create -volume ora_02_data -aggregate aggr1 -size 100G -state online  -type RW -snapshot-policy none -tiering-policy snapshot-only
  4. Ejecute el siguiente comando para crear un volumen para los registros de Oracle.

    vol create -volume ora_02_logs -aggregate aggr1 -size 100G -state online  -type RW -snapshot-policy none -tiering-policy snapshot-only
  5. Valide los volúmenes creados.

    vol show ora*

    Resultado del comando:

    FsxId0c00cec8dad373fd1::> vol show ora*
    Vserver   Volume       Aggregate    State      Type       Size  Available Used%
    --------- ------------ ------------ ---------- ---- ---------- ---------- -----
    nim       ora_02_biny  aggr1        online     RW         50GB    22.98GB   51%
    nim       ora_02_data  aggr1        online     RW        100GB    18.53GB   80%
    nim       ora_02_logs  aggr1        online     RW         50GB     7.98GB   83%
  6. Cree un LUN binario dentro del volumen binario de la base de datos.

    lun create -path /vol/ora_02_biny/ora_02_biny_01 -size 40G -ostype linux
  7. Crear LUN de datos en el volumen de datos de la base de datos.

    lun create -path /vol/ora_02_data/ora_02_data_01 -size 20G -ostype linux
    lun create -path /vol/ora_02_data/ora_02_data_02 -size 20G -ostype linux
    lun create -path /vol/ora_02_data/ora_02_data_03 -size 20G -ostype linux
    lun create -path /vol/ora_02_data/ora_02_data_04 -size 20G -ostype linux
  8. Crear LUN de registro dentro del volumen de registros de la base de datos.

    lun create -path /vol/ora_02_logs/ora_02_logs_01 -size 40G -ostype linux
    lun create -path /vol/ora_02_logs/ora_02_logs_02 -size 40G -ostype linux
  9. Cree un igroup para la instancia de EC2 con el iniciador recuperado del paso 14 de la configuración de kernel de EC2 anterior.

    igroup create -igroup ora_02 -protocol iscsi -ostype linux -initiator iqn.1994-05.com.redhat:f65fed7641c2
  10. Asigne las LUN al igroup creado anteriormente. Incremente el ID de LUN de forma secuencial para cada LUN adicional.

    lun map -path /vol/ora_02_biny/ora_02_biny_01 -igroup ora_02 -vserver svm_ora -lun-id 0
    lun map -path /vol/ora_02_data/ora_02_data_01 -igroup ora_02 -vserver svm_ora -lun-id 1
    lun map -path /vol/ora_02_data/ora_02_data_02 -igroup ora_02 -vserver svm_ora -lun-id 2
    lun map -path /vol/ora_02_data/ora_02_data_03 -igroup ora_02 -vserver svm_ora -lun-id 3
    lun map -path /vol/ora_02_data/ora_02_data_04 -igroup ora_02 -vserver svm_ora -lun-id 4
    lun map -path /vol/ora_02_logs/ora_02_logs_01 -igroup ora_02 -vserver svm_ora -lun-id 5
    lun map -path /vol/ora_02_logs/ora_02_logs_02 -igroup ora_02 -vserver svm_ora -lun-id 6
  11. Validar el mapa de LUN.

    mapping show

    Se espera que esta declaración devuelva:

    FsxId0c00cec8dad373fd1::> mapping show
      (lun mapping show)
    Vserver    Path                                      Igroup   LUN ID  Protocol
    ---------- ----------------------------------------  -------  ------  --------
    nim        /vol/ora_02_biny/ora_02_u01_01            ora_02        0  iscsi
    nim        /vol/ora_02_data/ora_02_u02_01            ora_02        1  iscsi
    nim        /vol/ora_02_data/ora_02_u02_02            ora_02        2  iscsi
    nim        /vol/ora_02_data/ora_02_u02_03            ora_02        3  iscsi
    nim        /vol/ora_02_data/ora_02_u02_04            ora_02        4  iscsi
    nim        /vol/ora_02_logs/ora_02_u03_01            ora_02        5  iscsi
    nim        /vol/ora_02_logs/ora_02_u03_02            ora_02        6  iscsi

Configuración de almacenamiento de máquina virtual de BASE DE DATOS

Details

Ahora, importa y configura el almacenamiento de FSx ONTAP para la infraestructura Grid de Oracle y la instalación de bases de datos en la máquina virtual de base de datos de VMC.

  1. Inicie sesión en la máquina virtual de la base de datos a través de SSH como usuario administrador a través de Putty desde el servidor de Windows jump.

  2. Detecte los extremos iSCSI del FSX mediante cualquiera de las direcciones IP de iSCSI de SVM. Cambiar a la dirección de portal específica del entorno.

    sudo iscsiadm iscsiadm --mode discovery --op update --type sendtargets --portal 10.49.0.12
  3. Para establecer las sesiones iSCSI, inicie sesión en cada destino.

    sudo iscsiadm --mode node -l all

    El resultado esperado del comando es:

    [ec2-user@ip-172-30-15-58 ~]$ sudo iscsiadm --mode node -l all
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.12,3260]
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.186,3260]
    Login to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.12,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.186,3260] successful.
  4. Ver y validar una lista de sesiones iSCSI activas.

    sudo iscsiadm --mode session

    Devuelve las sesiones iSCSI.

    [ec2-user@ip-172-30-15-58 ~]$ sudo iscsiadm --mode session
    tcp: [1] 10.49.0.186:3260,1028 iqn.1992-08.com.netapp:sn.545a38bf06ac11ee8503e395ab90d704:vs.3 (non-flash)
    tcp: [2] 10.49.0.12:3260,1029 iqn.1992-08.com.netapp:sn.545a38bf06ac11ee8503e395ab90d704:vs.3 (non-flash)
  5. Compruebe que las LUN se han importado al host.

    sudo sanlun lun show

    Esto devolverá una lista de LUN de Oracle de FSX.

    [admin@ora_02 ~]$ sudo sanlun lun show
    controller(7mode/E-Series)/                                                  device          host                  lun
    vserver(cDOT/FlashRay)        lun-pathname                                   filename        adapter    protocol   size    product
    -------------------------------------------------------------------------------------------------------------------------------
    nim                           /vol/ora_02_logs/ora_02_u03_02                 /dev/sdo        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_logs/ora_02_u03_01                 /dev/sdn        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_04                 /dev/sdm        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_03                 /dev/sdl        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_02                 /dev/sdk        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_01                 /dev/sdj        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_biny/ora_02_u01_01                 /dev/sdi        host34     iSCSI      40g     cDOT
    nim                           /vol/ora_02_logs/ora_02_u03_02                 /dev/sdh        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_logs/ora_02_u03_01                 /dev/sdg        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_04                 /dev/sdf        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_03                 /dev/sde        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_02                 /dev/sdd        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_01                 /dev/sdc        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_biny/ora_02_u01_01                 /dev/sdb        host33     iSCSI      40g     cDOT
  6. Configure el multipath.conf archivo con las siguientes entradas predeterminadas y de lista negra.

    sudo vi /etc/multipath.conf

    Agregar las siguientes entradas:

    defaults {
        find_multipaths yes
        user_friendly_names yes
    }
    
    blacklist {
        devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
        devnode "^hd[a-z]"
        devnode "^cciss.*"
    }
  7. Inicie el servicio multivía.

    sudo systemctl start multipathd

    Ahora aparecen dispositivos multivía en la /dev/mapper directorio.

    [ec2-user@ip-172-30-15-58 ~]$ ls -l /dev/mapper
    total 0
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e68512d -> ../dm-0
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685141 -> ../dm-1
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685142 -> ../dm-2
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685143 -> ../dm-3
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685144 -> ../dm-4
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685145 -> ../dm-5
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685146 -> ../dm-6
    crw------- 1 root root 10, 236 Mar 21 18:19 control
  8. Inicie sesión en el clúster FSx ONTAP como usuario fsxadmin a través de SSH para recuperar el número hexadecimal de serie de cada LUN que empiece por 6c574xxx…​, el número HEXADECIMAL empieza por 3600a0980, que es el ID de proveedor de AWS.

    lun show -fields serial-hex

    y vuelva como sigue:

    FsxId02ad7bf3476b741df::> lun show -fields serial-hex
    vserver path                            serial-hex
    ------- ------------------------------- ------------------------
    svm_ora /vol/ora_02_biny/ora_02_biny_01 6c574235472455534e68512d
    svm_ora /vol/ora_02_data/ora_02_data_01 6c574235472455534e685141
    svm_ora /vol/ora_02_data/ora_02_data_02 6c574235472455534e685142
    svm_ora /vol/ora_02_data/ora_02_data_03 6c574235472455534e685143
    svm_ora /vol/ora_02_data/ora_02_data_04 6c574235472455534e685144
    svm_ora /vol/ora_02_logs/ora_02_logs_01 6c574235472455534e685145
    svm_ora /vol/ora_02_logs/ora_02_logs_02 6c574235472455534e685146
    7 entries were displayed.
  9. Actualice el /dev/multipath.conf archivo para agregar un nombre sencillo para el dispositivo multivía.

    sudo vi /etc/multipath.conf

    con las siguientes entradas:

    multipaths {
            multipath {
                    wwid            3600a09806c574235472455534e68512d
                    alias           ora_02_biny_01
            }
            multipath {
                    wwid            3600a09806c574235472455534e685141
                    alias           ora_02_data_01
            }
            multipath {
                    wwid            3600a09806c574235472455534e685142
                    alias           ora_02_data_02
            }
            multipath {
                    wwid            3600a09806c574235472455534e685143
                    alias           ora_02_data_03
            }
            multipath {
                    wwid            3600a09806c574235472455534e685144
                    alias           ora_02_data_04
            }
            multipath {
                    wwid            3600a09806c574235472455534e685145
                    alias           ora_02_logs_01
            }
            multipath {
                    wwid            3600a09806c574235472455534e685146
                    alias           ora_02_logs_02
            }
    }
  10. Reinicie el servicio multivía para verificar que los dispositivos en /dev/mapper Han cambiado a los nombres de las LUN en lugar de los ID de serie hexadecimal.

    sudo systemctl restart multipathd

    Comprobar /dev/mapper para volver como sigue:

    [ec2-user@ip-172-30-15-58 ~]$ ls -l /dev/mapper
    total 0
    crw------- 1 root root 10, 236 Mar 21 18:19 control
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_biny_01 -> ../dm-0
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_01 -> ../dm-1
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_02 -> ../dm-2
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_03 -> ../dm-3
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_04 -> ../dm-4
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_logs_01 -> ../dm-5
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_logs_02 -> ../dm-6
  11. Cree particiones en el LUN binario con una única partición primaria.

    sudo fdisk /dev/mapper/ora_02_biny_01
  12. Formatee el LUN binario con particiones con un sistema de archivos XFS.

    sudo mkfs.xfs /dev/mapper/ora_02_biny_01p1
  13. Monte la LUN binaria en /u01.

    sudo mkdir /u01
    sudo mount -t xfs /dev/mapper/ora_02_biny_01p1 /u01
  14. Cambiar /u01 propiedad de punto de montaje para el usuario oracle y su grupo primario asociado.

    sudo chown oracle:oinstall /u01
  15. Busque la UUI del LUN binario.

    sudo blkid /dev/mapper/ora_02_biny_01p1
  16. Agregue un punto de montaje a. /etc/fstab.

    sudo vi /etc/fstab

    Añada la siguiente línea.

    UUID=d89fb1c9-4f89-4de4-b4d9-17754036d11d       /u01    xfs     defaults,nofail 0       2
  17. Como usuario raíz, añada la regla udev para los dispositivos Oracle.

    vi /etc/udev/rules.d/99-oracle-asmdevices.rules

    Incluir las siguientes entradas:

    ENV{DM_NAME}=="ora*", GROUP:="oinstall", OWNER:="oracle", MODE:="660"
  18. Como usuario root, vuelva a cargar las reglas udev.

    udevadm control --reload-rules
  19. Como usuario root, active las reglas udev.

    udevadm trigger
  20. Como usuario root, vuelva a cargar multipathd.

    systemctl restart multipathd
  21. Reinicie el host de la instancia de EC2.

Instalación de la infraestructura Grid de Oracle

Details
  1. Inicie sesión en la máquina virtual de base de datos como usuario administrador a través de SSH y habilite la autenticación de contraseña sin comentar PasswordAuthentication yes y después comentar PasswordAuthentication no.

    sudo vi /etc/ssh/sshd_config
  2. Reinicie el servicio sshd.

    sudo systemctl restart sshd
  3. Restablecer la contraseña de usuario de Oracle.

    sudo passwd oracle
  4. Inicie sesión como el usuario propietario de software de Oracle Restart (oracle). Cree un directorio de Oracle del siguiente modo:

    mkdir -p /u01/app/oracle
    mkdir -p /u01/app/oraInventory
  5. Cambie la configuración de permisos de directorio.

    chmod -R 775 /u01/app
  6. Cree un directorio principal de la cuadrícula y cámbielo.

    mkdir -p /u01/app/oracle/product/19.0.0/grid
    cd /u01/app/oracle/product/19.0.0/grid
  7. Descomprima los archivos de instalación de grid.

    unzip -q /tmp/archive/LINUX.X64_193000_grid_home.zip
  8. En el inicio de la cuadrícula, elimine OPatch directorio.

    rm -rf OPatch
  9. Desde el directorio raíz de la cuadrícula, descomprima p6880880_190000_Linux-x86-64.zip.

    unzip -q /tmp/archive/p6880880_190000_Linux-x86-64.zip
  10. Desde el inicio de la cuadrícula, revisar cv/admin/cvu_config, descomentar y reemplazar CV_ASSUME_DISTID=OEL5 con CV_ASSUME_DISTID=OL7.

    vi cv/admin/cvu_config
  11. Prepare un gridsetup.rsp archivo para la instalación silenciosa y coloque el archivo rsp en el /tmp/archive directorio. El archivo rsp debe cubrir las secciones A, B y G con la siguiente información:

    INVENTORY_LOCATION=/u01/app/oraInventory
    oracle.install.option=HA_CONFIG
    ORACLE_BASE=/u01/app/oracle
    oracle.install.asm.OSDBA=asmdba
    oracle.install.asm.OSOPER=asmoper
    oracle.install.asm.OSASM=asmadmin
    oracle.install.asm.SYSASMPassword="SetPWD"
    oracle.install.asm.diskGroup.name=DATA
    oracle.install.asm.diskGroup.redundancy=EXTERNAL
    oracle.install.asm.diskGroup.AUSize=4
    oracle.install.asm.diskGroup.disks=/dev/mapper/ora_02_data_01,/dev/mapper/ora_02_data_02,/dev/mapper/ora_02_data_03,/dev/mapper/ora_02_data_04
    oracle.install.asm.diskGroup.diskDiscoveryString=/dev/mapper/*
    oracle.install.asm.monitorPassword="SetPWD"
    oracle.install.asm.configureAFD=true
  12. Inicie sesión en la instancia de EC2 como usuario raíz y configurado ORACLE_HOME y.. ORACLE_BASE.

    export ORACLE_HOME=/u01/app/oracle/product/19.0.0/
    export ORACLE_BASE=/tmp
    cd /u01/app/oracle/product/19.0.0/grid/bin
  13. Inicialice los dispositivos de disco para utilizarlos con el controlador de filtro de Oracle ASM.

     ./asmcmd afd_label DATA01 /dev/mapper/ora_02_data_01 --init
     ./asmcmd afd_label DATA02 /dev/mapper/ora_02_data_02 --init
     ./asmcmd afd_label DATA03 /dev/mapper/ora_02_data_03 --init
     ./asmcmd afd_label DATA04 /dev/mapper/ora_02_data_04 --init
     ./asmcmd afd_label LOGS01 /dev/mapper/ora_02_logs_01 --init
     ./asmcmd afd_label LOGS02 /dev/mapper/ora_02_logs_02 --init
  14. Instale cvuqdisk-1.0.10-1.rpm.

    rpm -ivh /u01/app/oracle/product/19.0.0/grid/cv/rpm/cvuqdisk-1.0.10-1.rpm
  15. Desestablecer $ORACLE_BASE.

    unset ORACLE_BASE
  16. Inicie sesión en la instancia de EC2 como usuario de Oracle y extraiga el parche en /tmp/archive carpeta.

    unzip -q /tmp/archive/p34762026_190000_Linux-x86-64.zip -d /tmp/archive
  17. Desde el directorio raíz de grid /u01/app/oracle/product/19,0.0/grid y, como usuario oracle, inicie gridSetup.sh para la instalación de la infraestructura grid.

     ./gridSetup.sh -applyRU /tmp/archive/34762026/ -silent -responseFile /tmp/archive/gridsetup.rsp
  18. Como usuario root, ejecute los siguientes scripts:

    /u01/app/oraInventory/orainstRoot.sh
    /u01/app/oracle/product/19.0.0/grid/root.sh
  19. Como usuario root, vuelva a cargar el multipathd.

    systemctl restart multipathd
  20. Como usuario de Oracle, ejecute el siguiente comando para completar la configuración:

    /u01/app/oracle/product/19.0.0/grid/gridSetup.sh -executeConfigTools -responseFile /tmp/archive/gridsetup.rsp -silent
  21. Como usuario de Oracle, cree el grupo DE discos DE REGISTROS.

    bin/asmca -silent -sysAsmPassword 'yourPWD' -asmsnmpPassword 'yourPWD' -createDiskGroup -diskGroupName LOGS -disk 'AFD:LOGS*' -redundancy EXTERNAL -au_size 4
  22. Como usuario de Oracle, valide los servicios de grid tras la configuración de la instalación.

    bin/crsctl stat res -t
    [oracle@ora_02 grid]$ bin/crsctl stat res -t
    --------------------------------------------------------------------------------
    Name           Target  State        Server                   State details
    --------------------------------------------------------------------------------
    Local Resources
    --------------------------------------------------------------------------------
    ora.DATA.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.LISTENER.lsnr
                   ONLINE  INTERMEDIATE ora_02                   Not All Endpoints Re
                                                                 gistered,STABLE
    ora.LOGS.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.asm
                   ONLINE  ONLINE       ora_02                   Started,STABLE
    ora.ons
                   OFFLINE OFFLINE      ora_02                   STABLE
    --------------------------------------------------------------------------------
    Cluster Resources
    --------------------------------------------------------------------------------
    ora.cssd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.diskmon
          1        OFFLINE OFFLINE                               STABLE
    ora.driver.afd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.evmd
          1        ONLINE  ONLINE       ora_02                   STABLE
    --------------------------------------------------------------------------------
  23. Estado del controlador del filtro ASM Valiate.

    [oracle@ora_02 grid]$ export ORACLE_HOME=/u01/app/oracle/product/19.0.0/grid
    [oracle@ora_02 grid]$ export ORACLE_SID=+ASM
    [oracle@ora_02 grid]$ export PATH=$PATH:$ORACLE_HOME/bin
    [oracle@ora_02 grid]$ asmcmd
    ASMCMD> lsdg
    State    Type    Rebal  Sector  Logical_Sector  Block       AU  Total_MB  Free_MB  Req_mir_free_MB  Usable_file_MB  Offline_disks  Voting_files  Name
    MOUNTED  EXTERN  N         512             512   4096  4194304     81920    81780                0           81780              0             N  DATA/
    MOUNTED  EXTERN  N         512             512   4096  4194304     40960    40852                0           40852              0             N  LOGS/
    ASMCMD> afd_state
    ASMCMD-9526: The AFD state is 'LOADED' and filtering is 'ENABLED' on host 'ora_02'
    ASMCMD> exit
    [oracle@ora_02 grid]$
  24. Validar el estado del servicio HA.

    [oracle@ora_02 bin]$ ./crsctl check has
    CRS-4638: Oracle High Availability Services is online

Instalación de bases de datos de Oracle

Details
  1. Inicie sesión como usuario de Oracle y desconéctese $ORACLE_HOME y.. $ORACLE_SID si está configurado.

    unset ORACLE_HOME
    unset ORACLE_SID
  2. Cree el directorio raíz de Oracle DB y cambie el directorio a él.

    mkdir /u01/app/oracle/product/19.0.0/cdb3
    cd /u01/app/oracle/product/19.0.0/cdb3
  3. Descomprima los archivos de instalación de la base de datos Oracle.

    unzip -q /tmp/archive/LINUX.X64_193000_db_home.zip
  4. En el inicio de la base de datos, elimine OPatch directorio.

    rm -rf OPatch
  5. Desde el directorio raíz de la base de datos, descomprima p6880880_190000_Linux-x86-64.zip.

    unzip -q /tmp/archive/p6880880_190000_Linux-x86-64.zip
  6. Desde el inicio de DB, revisar cv/admin/cvu_config y descomentar y reemplazar CV_ASSUME_DISTID=OEL5 con CV_ASSUME_DISTID=OL7.

    vi cv/admin/cvu_config
  7. Desde la /tmp/archive directorio, desembale el parche DB 19.18 RU.

    unzip -q /tmp/archive/p34765931_190000_Linux-x86-64.zip -d /tmp/archive
  8. Prepare el archivo rsp de instalación silenciosa de la base de datos en /tmp/archive/dbinstall.rsp directorio con los siguientes valores:

    oracle.install.option=INSTALL_DB_SWONLY
    UNIX_GROUP_NAME=oinstall
    INVENTORY_LOCATION=/u01/app/oraInventory
    ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb3
    ORACLE_BASE=/u01/app/oracle
    oracle.install.db.InstallEdition=EE
    oracle.install.db.OSDBA_GROUP=dba
    oracle.install.db.OSOPER_GROUP=oper
    oracle.install.db.OSBACKUPDBA_GROUP=oper
    oracle.install.db.OSDGDBA_GROUP=dba
    oracle.install.db.OSKMDBA_GROUP=dba
    oracle.install.db.OSRACDBA_GROUP=dba
    oracle.install.db.rootconfig.executeRootScript=false
  9. Desde cdb3 home /u01/app/oracle/product/19,0.0/cdb3, ejecute una instalación silenciosa de bases de datos solo de software.

     ./runInstaller -applyRU /tmp/archive/34765931/ -silent -ignorePrereqFailure -responseFile /tmp/archive/dbinstall.rsp
  10. Como usuario raíz, ejecute el root.sh script después de la instalación solo de software.

    /u01/app/oracle/product/19.0.0/db1/root.sh
  11. Como usuario oracle, cree el dbca.rsp archivo con las siguientes entradas:

    gdbName=cdb3.demo.netapp.com
    sid=cdb3
    createAsContainerDatabase=true
    numberOfPDBs=3
    pdbName=cdb3_pdb
    useLocalUndoForPDBs=true
    pdbAdminPassword="yourPWD"
    templateName=General_Purpose.dbc
    sysPassword="yourPWD"
    systemPassword="yourPWD"
    dbsnmpPassword="yourPWD"
    datafileDestination=+DATA
    recoveryAreaDestination=+LOGS
    storageType=ASM
    diskGroupName=DATA
    characterSet=AL32UTF8
    nationalCharacterSet=AL16UTF16
    listeners=LISTENER
    databaseType=MULTIPURPOSE
    automaticMemoryManagement=false
    totalMemory=8192
  12. Como usuario oracle, inicie la creación de la base de datos con dbca.

    bin/dbca -silent -createDatabase -responseFile /tmp/archive/dbca.rsp

    salida:

Prepare for db operation
7% complete
Registering database with Oracle Restart
11% complete
Copying database files
33% complete
Creating and starting Oracle instance
35% complete
38% complete
42% complete
45% complete
48% complete
Completing Database Creation
53% complete
55% complete
56% complete
Creating Pluggable Databases
60% complete
64% complete
69% complete
78% complete
Executing Post Configuration Actions
100% complete
Database creation complete. For details check the logfiles at:
 /u01/app/oracle/cfgtoollogs/dbca/cdb3.
Database Information:
Global Database Name:cdb3.vmc.netapp.com
System Identifier(SID):cdb3
Look at the log file "/u01/app/oracle/cfgtoollogs/dbca/cdb3/cdb3.log" for further details.
  1. Repita los mismos procedimientos del paso 2 para crear una base de datos de contenedor cdb4 en un ORACLE_HOME /u01/app/oracle/product/19,0.0/cdb4 independiente con una PDB única.

  2. Como usuario de Oracle, valide los servicios de alta disponibilidad de Oracle Restart después de la creación de la base de datos para que todas las bases de datos (cdb3, cdb4) estén registradas en los servicios de alta disponibilidad.

    /u01/app/oracle/product/19.0.0/grid/crsctl stat res -t

    salida:

    [oracle@ora_02 bin]$ ./crsctl stat res -t
    --------------------------------------------------------------------------------
    Name           Target  State        Server                   State details
    --------------------------------------------------------------------------------
    Local Resources
    --------------------------------------------------------------------------------
    ora.DATA.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.LISTENER.lsnr
                   ONLINE  INTERMEDIATE ora_02                   Not All Endpoints Re
                                                                 gistered,STABLE
    ora.LOGS.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.asm
                   ONLINE  ONLINE       ora_02                   Started,STABLE
    ora.ons
                   OFFLINE OFFLINE      ora_02                   STABLE
    --------------------------------------------------------------------------------
    Cluster Resources
    --------------------------------------------------------------------------------
    ora.cdb3.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb3,STABLE
    ora.cdb4.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb4,STABLE
    ora.cssd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.diskmon
          1        OFFLINE OFFLINE                               STABLE
    ora.driver.afd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.evmd
          1        ONLINE  ONLINE       ora_02                   STABLE
    --------------------------------------------------------------------------------
  3. Defina el usuario Oracle .bash_profile.

    vi ~/.bash_profile

    Agregar las siguientes entradas:

    export ORACLE_HOME=/u01/app/oracle/product/19.0.0/db3
    export ORACLE_SID=db3
    export PATH=$PATH:$ORACLE_HOME/bin
    alias asm='export ORACLE_HOME=/u01/app/oracle/product/19.0.0/grid;export ORACLE_SID=+ASM;export PATH=$PATH:$ORACLE_HOME/bin'
    alias cdb3='export ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb3;export ORACLE_SID=cdb3;export PATH=$PATH:$ORACLE_HOME/bin'
    alias cdb4='export ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb4;export ORACLE_SID=cdb4;export PATH=$PATH:$ORACLE_HOME/bin'
  4. Valide la CDB/PDB creada para cdb3.

    cdb3
    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Mon Oct 9 08:19:20 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL>
    
    SQL> select name from v$datafile;
    
    NAME
    --------------------------------------------------------------------------------
    +DATA/CDB3/DATAFILE/system.257.1149420273
    +DATA/CDB3/DATAFILE/sysaux.258.1149420317
    +DATA/CDB3/DATAFILE/undotbs1.259.1149420343
    +DATA/CDB3/86B637B62FE07A65E053F706E80A27CA/DATAFILE/system.266.1149421085
    +DATA/CDB3/86B637B62FE07A65E053F706E80A27CA/DATAFILE/sysaux.267.1149421085
    +DATA/CDB3/DATAFILE/users.260.1149420343
    +DATA/CDB3/86B637B62FE07A65E053F706E80A27CA/DATAFILE/undotbs1.268.1149421085
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/system.272.1149422017
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/sysaux.273.1149422017
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/undotbs1.271.1149422017
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/users.275.1149422033
    
    NAME
    --------------------------------------------------------------------------------
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/system.277.1149422033
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/sysaux.278.1149422033
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/undotbs1.276.1149422033
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/users.280.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/system.282.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/sysaux.283.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/undotbs1.281.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/users.285.1149422063
    
    19 rows selected.
    
    SQL>
  5. Valide la CDB/PDB creada para cdb4.

    cdb4
    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Mon Oct 9 08:20:26 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB4      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB4_PDB                       READ WRITE NO
    SQL>
    
    SQL> select name from v$datafile;
    
    NAME
    --------------------------------------------------------------------------------
    +DATA/CDB4/DATAFILE/system.286.1149424943
    +DATA/CDB4/DATAFILE/sysaux.287.1149424989
    +DATA/CDB4/DATAFILE/undotbs1.288.1149425015
    +DATA/CDB4/86B637B62FE07A65E053F706E80A27CA/DATAFILE/system.295.1149425765
    +DATA/CDB4/86B637B62FE07A65E053F706E80A27CA/DATAFILE/sysaux.296.1149425765
    +DATA/CDB4/DATAFILE/users.289.1149425015
    +DATA/CDB4/86B637B62FE07A65E053F706E80A27CA/DATAFILE/undotbs1.297.1149425765
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/system.301.1149426581
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/sysaux.302.1149426581
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/undotbs1.300.1149426581
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/users.304.1149426597
    
    11 rows selected.
  6. Inicie sesión en cada cdb como sysdba con sqlplus y defina el tamaño de destino de recuperación de base de datos en el tamaño de grupo de discos +LOGS para ambos cdbs.

    alter system set db_recovery_file_dest_size = 40G scope=both;
  7. Conéctese a cada cdb como sysdba con sqlplus y habilite el modo archive log con los siguientes conjuntos de comandos en secuencia.

    sqlplus /as sysdba
    shutdown immediate;
    startup mount;
    alter database archivelog;
    alter database open;

Esto completa la puesta en marcha del reinicio de Oracle 19C versión 19,18 en un almacenamiento de Amazon FSx ONTAP y una máquina virtual de base de datos de VMC. Si lo desea, NetApp recomienda reubicar los archivos de registro en línea y el archivo de control de Oracle en el grupo de discos +LOGS.

Backup, restauración y clonado de Oracle con SnapCenter

Configuración de SnapCenter

Details

SnapCenter se basa en un complemento en el lado del host en el equipo virtual de base de datos para realizar actividades de gestión de protección de datos para aplicaciones. Para obtener información detallada sobre el complemento de NetApp SnapCenter para Oracle, consulte esta documentación "Qué puede hacer con el plugin para base de datos de Oracle". A continuación, se describen pasos generales para configurar SnapCenter para el backup, la recuperación y la clonación de la base de datos de Oracle.

  1. Descargue la última versión del software SnapCenter desde el sitio de soporte de NetApp: "Descargas de soporte de NetApp".

  2. Como administrador, instale el último JDK de java desde "Obtenga Java para aplicaciones de escritorio" En el host del servidor SnapCenter Windows.

    Nota Si el servidor Windows se implementa en un entorno de dominio, añada un usuario de dominio al grupo de administradores locales del servidor SnapCenter y ejecute la instalación de SnapCenter con el usuario del dominio.
  3. Inicie sesión en la interfaz de usuario de SnapCenter a través del puerto HTTPS 8846 como usuario de instalación para configurar SnapCenter para Oracle.

  4. Actualizar Hypervisor Settings en ajustes globales.

    Captura de pantalla que muestra la configuración de SnapCenter.

  5. Cree políticas de backup de base de datos de Oracle. Lo ideal es crear una normativa de backup de registros de archivo independiente que permita un intervalo de backup más frecuente para minimizar la pérdida de datos en caso de fallo.

    Captura de pantalla que muestra la configuración de SnapCenter.

  6. Agregar servidor de base de datos Credential Para acceso de SnapCenter a equipos virtuales de base de datos. La credencial debe tener privilegios sudo en una máquina virtual de Linux o privilegios de administrador en una máquina virtual de Windows.

    Captura de pantalla que muestra la configuración de SnapCenter.

  7. Añada el clúster de almacenamiento FSx ONTAP al Storage Systems Con IP de administración del clúster y autenticado mediante el ID de usuario de fsxadmin.

    Captura de pantalla que muestra la configuración de SnapCenter.

  8. Agregue Oracle Database VM en VMC a. Hosts con credencial de servidor creada en el paso anterior 6.

    Captura de pantalla que muestra la configuración de SnapCenter.

Nota Asegúrese de que el nombre del servidor SnapCenter se pueda resolver en la dirección IP de la máquina virtual de base de datos y el nombre de la máquina virtual de base de datos se pueda resolver en la dirección IP del servidor SnapCenter.

Backup de bases de datos

Details

SnapCenter aprovecha la tecnología Snapshot de volumen de FSx ONTAP para obtener backups, restauraciones o clones de bases de datos mucho más rápidos en comparación con la metodología tradicional basada en RMAN. Las copias Snapshot son coherentes con las aplicaciones, ya que se pone en modo de backup de Oracle antes de realizar una copia de Snapshot.

  1. Desde la Resources Pestaña, las bases de datos de la máquina virtual se detectan automáticamente después de que la máquina virtual se agrega a SnapCenter. Inicialmente, el estado de la base de datos se muestra como Not protected.

    Captura de pantalla que muestra la configuración de SnapCenter.

  2. Cree un grupo de recursos para realizar un backup de la base de datos en una agrupación lógica, como por máquina virtual de base de datos, etc. En este ejemplo, se creó un grupo ora_02_data para realizar un backup completo de base de datos online para todas las bases de datos en la máquina virtual ora_02. El grupo de recursos ora_02_log realiza el backup de los registros archivados únicamente en la máquina virtual. Al crear un grupo de recursos también se define una programación para ejecutar el backup.

    Captura de pantalla que muestra la configuración de SnapCenter.

  3. También es posible activar manualmente el backup del grupo de recursos haciendo clic en Back up Now y ejecutar el backup con la política definida en el grupo de recursos.

    Captura de pantalla que muestra la configuración de SnapCenter.

  4. El trabajo de copia de seguridad se puede supervisar en el Monitor haciendo clic en el trabajo en ejecución.

    Captura de pantalla que muestra la configuración de SnapCenter.

  5. Después de realizar correctamente un backup, el estado de la base de datos muestra el estado del trabajo y el tiempo de copia de seguridad más reciente.

    Captura de pantalla que muestra la configuración de SnapCenter.

  6. Haga clic en DATABASE para revisar los juegos de copias de seguridad para cada base de datos.

    Captura de pantalla que muestra la configuración de SnapCenter.

Recuperación de bases de datos

Details

SnapCenter ofrece diversas opciones de restauración y recuperación para bases de datos de Oracle a partir de un backup de snapshots. En este ejemplo, demostramos una restauración punto en el tiempo para recuperar una tabla borrada por error. En VM ora_02, dos bases de datos cdb3, cdb4 comparten los mismos grupos de discos de +DATA y +LOGS. La restauración de base de datos de una base de datos no afecta a la disponibilidad de otra base de datos.

  1. En primer lugar, cree una tabla de prueba e inserte una fila en la tabla para validar una recuperación de punto en tiempo.

    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Fri Oct 6 14:15:21 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL>
    
    
    SQL> alter session set container=cdb3_pdb1;
    
    Session altered.
    
    SQL> create table test (id integer, dt timestamp, event varchar(100));
    
    Table created.
    
    SQL> insert into test values(1, sysdate, 'test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02');
    
    1 row created.
    
    SQL> commit;
    
    Commit complete.
    
    SQL> select * from test;
    
            ID
    ----------
    DT
    ---------------------------------------------------------------------------
    EVENT
    --------------------------------------------------------------------------------
             1
    06-OCT-23 03.18.24.000000 PM
    test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02
    
    
    SQL> select current_timestamp from dual;
    
    CURRENT_TIMESTAMP
    ---------------------------------------------------------------------------
    06-OCT-23 03.18.53.996678 PM -07:00
  2. Realizamos un backup de snapshot manual de SnapCenter. A continuación, borre la tabla.

    SQL> drop table test;
    
    Table dropped.
    
    SQL> commit;
    
    Commit complete.
    
    SQL> select current_timestamp from dual;
    
    CURRENT_TIMESTAMP
    ---------------------------------------------------------------------------
    06-OCT-23 03.26.30.169456 PM -07:00
    
    SQL> select * from test;
    select * from test
                  *
    ERROR at line 1:
    ORA-00942: table or view does not exist
  3. A partir del conjunto de backup creado desde el último paso, se debe tomar nota del número de SCN de backup de registro. Haga clic en Restore para iniciar el flujo de trabajo de restauración y recuperación.

    Captura de pantalla que muestra la configuración de SnapCenter.

  4. Seleccione Restore Scope.

    Captura de pantalla que muestra la configuración de SnapCenter.

  5. Seleccione el alcance de recuperación hasta el SCN de log desde el último backup completo de la base de datos.

    Captura de pantalla que muestra la configuración de SnapCenter.

  6. Especifique los scripts previos opcionales que se van a ejecutar.

    Captura de pantalla que muestra la configuración de SnapCenter.

  7. Especifique el archivo after-script opcional que se va a ejecutar.

    Captura de pantalla que muestra la configuración de SnapCenter.

  8. Envíe un informe de trabajo si lo desea.

    Captura de pantalla que muestra la configuración de SnapCenter.

  9. Revise el resumen y haga clic en Finish para iniciar la restauración y recuperación.

    Captura de pantalla que muestra la configuración de SnapCenter.

  10. Desde el control de grid de Oracle Restart, observamos que mientras cdb3 está en restauración y cdb4 está en línea y disponible.

    Captura de pantalla que muestra la configuración de SnapCenter.

  11. De Monitor abra el trabajo para revisar los detalles.

    Captura de pantalla que muestra la configuración de SnapCenter.

  12. Desde la VM de la base de datos ora_02, valide que la tabla borrada se recupera después de una recuperación correcta.

    [oracle@ora_02 bin]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Fri Oct 6 17:01:28 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL> alter session set container=CDB3_PDB1;
    
    Session altered.
    
    SQL> select * from test;
    
            ID
    ----------
    DT
    ---------------------------------------------------------------------------
    EVENT
    --------------------------------------------------------------------------------
             1
    06-OCT-23 03.18.24.000000 PM
    test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02
    
    
    SQL> select current_timestamp from dual;
    
    CURRENT_TIMESTAMP
    ---------------------------------------------------------------------------
    06-OCT-23 05.02.20.382702 PM -07:00
    
    SQL>

Clon de la base de datos

Details

En este ejemplo, se utilizan los mismos conjuntos de backup para clonar una base de datos en el mismo equipo virtual en un ORACLE_HOME diferente. Los procedimientos son igualmente aplicables para clonar una base de datos desde el backup a separar la máquina virtual en VMC si es necesario.

  1. Abra la lista de copias de seguridad de la base de datos cdb3. Desde el backup de datos que elija, haga clic en Clone para iniciar el flujo de trabajo de clonado de base de datos.

    Captura de pantalla que muestra la configuración de SnapCenter.

  2. Asigne el nombre al SID de la base de datos del clon.

    Captura de pantalla que muestra la configuración de SnapCenter.

  3. Seleccione una máquina virtual en VMC como host de base de datos de destino. Se debe haber instalado y configurado una versión idéntica de Oracle en el host.

    Captura de pantalla que muestra la configuración de SnapCenter.

  4. Seleccione el ORACLE_HOME, el usuario y el grupo adecuados en el host de destino. Mantener la credencial por defecto.

    Captura de pantalla que muestra la configuración de SnapCenter.

  5. Cambie los parámetros de la base de datos clonada para cumplir con los requisitos de configuración o recursos para la base de datos clonada.

    Captura de pantalla que muestra la configuración de SnapCenter.

  6. Elija el ámbito de recuperación. Until Cancel recupera el clon hasta el último archivo de registro disponible en el conjunto de backup.

    Captura de pantalla que muestra la configuración de SnapCenter.

  7. Revise el resumen e inicie el trabajo de clonado.

    Captura de pantalla que muestra la configuración de SnapCenter.

  8. Supervise la ejecución del trabajo de clonado desde Monitor pestaña.

    Captura de pantalla que muestra la configuración de SnapCenter.

  9. La base de datos clonada se registra inmediatamente en SnapCenter.

    Captura de pantalla que muestra la configuración de SnapCenter.

  10. Desde la base de datos VM ora_02, la base de datos clonada también se registra en el control de grid de Oracle Restart y la tabla de prueba descartada se recupera en la base de datos clonada cdb3tst, como se muestra a continuación.

    [oracle@ora_02 ~]$ /u01/app/oracle/product/19.0.0/grid/bin/crsctl stat res -t
    --------------------------------------------------------------------------------
    Name           Target  State        Server                   State details
    --------------------------------------------------------------------------------
    Local Resources
    --------------------------------------------------------------------------------
    ora.DATA.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.LISTENER.lsnr
                   ONLINE  INTERMEDIATE ora_02                   Not All Endpoints Re
                                                                 gistered,STABLE
    ora.LOGS.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.SC_2090922_CDB3TST.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.asm
                   ONLINE  ONLINE       ora_02                   Started,STABLE
    ora.ons
                   OFFLINE OFFLINE      ora_02                   STABLE
    --------------------------------------------------------------------------------
    Cluster Resources
    --------------------------------------------------------------------------------
    ora.cdb3.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb3,STABLE
    ora.cdb3tst.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb4,STABLE
    ora.cdb4.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb4,STABLE
    ora.cssd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.diskmon
          1        OFFLINE OFFLINE                               STABLE
    ora.driver.afd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.evmd
          1        ONLINE  ONLINE       ora_02                   STABLE
    --------------------------------------------------------------------------------
    
    [oracle@ora_02 ~]$ export ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb4
    [oracle@ora_02 ~]$ export ORACLE_SID=cdb3tst
    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Sat Oct 7 08:04:51 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3TST   READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL> alter session set container=CDB3_PDB1;
    
    Session altered.
    
    SQL> select * from test;
    
            ID
    ----------
    DT
    ---------------------------------------------------------------------------
    EVENT
    --------------------------------------------------------------------------------
             1
    06-OCT-23 03.18.24.000000 PM
    test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02
    
    
    SQL>

Esto completa la demostración SnapCenter del backup, la restauración y el clon de la base de datos de Oracle en SDDC de VMC en AWS.

Dónde encontrar información adicional

Si quiere más información sobre la información descrita en este documento, consulte los siguientes documentos o sitios web: