Skip to main content
NetApp database solutions
Se proporciona el idioma español mediante traducción automática para su comodidad. En caso de alguna inconsistencia, el inglés precede al español.

TR-4979: Oracle autogestionado y simplificado en VMware Cloud on AWS con FSx ONTAP montado como invitado

Colaboradores netapp-revathid kevin-hoke

Allen Cao, Niyaz Mohamed, NetApp

Esta solución proporciona descripción general y detalles para la implementación y protección de Oracle en VMware Cloud en AWS con FSx ONTAP como almacenamiento de base de datos principal y una base de datos Oracle configurada en ReStart independiente usando asm como administrador de volumen.

Objetivo

Las empresas han estado ejecutando Oracle en VMware en centros de datos privados durante décadas. VMware Cloud (VMC) en AWS ofrece una solución con solo presionar un botón para llevar el software de centro de datos definido por software (SDDC) de clase empresarial de VMware a la infraestructura dedicada, elástica y completa de AWS Cloud. AWS FSx ONTAP ofrece almacenamiento premium para VMC SDDC y una estructura de datos que permite a los clientes ejecutar aplicaciones críticas para el negocio, como Oracle, en entornos de nube privada, pública e híbrida basados en vSphere, con acceso optimizado a los servicios de AWS. Ya sea una carga de trabajo de Oracle existente o nueva, VMC en AWS proporciona un entorno de Oracle familiar, simplificado y autoadministrado en VMware con todos los beneficios de la nube de AWS y al mismo tiempo delega toda la administración y optimización de la plataforma en VMware.

Esta documentación demuestra la implementación y la protección de una base de datos Oracle en un entorno VMC con Amazon FSx ONTAP como almacenamiento de base de datos principal. La base de datos de Oracle se puede implementar en VMC en el almacenamiento FSx como LUN montados por invitado de VM directa o discos de almacén de datos VMware VMDK montados en NFS. Este informe técnico se centra en la implementación de la base de datos Oracle como almacenamiento FSx montado directamente por el invitado en las máquinas virtuales en el clúster VMC con el protocolo iSCSI y Oracle ASM. También demostramos cómo utilizar la herramienta de interfaz de usuario SnapCenter de NetApp para realizar copias de seguridad, restaurar y clonar una base de datos Oracle para desarrollo/prueba u otros casos de uso para la operación de base de datos con uso eficiente del almacenamiento en VMC en AWS.

Esta solución aborda los siguientes casos de uso:

  • Implementación de base de datos Oracle en VMC en AWS con Amazon FSx ONTAP como almacenamiento de base de datos principal

  • Copia de seguridad y restauración de bases de datos de Oracle en VMC en AWS mediante la herramienta SnapCenter de NetApp

  • Clon de base de datos de Oracle para desarrollo/prueba u otros casos de uso en VMC en AWS mediante la herramienta NetApp SnapCenter

Audiencia

Esta solución está destinada a las siguientes personas:

  • Un administrador de bases de datos que desea implementar Oracle en VMC en AWS con Amazon FSx ONTAP

  • Un arquitecto de soluciones de base de datos que desea probar las cargas de trabajo de Oracle en VMC en la nube de AWS

  • Un administrador de almacenamiento que desee implementar y administrar una base de datos Oracle implementada en VMC en AWS con Amazon FSx ONTAP

  • Un propietario de una aplicación que desea crear una base de datos Oracle en VMC en la nube de AWS

Entorno de prueba y validación de soluciones

La prueba y validación de esta solución se realizó en un entorno de laboratorio con VMC en AWS que podría no coincidir con el entorno de implementación final. Para más información, consulte la sección Factores clave a considerar en la implementación .

Arquitectura

Esta imagen proporciona una imagen detallada de la configuración de implementación de Oracle en la nube pública de AWS con iSCSI y ASM.

Componentes de hardware y software

Hardware

Almacenamiento de FSx ONTAP

Versión actual ofrecida por AWS

Un clúster de FSx ONTAP HA en la misma VPC y zona de disponibilidad que VMC

Clúster SDDC de VMC

Amazon EC2 i3.metal, nodo único/CPU Intel Xeon E5-2686, 36 núcleos/512 GB de RAM

Almacenamiento vSAN de 10,37 TB

Software

Red Hat Linux

Núcleo RHEL-8.6, 4.18.0-372.9.1.el8.x86_64

Se implementó una suscripción a RedHat para realizar pruebas

Servidor de Windows

Estándar 2022, 10.0.20348, compilación 20348

Alojamiento del servidor SnapCenter

Infraestructura de red de Oracle

Versión 19.18

Parche RU aplicado p34762026_190000_Linux-x86-64.zip

Base de datos Oracle

Versión 19.18

Parche RU aplicado p34765931_190000_Linux-x86-64.zip

Oracle OPatch

Versión 12.2.0.1.36

Último parche p6880880_190000_Linux-x86-64.zip

Servidor SnapCenter

Versión 4.9P1

Implementación de grupos de trabajo

BlueXP backup and recovery para máquinas virtuales

Versión 1.0

Implementado como una máquina virtual del complemento vSphere de ova

VMware vSphere

Versión 8.0.1.00300

VMware Tools, versión: 11365 (Linux), 12352 (Windows)

Abrir JDK

Versión java-1.8.0-openjdk.x86_64

Requisito del complemento SnapCenter en las máquinas virtuales de base de datos

Configuración de la base de datos Oracle en VMC en AWS

Servidor

Base de datos

Almacenamiento de base de datos

ora_01

cdb1(cdb1_pdb1,cdb1_pdb2,cdb1_pdb3)

Almacén de datos VMDK en FSx ONTAP

ora_01

cdb2(cdb2_pdb)

Almacén de datos VMDK en FSx ONTAP

ora_02

cdb3(cdb3_pdb1,cdb3_pdb2,cdb3_pdb3)

FSx ONTAP con montaje directo de invitado

ora_02

cdb4(cdb4_pdb)

FSx ONTAP con montaje directo de invitado

Factores clave a considerar en la implementación

  • Conectividad de FSx a VMC. Cuando implementa su SDDC en VMware Cloud on AWS, se crea dentro de una cuenta de AWS y una VPC dedicada a su organización y administrada por VMware. También debe conectar el SDDC a una cuenta de AWS que le pertenezca, denominada cuenta de AWS del cliente. Esta conexión permite que su SDDC acceda a los servicios de AWS que pertenecen a su cuenta de cliente. FSx ONTAP es un servicio de AWS implementado en su cuenta de cliente. Una vez que el VMC SDDC esté conectado a su cuenta de cliente, el almacenamiento FSx estará disponible para las máquinas virtuales en el VMC SDDC para el montaje directo del invitado.

  • Implementación de clústeres de alta disponibilidad de almacenamiento FSx en una o varias zonas. En estas pruebas y validaciones, implementamos un clúster FSx HA en una única zona de disponibilidad de AWS. NetApp también recomienda implementar FSx ONTAP y VMware Cloud on AWS en la misma zona de disponibilidad para lograr un mejor rendimiento y evitar cargos por transferencia de datos entre zonas de disponibilidad.

  • Tamaño del clúster de almacenamiento FSx. Un sistema de archivos de almacenamiento Amazon FSx ONTAP proporciona hasta 160 000 IOPS SSD sin procesar, un rendimiento de hasta 4 GBps y una capacidad máxima de 192 TiB. Sin embargo, puede dimensionar el clúster en términos de IOPS aprovisionados, rendimiento y límite de almacenamiento (mínimo 1024 GiB) en función de sus requisitos reales en el momento de la implementación. La capacidad se puede ajustar dinámicamente sobre la marcha sin afectar la disponibilidad de la aplicación.

  • Diseño de datos y registros de Oracle. En nuestras pruebas y validaciones, implementamos dos grupos de discos ASM para datos y registros respectivamente. Dentro del grupo de discos asm +DATA, aprovisionamos cuatro LUN en un volumen de datos. Dentro del grupo de discos asm +LOGS, aprovisionamos dos LUN en un volumen de registro. En general, varios LUN distribuidos dentro de un volumen de Amazon FSx ONTAP proporcionan un mejor rendimiento.

  • Configuración iSCSI. Las máquinas virtuales de la base de datos en VMC SDDC se conectan al almacenamiento FSx con el protocolo iSCSI. Es importante evaluar el requisito de rendimiento máximo de E/S de la base de datos de Oracle analizando cuidadosamente el informe de Oracle AWR para determinar los requisitos de rendimiento de tráfico de la aplicación y iSCSI. NetApp también recomienda asignar cuatro conexiones iSCSI a ambos puntos finales iSCSI FSx con rutas múltiples configuradas correctamente.

  • Nivel de redundancia de Oracle ASM que se utilizará para cada grupo de discos de Oracle ASM que cree. Debido a que FSx ONTAP ya refleja el almacenamiento en el nivel del clúster FSx, debe usar redundancia externa, lo que significa que la opción no permite que Oracle ASM refleje el contenido del grupo de discos.

  • Copia de seguridad de la base de datos. NetApp ofrece un paquete de SnapCenter software para realizar copias de seguridad, restaurar y clonar bases de datos con una interfaz de usuario fácil de usar. NetApp recomienda implementar una herramienta de gestión de este tipo para lograr una copia de seguridad rápida (en menos de un minuto) de SnapShot, una restauración rápida (en minutos) de la base de datos y una clonación de la base de datos.

Implementación de la solución

Las siguientes secciones proporcionan procedimientos paso a paso para la implementación de Oracle 19c en VMC en AWS con almacenamiento FSx ONTAP montado directamente en la máquina virtual de base de datos en un solo nodo. Reiniciar la configuración con Oracle ASM como administrador de volumen de base de datos.

Requisitos previos para la implementación

Details

La implementación requiere los siguientes requisitos previos.

  1. Se ha creado un centro de datos definido por software (SDDC) que utiliza VMware Cloud on AWS. Para obtener instrucciones detalladas sobre cómo crear un SDDC en VMC, consulte la documentación de VMware."Introducción a VMware Cloud en AWS"

  2. Se ha configurado una cuenta de AWS y se han creado los segmentos de red y VPC necesarios dentro de su cuenta de AWS. La cuenta de AWS está vinculada a su SDDC de VMC.

  3. Desde la consola de AWS EC2, implementar clústeres de alta disponibilidad de almacenamiento de Amazon FSx ONTAP para alojar los volúmenes de base de datos de Oracle. Si no está familiarizado con la implementación del almacenamiento de FSx, consulte la documentación"Creación de sistemas de archivos FSx ONTAP" para obtener instrucciones paso a paso.

  4. El paso anterior se puede realizar utilizando el siguiente kit de herramientas de automatización de Terraform, que crea una instancia EC2 como host de salto para SDDC en acceso VMC a través de SSH y un sistema de archivos FSx. Revise las instrucciones cuidadosamente y cambie las variables para adaptarlas a su entorno antes de la ejecución.

    git clone https://github.com/NetApp-Automation/na_aws_fsx_ec2_deploy.git
  5. Cree máquinas virtuales en VMware SDDC en AWS para alojar su entorno Oracle que se implementará en VMC. En nuestra demostración, hemos construido dos máquinas virtuales Linux como servidores Oracle DB, un servidor Windows para el servidor SnapCenter y un servidor Linux opcional como controlador Ansible para la instalación o configuración automatizada de Oracle si así se desea. A continuación se muestra una instantánea del entorno de laboratorio para la validación de la solución.

    Captura de pantalla que muestra el entorno de prueba VMC SDDC.

  6. Opcionalmente, NetApp también proporciona varios kits de herramientas de automatización para ejecutar la implementación y configuración de Oracle cuando corresponda.

Nota Asegúrese de haber asignado al menos 50G en el volumen raíz de Oracle VM para tener espacio suficiente para almacenar los archivos de instalación de Oracle.

Configuración del kernel de la máquina virtual de base de datos

Details

Una vez cumplidos los requisitos previos, inicie sesión en la máquina virtual Oracle como usuario administrador a través de SSH y use sudo como usuario raíz para configurar el kernel de Linux para la instalación de Oracle. Los archivos de instalación de Oracle se pueden almacenar en un depósito AWS S3 y transferir a la máquina virtual.

  1. Crear un directorio de ensayo /tmp/archive carpeta y configurar el 777 permiso.

    mkdir /tmp/archive
    chmod 777 /tmp/archive
  2. Descargue y prepare los archivos de instalación binaria de Oracle y otros archivos rpm necesarios en /tmp/archive directorio.

    Consulte la siguiente lista de archivos de instalación que se indicarán en /tmp/archive en la máquina virtual de base de datos.

    [admin@ora_02 ~]$ ls -l /tmp/archive/
    total 10539364
    -rw-rw-r--. 1 admin  admin         19112 Oct  4 17:04 compat-libcap1-1.10-7.el7.x86_64.rpm
    -rw-rw-r--. 1 admin  admin    3059705302 Oct  4 17:10 LINUX.X64_193000_db_home.zip
    -rw-rw-r--. 1 admin  admin    2889184573 Oct  4 17:11 LINUX.X64_193000_grid_home.zip
    -rw-rw-r--. 1 admin  admin        589145 Oct  4 17:04 netapp_linux_unified_host_utilities-7-1.x86_64.rpm
    -rw-rw-r--. 1 admin  admin         31828 Oct  4 17:04 oracle-database-preinstall-19c-1.0-2.el8.x86_64.rpm
    -rw-rw-r--. 1 admin  admin    2872741741 Oct  4 17:12 p34762026_190000_Linux-x86-64.zip
    -rw-rw-r--. 1 admin  admin    1843577895 Oct  4 17:13 p34765931_190000_Linux-x86-64.zip
    -rw-rw-r--. 1 admin  admin     124347218 Oct  4 17:13 p6880880_190000_Linux-x86-64.zip
    -rw-rw-r--. 1 admin  admin        257136 Oct  4 17:04 policycoreutils-python-utils-2.9-9.el8.noarch.rpm
    [admin@ora_02 ~]$
  3. Instale el RPM de preinstalación de Oracle 19c, que satisface la mayoría de los requisitos de configuración del kernel.

    yum install /tmp/archive/oracle-database-preinstall-19c-1.0-2.el8.x86_64.rpm
  4. Descargue e instale el programa faltante compat-libcap1 en Linux 8.

    yum install /tmp/archive/compat-libcap1-1.10-7.el7.x86_64.rpm
  5. Desde NetApp, descargue e instale las utilidades de host de NetApp .

    yum install /tmp/archive/netapp_linux_unified_host_utilities-7-1.x86_64.rpm
  6. Instalar policycoreutils-python-utils .

    yum install /tmp/archive/policycoreutils-python-utils-2.9-9.el8.noarch.rpm
  7. Instalar Open JDK versión 1.8.

    yum install java-1.8.0-openjdk.x86_64
  8. Instalar utilidades de iniciador iSCSI.

    yum install iscsi-initiator-utils
  9. Instalar sg3_utils.

    yum install sg3_utils
  10. Instalar device-mapper-multipath.

    yum install device-mapper-multipath
  11. Deshabilitar páginas enormes transparentes en el sistema actual.

    echo never > /sys/kernel/mm/transparent_hugepage/enabled
    echo never > /sys/kernel/mm/transparent_hugepage/defrag
  12. Añade las siguientes líneas en /etc/rc.local para deshabilitar transparent_hugepage Después de reiniciar.

    vi /etc/rc.local
      # Disable transparent hugepages
              if test -f /sys/kernel/mm/transparent_hugepage/enabled; then
                echo never > /sys/kernel/mm/transparent_hugepage/enabled
              fi
              if test -f /sys/kernel/mm/transparent_hugepage/defrag; then
                echo never > /sys/kernel/mm/transparent_hugepage/defrag
              fi
  13. Deshabilite selinux cambiando SELINUX=enforcing a SELINUX=disabled . Debe reiniciar el host para que el cambio sea efectivo.

    vi /etc/sysconfig/selinux
  14. Añade las siguientes líneas a limit.conf para establecer el límite del descriptor de archivo y el tamaño de la pila.

    vi /etc/security/limits.conf
    *               hard    nofile          65536
    *               soft    stack           10240
  15. Agregue espacio de intercambio a la máquina virtual DB si no hay espacio de intercambio configurado con esta instrucción:"¿Cómo asigno memoria para que funcione como espacio de intercambio en una instancia de Amazon EC2 mediante un archivo de intercambio?" La cantidad exacta de espacio a agregar depende del tamaño de la RAM hasta 16G.

  16. Cambiar node.session.timeo.replacement_timeout en el iscsi.conf archivo de configuración de 120 a 5 segundos.

    vi /etc/iscsi/iscsid.conf
  17. Habilite e inicie el servicio iSCSI en la instancia EC2.

    systemctl enable iscsid
    systemctl start iscsid
  18. Recupere la dirección del iniciador iSCSI que se utilizará para la asignación de LUN de la base de datos.

    cat /etc/iscsi/initiatorname.iscsi
  19. Agregue los grupos asm para el usuario de administración asm (oracle).

    groupadd asmadmin
    groupadd asmdba
    groupadd asmoper
  20. Modifique el usuario de Oracle para agregar grupos asm como grupos secundarios (el usuario de Oracle debería haberse creado después de la instalación de RPM de preinstalación de Oracle).

    usermod -a -G asmadmin oracle
    usermod -a -G asmdba oracle
    usermod -a -G asmoper oracle
  21. Detenga y deshabilite el firewall de Linux si está activo.

    systemctl stop firewalld
    systemctl disable firewalld
  22. Habilite sudo sin contraseña para el usuario administrador descomentando # %wheel ALL=(ALL) NOPASSWD: ALL línea en el archivo /etc/sudoers. Cambie el permiso del archivo para realizar la edición.

    chmod 640 /etc/sudoers
    vi /etc/sudoers
    chmod 440 /etc/sudoers
  23. Reinicie la instancia EC2.

Aprovisionar y asignar LUN de FSx ONTAP a la máquina virtual de base de datos

Details

Aprovisione tres volúmenes desde la línea de comandos iniciando sesión en el clúster FSx como usuario fsxadmin a través de ssh y la IP de administración del clúster FSx. Cree LUN dentro de los volúmenes para alojar los archivos binarios, de datos y de registros de la base de datos de Oracle.

  1. Inicie sesión en el clúster FSx a través de SSH como el usuario fsxadmin.

    ssh fsxadmin@10.49.0.74
  2. Ejecute el siguiente comando para crear un volumen para el binario de Oracle.

    vol create -volume ora_02_biny -aggregate aggr1 -size 50G -state online  -type RW -snapshot-policy none -tiering-policy snapshot-only
  3. Ejecute el siguiente comando para crear un volumen para datos de Oracle.

    vol create -volume ora_02_data -aggregate aggr1 -size 100G -state online  -type RW -snapshot-policy none -tiering-policy snapshot-only
  4. Ejecute el siguiente comando para crear un volumen para los registros de Oracle.

    vol create -volume ora_02_logs -aggregate aggr1 -size 100G -state online  -type RW -snapshot-policy none -tiering-policy snapshot-only
  5. Validar los volúmenes creados.

    vol show ora*

    Salida del comando:

    FsxId0c00cec8dad373fd1::> vol show ora*
    Vserver   Volume       Aggregate    State      Type       Size  Available Used%
    --------- ------------ ------------ ---------- ---- ---------- ---------- -----
    nim       ora_02_biny  aggr1        online     RW         50GB    22.98GB   51%
    nim       ora_02_data  aggr1        online     RW        100GB    18.53GB   80%
    nim       ora_02_logs  aggr1        online     RW         50GB     7.98GB   83%
  6. Cree un LUN binario dentro del volumen binario de la base de datos.

    lun create -path /vol/ora_02_biny/ora_02_biny_01 -size 40G -ostype linux
  7. Crear LUN de datos dentro del volumen de datos de la base de datos.

    lun create -path /vol/ora_02_data/ora_02_data_01 -size 20G -ostype linux
    lun create -path /vol/ora_02_data/ora_02_data_02 -size 20G -ostype linux
    lun create -path /vol/ora_02_data/ora_02_data_03 -size 20G -ostype linux
    lun create -path /vol/ora_02_data/ora_02_data_04 -size 20G -ostype linux
  8. Cree LUN de registro dentro del volumen de registros de la base de datos.

    lun create -path /vol/ora_02_logs/ora_02_logs_01 -size 40G -ostype linux
    lun create -path /vol/ora_02_logs/ora_02_logs_02 -size 40G -ostype linux
  9. Cree un igroup para la instancia EC2 con el iniciador recuperado del paso 14 de la configuración del kernel EC2 anterior.

    igroup create -igroup ora_02 -protocol iscsi -ostype linux -initiator iqn.1994-05.com.redhat:f65fed7641c2
  10. Asigne los LUN al igroup creado anteriormente. Incremente el ID de LUN secuencialmente para cada LUN adicional.

    lun map -path /vol/ora_02_biny/ora_02_biny_01 -igroup ora_02 -vserver svm_ora -lun-id 0
    lun map -path /vol/ora_02_data/ora_02_data_01 -igroup ora_02 -vserver svm_ora -lun-id 1
    lun map -path /vol/ora_02_data/ora_02_data_02 -igroup ora_02 -vserver svm_ora -lun-id 2
    lun map -path /vol/ora_02_data/ora_02_data_03 -igroup ora_02 -vserver svm_ora -lun-id 3
    lun map -path /vol/ora_02_data/ora_02_data_04 -igroup ora_02 -vserver svm_ora -lun-id 4
    lun map -path /vol/ora_02_logs/ora_02_logs_01 -igroup ora_02 -vserver svm_ora -lun-id 5
    lun map -path /vol/ora_02_logs/ora_02_logs_02 -igroup ora_02 -vserver svm_ora -lun-id 6
  11. Validar la asignación de LUN.

    mapping show

    Se espera que esto regrese:

    FsxId0c00cec8dad373fd1::> mapping show
      (lun mapping show)
    Vserver    Path                                      Igroup   LUN ID  Protocol
    ---------- ----------------------------------------  -------  ------  --------
    nim        /vol/ora_02_biny/ora_02_u01_01            ora_02        0  iscsi
    nim        /vol/ora_02_data/ora_02_u02_01            ora_02        1  iscsi
    nim        /vol/ora_02_data/ora_02_u02_02            ora_02        2  iscsi
    nim        /vol/ora_02_data/ora_02_u02_03            ora_02        3  iscsi
    nim        /vol/ora_02_data/ora_02_u02_04            ora_02        4  iscsi
    nim        /vol/ora_02_logs/ora_02_u03_01            ora_02        5  iscsi
    nim        /vol/ora_02_logs/ora_02_u03_02            ora_02        6  iscsi

Configuración de almacenamiento de la máquina virtual de base de datos

Details

Ahora, importe y configure el almacenamiento de FSx ONTAP para la infraestructura de la red Oracle y la instalación de la base de datos en la máquina virtual de base de datos VMC.

  1. Inicie sesión en la máquina virtual de base de datos a través de SSH como usuario administrador usando Putty desde el servidor de salto de Windows.

  2. Descubra los puntos finales iSCSI de FSx utilizando cualquier dirección IP iSCSI de SVM. Cambie a la dirección del portal específico de su entorno.

    sudo iscsiadm iscsiadm --mode discovery --op update --type sendtargets --portal 10.49.0.12
  3. Establezca sesiones iSCSI iniciando sesión en cada destino.

    sudo iscsiadm --mode node -l all

    El resultado esperado del comando es:

    [ec2-user@ip-172-30-15-58 ~]$ sudo iscsiadm --mode node -l all
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.12,3260]
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.186,3260]
    Login to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.12,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.186,3260] successful.
  4. Ver y validar una lista de sesiones iSCSI activas.

    sudo iscsiadm --mode session

    Devolver las sesiones iSCSI.

    [ec2-user@ip-172-30-15-58 ~]$ sudo iscsiadm --mode session
    tcp: [1] 10.49.0.186:3260,1028 iqn.1992-08.com.netapp:sn.545a38bf06ac11ee8503e395ab90d704:vs.3 (non-flash)
    tcp: [2] 10.49.0.12:3260,1029 iqn.1992-08.com.netapp:sn.545a38bf06ac11ee8503e395ab90d704:vs.3 (non-flash)
  5. Verifique que los LUN se hayan importado al host.

    sudo sanlun lun show

    Esto devolverá una lista de LUN de Oracle de FSx.

    [admin@ora_02 ~]$ sudo sanlun lun show
    controller(7mode/E-Series)/                                                  device          host                  lun
    vserver(cDOT/FlashRay)        lun-pathname                                   filename        adapter    protocol   size    product
    -------------------------------------------------------------------------------------------------------------------------------
    nim                           /vol/ora_02_logs/ora_02_u03_02                 /dev/sdo        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_logs/ora_02_u03_01                 /dev/sdn        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_04                 /dev/sdm        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_03                 /dev/sdl        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_02                 /dev/sdk        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_01                 /dev/sdj        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_biny/ora_02_u01_01                 /dev/sdi        host34     iSCSI      40g     cDOT
    nim                           /vol/ora_02_logs/ora_02_u03_02                 /dev/sdh        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_logs/ora_02_u03_01                 /dev/sdg        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_04                 /dev/sdf        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_03                 /dev/sde        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_02                 /dev/sdd        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_01                 /dev/sdc        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_biny/ora_02_u01_01                 /dev/sdb        host33     iSCSI      40g     cDOT
  6. Configurar el multipath.conf archivo con las siguientes entradas predeterminadas y de lista negra.

    sudo vi /etc/multipath.conf

    Añade las siguientes entradas:

    defaults {
        find_multipaths yes
        user_friendly_names yes
    }
    
    blacklist {
        devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
        devnode "^hd[a-z]"
        devnode "^cciss.*"
    }
  7. Inicie el servicio multiruta.

    sudo systemctl start multipathd

    Ahora aparecen dispositivos multitrayecto en el /dev/mapper directorio.

    [ec2-user@ip-172-30-15-58 ~]$ ls -l /dev/mapper
    total 0
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e68512d -> ../dm-0
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685141 -> ../dm-1
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685142 -> ../dm-2
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685143 -> ../dm-3
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685144 -> ../dm-4
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685145 -> ../dm-5
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685146 -> ../dm-6
    crw------- 1 root root 10, 236 Mar 21 18:19 control
  8. Inicie sesión en el clúster FSx ONTAP como usuario fsxadmin a través de SSH para recuperar el número de serie hexadecimal de cada LUN comenzando con 6c574xxx…​, el número HEX comienza con 3600a0980, que es el ID del proveedor de AWS.

    lun show -fields serial-hex

    y regresar de la siguiente manera:

    FsxId02ad7bf3476b741df::> lun show -fields serial-hex
    vserver path                            serial-hex
    ------- ------------------------------- ------------------------
    svm_ora /vol/ora_02_biny/ora_02_biny_01 6c574235472455534e68512d
    svm_ora /vol/ora_02_data/ora_02_data_01 6c574235472455534e685141
    svm_ora /vol/ora_02_data/ora_02_data_02 6c574235472455534e685142
    svm_ora /vol/ora_02_data/ora_02_data_03 6c574235472455534e685143
    svm_ora /vol/ora_02_data/ora_02_data_04 6c574235472455534e685144
    svm_ora /vol/ora_02_logs/ora_02_logs_01 6c574235472455534e685145
    svm_ora /vol/ora_02_logs/ora_02_logs_02 6c574235472455534e685146
    7 entries were displayed.
  9. Actualizar el /dev/multipath.conf archivo para agregar un nombre fácil de usar para el dispositivo multirruta.

    sudo vi /etc/multipath.conf

    con las siguientes entradas:

    multipaths {
            multipath {
                    wwid            3600a09806c574235472455534e68512d
                    alias           ora_02_biny_01
            }
            multipath {
                    wwid            3600a09806c574235472455534e685141
                    alias           ora_02_data_01
            }
            multipath {
                    wwid            3600a09806c574235472455534e685142
                    alias           ora_02_data_02
            }
            multipath {
                    wwid            3600a09806c574235472455534e685143
                    alias           ora_02_data_03
            }
            multipath {
                    wwid            3600a09806c574235472455534e685144
                    alias           ora_02_data_04
            }
            multipath {
                    wwid            3600a09806c574235472455534e685145
                    alias           ora_02_logs_01
            }
            multipath {
                    wwid            3600a09806c574235472455534e685146
                    alias           ora_02_logs_02
            }
    }
  10. Reinicie el servicio multiruta para verificar que los dispositivos bajo /dev/mapper Han cambiado a nombres LUN en lugar de identificadores hexadecimales en serie.

    sudo systemctl restart multipathd

    Controlar /dev/mapper Para volver de la siguiente manera:

    [ec2-user@ip-172-30-15-58 ~]$ ls -l /dev/mapper
    total 0
    crw------- 1 root root 10, 236 Mar 21 18:19 control
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_biny_01 -> ../dm-0
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_01 -> ../dm-1
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_02 -> ../dm-2
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_03 -> ../dm-3
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_04 -> ../dm-4
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_logs_01 -> ../dm-5
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_logs_02 -> ../dm-6
  11. Particionar el LUN binario con una única partición primaria.

    sudo fdisk /dev/mapper/ora_02_biny_01
  12. Formatee el LUN binario particionado con un sistema de archivos XFS.

    sudo mkfs.xfs /dev/mapper/ora_02_biny_01p1
  13. Montar el LUN binario en /u01 .

    sudo mkdir /u01
    sudo mount -t xfs /dev/mapper/ora_02_biny_01p1 /u01
  14. Cambiar /u01 propiedad del punto de montaje al usuario Oracle y su grupo primario asociado.

    sudo chown oracle:oinstall /u01
  15. Encuentre la UUI del LUN binario.

    sudo blkid /dev/mapper/ora_02_biny_01p1
  16. Agregar un punto de montaje a /etc/fstab .

    sudo vi /etc/fstab

    Añade la siguiente línea.

    UUID=d89fb1c9-4f89-4de4-b4d9-17754036d11d       /u01    xfs     defaults,nofail 0       2
  17. Como usuario root, agregue la regla udev para los dispositivos Oracle.

    vi /etc/udev/rules.d/99-oracle-asmdevices.rules

    Incluya las siguientes entradas:

    ENV{DM_NAME}=="ora*", GROUP:="oinstall", OWNER:="oracle", MODE:="660"
  18. Como usuario root, vuelva a cargar las reglas udev.

    udevadm control --reload-rules
  19. Como usuario root, active las reglas udev.

    udevadm trigger
  20. Como usuario root, recargue multipathd.

    systemctl restart multipathd
  21. Reinicie el host de la instancia EC2.

Instalación de infraestructura de red de Oracle

Details
  1. Inicie sesión en la máquina virtual de base de datos como usuario administrador a través de SSH y habilite la autenticación de contraseña descomentando PasswordAuthentication yes y luego comentar PasswordAuthentication no .

    sudo vi /etc/ssh/sshd_config
  2. Reinicie el servicio sshd.

    sudo systemctl restart sshd
  3. Restablecer la contraseña del usuario de Oracle.

    sudo passwd oracle
  4. Inicie sesión como usuario propietario del software Oracle Restart (oracle). Cree un directorio de Oracle de la siguiente manera:

    mkdir -p /u01/app/oracle
    mkdir -p /u01/app/oraInventory
  5. Cambiar la configuración de permisos del directorio.

    chmod -R 775 /u01/app
  6. Cree un directorio de inicio de cuadrícula y cámbiese a él.

    mkdir -p /u01/app/oracle/product/19.0.0/grid
    cd /u01/app/oracle/product/19.0.0/grid
  7. Descomprima los archivos de instalación de la cuadrícula.

    unzip -q /tmp/archive/LINUX.X64_193000_grid_home.zip
  8. Desde la página de inicio de la red, elimine el OPatch directorio.

    rm -rf OPatch
  9. Desde la red de inicio, descomprima p6880880_190000_Linux-x86-64.zip .

    unzip -q /tmp/archive/p6880880_190000_Linux-x86-64.zip
  10. Desde la red de casa, revise cv/admin/cvu_config , descomentar y reemplazar CV_ASSUME_DISTID=OEL5 con CV_ASSUME_DISTID=OL7 .

    vi cv/admin/cvu_config
  11. Preparar una gridsetup.rsp Archivo para instalación silenciosa y coloque el archivo rsp en el /tmp/archive directorio. El archivo rsp debe cubrir las secciones A, B y G con la siguiente información:

    INVENTORY_LOCATION=/u01/app/oraInventory
    oracle.install.option=HA_CONFIG
    ORACLE_BASE=/u01/app/oracle
    oracle.install.asm.OSDBA=asmdba
    oracle.install.asm.OSOPER=asmoper
    oracle.install.asm.OSASM=asmadmin
    oracle.install.asm.SYSASMPassword="SetPWD"
    oracle.install.asm.diskGroup.name=DATA
    oracle.install.asm.diskGroup.redundancy=EXTERNAL
    oracle.install.asm.diskGroup.AUSize=4
    oracle.install.asm.diskGroup.disks=/dev/mapper/ora_02_data_01,/dev/mapper/ora_02_data_02,/dev/mapper/ora_02_data_03,/dev/mapper/ora_02_data_04
    oracle.install.asm.diskGroup.diskDiscoveryString=/dev/mapper/*
    oracle.install.asm.monitorPassword="SetPWD"
    oracle.install.asm.configureAFD=true
  12. Inicie sesión en la instancia EC2 como usuario raíz y configure ORACLE_HOME y ORACLE_BASE .

    export ORACLE_HOME=/u01/app/oracle/product/19.0.0/
    export ORACLE_BASE=/tmp
    cd /u01/app/oracle/product/19.0.0/grid/bin
  13. Inicializar dispositivos de disco para su uso con el controlador de filtro Oracle ASM.

     ./asmcmd afd_label DATA01 /dev/mapper/ora_02_data_01 --init
     ./asmcmd afd_label DATA02 /dev/mapper/ora_02_data_02 --init
     ./asmcmd afd_label DATA03 /dev/mapper/ora_02_data_03 --init
     ./asmcmd afd_label DATA04 /dev/mapper/ora_02_data_04 --init
     ./asmcmd afd_label LOGS01 /dev/mapper/ora_02_logs_01 --init
     ./asmcmd afd_label LOGS02 /dev/mapper/ora_02_logs_02 --init
  14. Instalar cvuqdisk-1.0.10-1.rpm .

    rpm -ivh /u01/app/oracle/product/19.0.0/grid/cv/rpm/cvuqdisk-1.0.10-1.rpm
  15. Desactivado $ORACLE_BASE .

    unset ORACLE_BASE
  16. Inicie sesión en la instancia EC2 como usuario de Oracle y extraiga el parche en el /tmp/archive carpeta.

    unzip -q /tmp/archive/p34762026_190000_Linux-x86-64.zip -d /tmp/archive
  17. Desde la página de inicio de la red /u01/app/oracle/product/19.0.0/grid y como usuario de Oracle, inicie gridSetup.sh para la instalación de infraestructura de red.

     ./gridSetup.sh -applyRU /tmp/archive/34762026/ -silent -responseFile /tmp/archive/gridsetup.rsp
  18. Como usuario root, ejecute los siguientes scripts:

    /u01/app/oraInventory/orainstRoot.sh
    /u01/app/oracle/product/19.0.0/grid/root.sh
  19. Como usuario root, recargue multipathd.

    systemctl restart multipathd
  20. Como usuario de Oracle, ejecute el siguiente comando para completar la configuración:

    /u01/app/oracle/product/19.0.0/grid/gridSetup.sh -executeConfigTools -responseFile /tmp/archive/gridsetup.rsp -silent
  21. Como usuario de Oracle, cree el grupo de discos LOGS.

    bin/asmca -silent -sysAsmPassword 'yourPWD' -asmsnmpPassword 'yourPWD' -createDiskGroup -diskGroupName LOGS -disk 'AFD:LOGS*' -redundancy EXTERNAL -au_size 4
  22. Como usuario de Oracle, valide los servicios de la red después de la configuración de la instalación.

    bin/crsctl stat res -t
    [oracle@ora_02 grid]$ bin/crsctl stat res -t
    --------------------------------------------------------------------------------
    Name           Target  State        Server                   State details
    --------------------------------------------------------------------------------
    Local Resources
    --------------------------------------------------------------------------------
    ora.DATA.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.LISTENER.lsnr
                   ONLINE  INTERMEDIATE ora_02                   Not All Endpoints Re
                                                                 gistered,STABLE
    ora.LOGS.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.asm
                   ONLINE  ONLINE       ora_02                   Started,STABLE
    ora.ons
                   OFFLINE OFFLINE      ora_02                   STABLE
    --------------------------------------------------------------------------------
    Cluster Resources
    --------------------------------------------------------------------------------
    ora.cssd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.diskmon
          1        OFFLINE OFFLINE                               STABLE
    ora.driver.afd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.evmd
          1        ONLINE  ONLINE       ora_02                   STABLE
    --------------------------------------------------------------------------------
  23. Valiar el estado del controlador del filtro ASM.

    [oracle@ora_02 grid]$ export ORACLE_HOME=/u01/app/oracle/product/19.0.0/grid
    [oracle@ora_02 grid]$ export ORACLE_SID=+ASM
    [oracle@ora_02 grid]$ export PATH=$PATH:$ORACLE_HOME/bin
    [oracle@ora_02 grid]$ asmcmd
    ASMCMD> lsdg
    State    Type    Rebal  Sector  Logical_Sector  Block       AU  Total_MB  Free_MB  Req_mir_free_MB  Usable_file_MB  Offline_disks  Voting_files  Name
    MOUNTED  EXTERN  N         512             512   4096  4194304     81920    81780                0           81780              0             N  DATA/
    MOUNTED  EXTERN  N         512             512   4096  4194304     40960    40852                0           40852              0             N  LOGS/
    ASMCMD> afd_state
    ASMCMD-9526: The AFD state is 'LOADED' and filtering is 'ENABLED' on host 'ora_02'
    ASMCMD> exit
    [oracle@ora_02 grid]$
  24. Validar el estado del servicio HA.

    [oracle@ora_02 bin]$ ./crsctl check has
    CRS-4638: Oracle High Availability Services is online

Instalación de la base de datos Oracle

Details
  1. Inicie sesión como usuario de Oracle y desactive la configuración. $ORACLE_HOME y $ORACLE_SID Si está configurado.

    unset ORACLE_HOME
    unset ORACLE_SID
  2. Cree el directorio de inicio de Oracle DB y cámbielo.

    mkdir /u01/app/oracle/product/19.0.0/cdb3
    cd /u01/app/oracle/product/19.0.0/cdb3
  3. Descomprima los archivos de instalación de Oracle DB.

    unzip -q /tmp/archive/LINUX.X64_193000_db_home.zip
  4. Desde la página de inicio de la base de datos, elimine el OPatch directorio.

    rm -rf OPatch
  5. Desde la página de inicio de la base de datos, descomprima p6880880_190000_Linux-x86-64.zip .

    unzip -q /tmp/archive/p6880880_190000_Linux-x86-64.zip
  6. Desde la base de datos de inicio, revise cv/admin/cvu_config y descomentar y reemplazar CV_ASSUME_DISTID=OEL5 con CV_ASSUME_DISTID=OL7 .

    vi cv/admin/cvu_config
  7. Desde /tmp/archive directorio, descomprima el parche DB 19.18 RU.

    unzip -q /tmp/archive/p34765931_190000_Linux-x86-64.zip -d /tmp/archive
  8. Prepare el archivo rsp de instalación silenciosa de la base de datos en /tmp/archive/dbinstall.rsp directorio con los siguientes valores:

    oracle.install.option=INSTALL_DB_SWONLY
    UNIX_GROUP_NAME=oinstall
    INVENTORY_LOCATION=/u01/app/oraInventory
    ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb3
    ORACLE_BASE=/u01/app/oracle
    oracle.install.db.InstallEdition=EE
    oracle.install.db.OSDBA_GROUP=dba
    oracle.install.db.OSOPER_GROUP=oper
    oracle.install.db.OSBACKUPDBA_GROUP=oper
    oracle.install.db.OSDGDBA_GROUP=dba
    oracle.install.db.OSKMDBA_GROUP=dba
    oracle.install.db.OSRACDBA_GROUP=dba
    oracle.install.db.rootconfig.executeRootScript=false
  9. Desde cdb3 home /u01/app/oracle/product/19.0.0/cdb3, ejecute una instalación silenciosa de la base de datos (solo software).

     ./runInstaller -applyRU /tmp/archive/34765931/ -silent -ignorePrereqFailure -responseFile /tmp/archive/dbinstall.rsp
  10. Como usuario root, ejecute el root.sh Script después de la instalación únicamente del software.

    /u01/app/oracle/product/19.0.0/db1/root.sh
  11. Como usuario de Oracle, cree el dbca.rsp archivo con las siguientes entradas:

    gdbName=cdb3.demo.netapp.com
    sid=cdb3
    createAsContainerDatabase=true
    numberOfPDBs=3
    pdbName=cdb3_pdb
    useLocalUndoForPDBs=true
    pdbAdminPassword="yourPWD"
    templateName=General_Purpose.dbc
    sysPassword="yourPWD"
    systemPassword="yourPWD"
    dbsnmpPassword="yourPWD"
    datafileDestination=+DATA
    recoveryAreaDestination=+LOGS
    storageType=ASM
    diskGroupName=DATA
    characterSet=AL32UTF8
    nationalCharacterSet=AL16UTF16
    listeners=LISTENER
    databaseType=MULTIPURPOSE
    automaticMemoryManagement=false
    totalMemory=8192
  12. Como usuario de Oracle, inicie la creación de la base de datos con dbca.

    bin/dbca -silent -createDatabase -responseFile /tmp/archive/dbca.rsp

    producción:

Prepare for db operation
7% complete
Registering database with Oracle Restart
11% complete
Copying database files
33% complete
Creating and starting Oracle instance
35% complete
38% complete
42% complete
45% complete
48% complete
Completing Database Creation
53% complete
55% complete
56% complete
Creating Pluggable Databases
60% complete
64% complete
69% complete
78% complete
Executing Post Configuration Actions
100% complete
Database creation complete. For details check the logfiles at:
 /u01/app/oracle/cfgtoollogs/dbca/cdb3.
Database Information:
Global Database Name:cdb3.vmc.netapp.com
System Identifier(SID):cdb3
Look at the log file "/u01/app/oracle/cfgtoollogs/dbca/cdb3/cdb3.log" for further details.
  1. Repita los mismos procedimientos del paso 2 para crear una base de datos contenedora cdb4 en un ORACLE_HOME /u01/app/oracle/product/19.0.0/cdb4 separado con un solo PDB.

  2. Como usuario de Oracle, valide que todas las bases de datos (cdb3, cdb4) estén registradas con los servicios de HA al reiniciar los servicios de HA de Oracle después de la creación de la base de datos.

    /u01/app/oracle/product/19.0.0/grid/crsctl stat res -t

    producción:

    [oracle@ora_02 bin]$ ./crsctl stat res -t
    --------------------------------------------------------------------------------
    Name           Target  State        Server                   State details
    --------------------------------------------------------------------------------
    Local Resources
    --------------------------------------------------------------------------------
    ora.DATA.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.LISTENER.lsnr
                   ONLINE  INTERMEDIATE ora_02                   Not All Endpoints Re
                                                                 gistered,STABLE
    ora.LOGS.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.asm
                   ONLINE  ONLINE       ora_02                   Started,STABLE
    ora.ons
                   OFFLINE OFFLINE      ora_02                   STABLE
    --------------------------------------------------------------------------------
    Cluster Resources
    --------------------------------------------------------------------------------
    ora.cdb3.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb3,STABLE
    ora.cdb4.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb4,STABLE
    ora.cssd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.diskmon
          1        OFFLINE OFFLINE                               STABLE
    ora.driver.afd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.evmd
          1        ONLINE  ONLINE       ora_02                   STABLE
    --------------------------------------------------------------------------------
  3. Establecer el usuario de Oracle .bash_profile .

    vi ~/.bash_profile

    Añade las siguientes entradas:

    export ORACLE_HOME=/u01/app/oracle/product/19.0.0/db3
    export ORACLE_SID=db3
    export PATH=$PATH:$ORACLE_HOME/bin
    alias asm='export ORACLE_HOME=/u01/app/oracle/product/19.0.0/grid;export ORACLE_SID=+ASM;export PATH=$PATH:$ORACLE_HOME/bin'
    alias cdb3='export ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb3;export ORACLE_SID=cdb3;export PATH=$PATH:$ORACLE_HOME/bin'
    alias cdb4='export ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb4;export ORACLE_SID=cdb4;export PATH=$PATH:$ORACLE_HOME/bin'
  4. Validar la CDB/PDB creada para cdb3.

    cdb3
    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Mon Oct 9 08:19:20 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL>
    
    SQL> select name from v$datafile;
    
    NAME
    --------------------------------------------------------------------------------
    +DATA/CDB3/DATAFILE/system.257.1149420273
    +DATA/CDB3/DATAFILE/sysaux.258.1149420317
    +DATA/CDB3/DATAFILE/undotbs1.259.1149420343
    +DATA/CDB3/86B637B62FE07A65E053F706E80A27CA/DATAFILE/system.266.1149421085
    +DATA/CDB3/86B637B62FE07A65E053F706E80A27CA/DATAFILE/sysaux.267.1149421085
    +DATA/CDB3/DATAFILE/users.260.1149420343
    +DATA/CDB3/86B637B62FE07A65E053F706E80A27CA/DATAFILE/undotbs1.268.1149421085
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/system.272.1149422017
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/sysaux.273.1149422017
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/undotbs1.271.1149422017
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/users.275.1149422033
    
    NAME
    --------------------------------------------------------------------------------
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/system.277.1149422033
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/sysaux.278.1149422033
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/undotbs1.276.1149422033
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/users.280.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/system.282.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/sysaux.283.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/undotbs1.281.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/users.285.1149422063
    
    19 rows selected.
    
    SQL>
  5. Validar la CDB/PDB creada para cdb4.

    cdb4
    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Mon Oct 9 08:20:26 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB4      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB4_PDB                       READ WRITE NO
    SQL>
    
    SQL> select name from v$datafile;
    
    NAME
    --------------------------------------------------------------------------------
    +DATA/CDB4/DATAFILE/system.286.1149424943
    +DATA/CDB4/DATAFILE/sysaux.287.1149424989
    +DATA/CDB4/DATAFILE/undotbs1.288.1149425015
    +DATA/CDB4/86B637B62FE07A65E053F706E80A27CA/DATAFILE/system.295.1149425765
    +DATA/CDB4/86B637B62FE07A65E053F706E80A27CA/DATAFILE/sysaux.296.1149425765
    +DATA/CDB4/DATAFILE/users.289.1149425015
    +DATA/CDB4/86B637B62FE07A65E053F706E80A27CA/DATAFILE/undotbs1.297.1149425765
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/system.301.1149426581
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/sysaux.302.1149426581
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/undotbs1.300.1149426581
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/users.304.1149426597
    
    11 rows selected.
  6. Inicie sesión en cada cdb como sysdba con sqlplus y configure el tamaño del destino de recuperación de la base de datos en el tamaño del grupo de discos +LOGS para ambos cdb.

    alter system set db_recovery_file_dest_size = 40G scope=both;
  7. Inicie sesión en cada cdb como sysdba con sqlplus y habilite el modo de registro de archivo con los siguientes conjuntos de comandos en secuencia.

    sqlplus /as sysdba
    shutdown immediate;
    startup mount;
    alter database archivelog;
    alter database open;

Esto completa la implementación de reinicio de Oracle 19c versión 19.18 en un almacenamiento de Amazon FSx ONTAP y una máquina virtual de base de datos VMC. Si lo desea, NetApp recomienda reubicar el archivo de control de Oracle y los archivos de registro en línea en el grupo de discos +LOGS.

Copia de seguridad, restauración y clonación de Oracle con SnapCenter

Configuración de SnapCenter

Details

SnapCenter se basa en un complemento del lado del host en la máquina virtual de la base de datos para realizar actividades de gestión de protección de datos conscientes de la aplicación. Para obtener información detallada sobre el complemento NetApp SnapCenter para Oracle, consulte esta documentación"¿Qué puede hacer con el complemento para Oracle Database?" . A continuación, se proporcionan pasos de alto nivel para configurar SnapCenter para la copia de seguridad, la recuperación y la clonación de bases de datos Oracle.

  1. Descargue la última versión del SnapCenter software desde el sitio de soporte de NetApp :"Descargas de soporte de NetApp" .

  2. Como administrador, instale el último JDK de Java desde"Obtenga Java para aplicaciones de escritorio" en el host Windows del servidor SnapCenter .

    Nota Si el servidor Windows se implementa en un entorno de dominio, agregue un usuario de dominio al grupo de administradores locales del servidor SnapCenter y ejecute la instalación de SnapCenter con el usuario de dominio.
  3. Inicie sesión en la interfaz de usuario de SnapCenter a través del puerto HTTPS 8846 como usuario de instalación para configurar SnapCenter para Oracle.

  4. Actualizar Hypervisor Settings en entornos globales.

    Captura de pantalla que muestra la configuración de SnapCenter .

  5. Crear políticas de copia de seguridad de bases de datos de Oracle. Lo ideal es crear una política de respaldo de registro de archivo independiente para permitir intervalos de respaldo más frecuentes y minimizar la pérdida de datos en caso de una falla.

    Captura de pantalla que muestra la configuración de SnapCenter .

  6. Agregar servidor de base de datos Credential para el acceso de SnapCenter a la máquina virtual de base de datos. La credencial debe tener privilegios de sudo en una máquina virtual Linux o privilegios de administrador en una máquina virtual Windows.

    Captura de pantalla que muestra la configuración de SnapCenter .

  7. Agregar clúster de almacenamiento FSx ONTAP a Storage Systems con IP de administración de clúster y autenticado a través del ID de usuario fsxadmin.

    Captura de pantalla que muestra la configuración de SnapCenter .

  8. Agregue la máquina virtual de base de datos Oracle en VMC a Hosts con las credenciales de servidor creadas en el paso anterior 6.

    Captura de pantalla que muestra la configuración de SnapCenter .

Nota Asegúrese de que el nombre del servidor SnapCenter pueda resolverse en la dirección IP de la máquina virtual de base de datos y que el nombre de la máquina virtual de base de datos pueda resolverse en la dirección IP del servidor SnapCenter .

Copia de seguridad de la base de datos

Details

SnapCenter aprovecha la instantánea de volumen de FSx ONTAP para realizar copias de seguridad, restauraciones o clones de bases de datos mucho más rápido en comparación con la metodología tradicional basada en RMAN. Las instantáneas son consistentes con la aplicación ya que la base de datos se coloca en modo de copia de seguridad de Oracle antes de una instantánea.

  1. Desde Resources pestaña, cualquier base de datos en la VM se descubre automáticamente después de que la VM se agrega a SnapCenter. Inicialmente, el estado de la base de datos se muestra como Not protected .

    Captura de pantalla que muestra la configuración de SnapCenter .

  2. Cree un grupo de recursos para realizar una copia de seguridad de la base de datos en una agrupación lógica, como por DB, VM, etc. En este ejemplo, creamos un grupo ora_02_data para realizar una copia de seguridad completa de la base de datos en línea para todas las bases de datos en la VM ora_02. El grupo de recursos ora_02_log realiza la copia de seguridad de los registros archivados solo en la máquina virtual. La creación de un grupo de recursos también define una programación para ejecutar la copia de seguridad.

    Captura de pantalla que muestra la configuración de SnapCenter .

  3. La copia de seguridad del grupo de recursos también se puede activar manualmente haciendo clic en Back up Now y ejecutar la copia de seguridad con la política definida en el grupo de recursos.

    Captura de pantalla que muestra la configuración de SnapCenter .

  4. El trabajo de respaldo se puede monitorear en el Monitor pestaña haciendo clic en el trabajo en ejecución.

    Captura de pantalla que muestra la configuración de SnapCenter .

  5. Después de una copia de seguridad exitosa, el estado de la base de datos muestra el estado del trabajo y la hora de la copia de seguridad más reciente.

    Captura de pantalla que muestra la configuración de SnapCenter .

  6. Haga clic en la base de datos para revisar los conjuntos de copias de seguridad de cada base de datos.

    Captura de pantalla que muestra la configuración de SnapCenter .

Recuperación de base de datos

Details

SnapCenter ofrece una serie de opciones de restauración y recuperación para bases de datos Oracle a partir de copias de seguridad instantáneas. En este ejemplo, demostramos una restauración de un punto en el tiempo para recuperar una tabla eliminada por error. En la VM ora_02, dos bases de datos cdb3, cdb4 comparten los mismos grupos de discos +DATA y +LOGS. La restauración de una base de datos no afecta la disponibilidad de la otra base de datos.

  1. Primero, cree una tabla de prueba e inserte una fila en la tabla para validar una recuperación en un punto en el tiempo.

    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Fri Oct 6 14:15:21 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL>
    
    
    SQL> alter session set container=cdb3_pdb1;
    
    Session altered.
    
    SQL> create table test (id integer, dt timestamp, event varchar(100));
    
    Table created.
    
    SQL> insert into test values(1, sysdate, 'test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02');
    
    1 row created.
    
    SQL> commit;
    
    Commit complete.
    
    SQL> select * from test;
    
            ID
    ----------
    DT
    ---------------------------------------------------------------------------
    EVENT
    --------------------------------------------------------------------------------
             1
    06-OCT-23 03.18.24.000000 PM
    test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02
    
    
    SQL> select current_timestamp from dual;
    
    CURRENT_TIMESTAMP
    ---------------------------------------------------------------------------
    06-OCT-23 03.18.53.996678 PM -07:00
  2. Ejecutamos una copia de seguridad manual de una instantánea desde SnapCenter. Luego suelte la mesa.

    SQL> drop table test;
    
    Table dropped.
    
    SQL> commit;
    
    Commit complete.
    
    SQL> select current_timestamp from dual;
    
    CURRENT_TIMESTAMP
    ---------------------------------------------------------------------------
    06-OCT-23 03.26.30.169456 PM -07:00
    
    SQL> select * from test;
    select * from test
                  *
    ERROR at line 1:
    ORA-00942: table or view does not exist
  3. Del conjunto de copias de seguridad creado en el último paso, tome nota del número SCN de la copia de seguridad del registro. Hacer clic en Restore para iniciar el flujo de trabajo de restauración-recuperación.

    Captura de pantalla que muestra la configuración de SnapCenter .

  4. Seleccione el ámbito de restauración.

    Captura de pantalla que muestra la configuración de SnapCenter .

  5. Elija el alcance de recuperación hasta el registro SCN de la última copia de seguridad completa de la base de datos.

    Captura de pantalla que muestra la configuración de SnapCenter .

  6. Especifique cualquier script previo opcional para ejecutar.

    Captura de pantalla que muestra la configuración de SnapCenter .

  7. Especifique cualquier script posterior opcional para ejecutar.

    Captura de pantalla que muestra la configuración de SnapCenter .

  8. Envíe un informe de trabajo si lo desea.

    Captura de pantalla que muestra la configuración de SnapCenter .

  9. Revise el resumen y haga clic en Finish para iniciar la restauración y recuperación.

    Captura de pantalla que muestra la configuración de SnapCenter .

  10. Desde el control de la cuadrícula de reinicio de Oracle, observamos que mientras cdb3 está en restauración y recuperación, cdb4 está en línea y disponible.

    Captura de pantalla que muestra la configuración de SnapCenter .

  11. De Monitor Pestaña, abra el trabajo para revisar los detalles.

    Captura de pantalla que muestra la configuración de SnapCenter .

  12. Desde DB VM ora_02, valide que la tabla eliminada se recupere después de una recuperación exitosa.

    [oracle@ora_02 bin]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Fri Oct 6 17:01:28 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL> alter session set container=CDB3_PDB1;
    
    Session altered.
    
    SQL> select * from test;
    
            ID
    ----------
    DT
    ---------------------------------------------------------------------------
    EVENT
    --------------------------------------------------------------------------------
             1
    06-OCT-23 03.18.24.000000 PM
    test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02
    
    
    SQL> select current_timestamp from dual;
    
    CURRENT_TIMESTAMP
    ---------------------------------------------------------------------------
    06-OCT-23 05.02.20.382702 PM -07:00
    
    SQL>

Clon de base de datos

Details

En este ejemplo, se utilizan los mismos conjuntos de copias de seguridad para clonar una base de datos en la misma máquina virtual en un ORACLE_HOME diferente. Los procedimientos son igualmente aplicables para clonar una base de datos desde la copia de seguridad a una VM separada en VMC si es necesario.

  1. Abra la lista de respaldo de la base de datos cdb3. Desde una copia de seguridad de datos de su elección, haga clic en Clone Botón para iniciar el flujo de trabajo de clonación de base de datos.

    Captura de pantalla que muestra la configuración de SnapCenter .

  2. Nombra el SID de la base de datos clonada.

    Captura de pantalla que muestra la configuración de SnapCenter .

  3. Seleccione una VM en VMC como host de la base de datos de destino. Se debería haber instalado y configurado una versión idéntica de Oracle en el host.

    Captura de pantalla que muestra la configuración de SnapCenter .

  4. Seleccione el ORACLE_HOME, el usuario y el grupo adecuados en el host de destino. Mantener las credenciales predeterminadas.

    Captura de pantalla que muestra la configuración de SnapCenter .

  5. Cambie los parámetros de la base de datos clonada para cumplir con los requisitos de configuración o recursos de la base de datos clonada.

    Captura de pantalla que muestra la configuración de SnapCenter .

  6. Seleccione el alcance de recuperación. Until Cancel recupera el clon hasta el último archivo de registro disponible en el conjunto de respaldo.

    Captura de pantalla que muestra la configuración de SnapCenter .

  7. Revise el resumen e inicie el trabajo de clonación.

    Captura de pantalla que muestra la configuración de SnapCenter .

  8. Supervisar la ejecución del trabajo de clonación desde Monitor pestaña.

    Captura de pantalla que muestra la configuración de SnapCenter .

  9. La base de datos clonada se registra inmediatamente en SnapCenter.

    Captura de pantalla que muestra la configuración de SnapCenter .

  10. Desde DB VM ora_02, la base de datos clonada también se registra en el control de cuadrícula de reinicio de Oracle y la tabla de prueba descartada se recupera en la base de datos clonada cdb3tst como se muestra a continuación.

    [oracle@ora_02 ~]$ /u01/app/oracle/product/19.0.0/grid/bin/crsctl stat res -t
    --------------------------------------------------------------------------------
    Name           Target  State        Server                   State details
    --------------------------------------------------------------------------------
    Local Resources
    --------------------------------------------------------------------------------
    ora.DATA.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.LISTENER.lsnr
                   ONLINE  INTERMEDIATE ora_02                   Not All Endpoints Re
                                                                 gistered,STABLE
    ora.LOGS.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.SC_2090922_CDB3TST.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.asm
                   ONLINE  ONLINE       ora_02                   Started,STABLE
    ora.ons
                   OFFLINE OFFLINE      ora_02                   STABLE
    --------------------------------------------------------------------------------
    Cluster Resources
    --------------------------------------------------------------------------------
    ora.cdb3.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb3,STABLE
    ora.cdb3tst.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb4,STABLE
    ora.cdb4.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb4,STABLE
    ora.cssd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.diskmon
          1        OFFLINE OFFLINE                               STABLE
    ora.driver.afd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.evmd
          1        ONLINE  ONLINE       ora_02                   STABLE
    --------------------------------------------------------------------------------
    
    [oracle@ora_02 ~]$ export ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb4
    [oracle@ora_02 ~]$ export ORACLE_SID=cdb3tst
    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Sat Oct 7 08:04:51 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3TST   READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL> alter session set container=CDB3_PDB1;
    
    Session altered.
    
    SQL> select * from test;
    
            ID
    ----------
    DT
    ---------------------------------------------------------------------------
    EVENT
    --------------------------------------------------------------------------------
             1
    06-OCT-23 03.18.24.000000 PM
    test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02
    
    
    SQL>

Esto completa la demostración de la copia de seguridad, restauración y clonación de la base de datos Oracle de SnapCenter en VMC SDDC en AWS.

Dónde encontrar información adicional

Para obtener más información sobre la información descrita en este documento, revise los siguientes documentos y/o sitios web: