Skip to main content
NetApp database solutions
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

TR-4979: Vereinfachtes, selbstverwaltetes Oracle in VMware Cloud auf AWS mit gastgemountetem FSx ONTAP

Beitragende netapp-revathid kevin-hoke

Allen Cao, Niyaz Mohamed, NetApp

Diese Lösung bietet einen Überblick und Details zur Oracle-Bereitstellung und zum Schutz in VMware Cloud in AWS mit FSx ONTAP als primärem Datenbankspeicher und einer Oracle-Datenbank, die in einem eigenständigen ReStart mit asm als Volume-Manager konfiguriert ist.

Zweck

Unternehmen führen Oracle seit Jahrzehnten auf VMware in privaten Rechenzentren aus. VMware Cloud (VMC) auf AWS bietet eine Knopfdrucklösung, um die Software-Defined Data Center (SDDC)-Software der Enterprise-Klasse von VMware in die dedizierte, elastische Bare-Metal-Infrastruktur der AWS Cloud zu bringen. AWS FSx ONTAP bietet Premium-Speicher für VMC SDDC und ein Daten-Fabric, das es Kunden ermöglicht, geschäftskritische Anwendungen wie Oracle in vSphere-basierten privaten, öffentlichen und hybriden Cloud-Umgebungen mit optimiertem Zugriff auf AWS-Dienste auszuführen. Unabhängig davon, ob es sich um eine vorhandene oder neue Oracle-Workload handelt, bietet VMC auf AWS eine vertraute, vereinfachte und selbstverwaltete Oracle-Umgebung auf VMware mit allen Vorteilen der AWS-Cloud, während die gesamte Plattformverwaltung und -optimierung an VMware überlassen wird.

Diese Dokumentation demonstriert die Bereitstellung und den Schutz einer Oracle-Datenbank in einer VMC-Umgebung mit Amazon FSx ONTAP als primärem Datenbankspeicher. Oracle-Datenbanken können auf VMC auf FSx-Speicher als direkt auf VM-Gastgeräten bereitgestellte LUNs oder als NFS-gemountete VMware VMDK-Datenspeicherfestplatten bereitgestellt werden. Dieser technische Bericht konzentriert sich auf die Bereitstellung von Oracle-Datenbanken als direkter, vom Gast bereitgestellter FSx-Speicher für VMs im VMC-Cluster mit dem iSCSI-Protokoll und Oracle ASM. Wir zeigen außerdem, wie Sie mit dem NetApp SnapCenter UI-Tool eine Oracle-Datenbank für Entwicklung/Test oder andere Anwendungsfälle für einen speichereffizienten Datenbankbetrieb im VMC auf AWS sichern, wiederherstellen und klonen.

Diese Lösung ist für die folgenden Anwendungsfälle geeignet:

  • Oracle-Datenbankbereitstellung in VMC auf AWS mit Amazon FSx ONTAP als primärem Datenbankspeicher

  • Sicherung und Wiederherstellung von Oracle-Datenbanken in VMC auf AWS mit dem NetApp SnapCenter -Tool

  • Oracle-Datenbankklon für Entwicklung/Test oder andere Anwendungsfälle in VMC auf AWS mit dem NetApp SnapCenter -Tool

Publikum

Diese Lösung ist für folgende Personen gedacht:

  • Ein DBA, der Oracle in VMC auf AWS mit Amazon FSx ONTAP bereitstellen möchte

  • Ein Datenbanklösungsarchitekt, der Oracle-Workloads in VMC in der AWS-Cloud testen möchte

  • Ein Speicheradministrator, der eine Oracle-Datenbank bereitstellen und verwalten möchte, die in VMC auf AWS mit Amazon FSx ONTAP bereitgestellt wird

  • Ein Anwendungsbesitzer, der eine Oracle-Datenbank in VMC in der AWS-Cloud einrichten möchte

Test- und Validierungsumgebung für Lösungen

Das Testen und Validieren dieser Lösung wurde in einer Laborumgebung mit VMC auf AWS durchgeführt, die möglicherweise nicht der endgültigen Bereitstellungsumgebung entspricht. Weitere Informationen finden Sie im Abschnitt Wichtige Faktoren für die Bereitstellungsüberlegungen .

Architektur

Dieses Bild bietet eine detaillierte Darstellung der Oracle-Bereitstellungskonfiguration in der öffentlichen AWS-Cloud mit iSCSI und ASM.

Hardware- und Softwarekomponenten

Hardware

FSx ONTAP Speicher

Aktuelle von AWS angebotene Version

Ein FSx ONTAP HA-Cluster in derselben VPC und Verfügbarkeitszone wie VMC

VMC SDDC-Cluster

Amazon EC2 i3.metal Einzelknoten/Intel Xeon E5-2686 CPU, 36 Kerne/512 G RAM

10,37 TB vSAN-Speicher

Software

RedHat Linux

RHEL-8.6, 4.18.0-372.9.1.el8.x86_64-Kernel

RedHat-Abonnement zum Testen bereitgestellt

Windows Server

2022 Standard, 10.0.20348 Build 20348

Hosten des SnapCenter -Servers

Oracle Grid-Infrastruktur

Version 19.18

RU-Patch p34762026_190000_Linux-x86-64.zip angewendet

Oracle-Datenbank

Version 19.18

RU-Patch p34765931_190000_Linux-x86-64.zip angewendet

Oracle OPatch

Version 12.2.0.1.36

Neuester Patch p6880880_190000_Linux-x86-64.zip

SnapCenter Server

Version 4.9P1

Arbeitsgruppenbereitstellung

BlueXP backup and recovery für VMs

Version 1.0

Als OVA-vSphere-Plugin-VM bereitgestellt

VMware vSphere

Version 8.0.1.00300

VMware Tools, Version: 11365 – Linux, 12352 – Windows

Öffnen Sie JDK

Version java-1.8.0-openjdk.x86_64

SnapCenter -Plugin-Anforderung für DB-VMs

Oracle-Datenbankkonfiguration in VMC auf AWS

Server

Datenbank

DB-Speicher

ora_01

cdb1(cdb1_pdb1,cdb1_pdb2,cdb1_pdb3)

VMDK-Datenspeicher auf FSx ONTAP

ora_01

cdb2(cdb2_pdb)

VMDK-Datenspeicher auf FSx ONTAP

ora_02

cdb3(cdb3_pdb1,cdb3_pdb2,cdb3_pdb3)

Direkt auf dem Gast installiertes FSx ONTAP

ora_02

cdb4(cdb4_pdb)

Direkt auf dem Gast installiertes FSx ONTAP

Wichtige Faktoren für die Bereitstellungsüberlegungen

  • FSx-zu-VMC-Konnektivität. Wenn Sie Ihr SDDC auf VMware Cloud on AWS bereitstellen, wird es innerhalb eines AWS-Kontos und einer VPC erstellt, die Ihrer Organisation gewidmet ist und von VMware verwaltet wird. Sie müssen das SDDC außerdem mit einem AWS-Konto verbinden, das Ihnen gehört und als AWS-Kundenkonto bezeichnet wird. Über diese Verbindung kann Ihr SDDC auf AWS-Dienste zugreifen, die zu Ihrem Kundenkonto gehören. FSx ONTAP ist ein AWS-Dienst, der in Ihrem Kundenkonto bereitgestellt wird. Sobald das VMC SDDC mit Ihrem Kundenkonto verbunden ist, steht FSx-Speicher für VMs im VMC SDDC zur direkten Gastmontage zur Verfügung.

  • FSx-Speicher-HA-Cluster, Bereitstellung in einer oder mehreren Zonen. Bei diesen Tests und Validierungen haben wir einen FSx HA-Cluster in einer einzelnen AWS-Verfügbarkeitszone bereitgestellt. NetApp empfiehlt außerdem, FSx ONTAP und VMware Cloud auf AWS in derselben Verfügbarkeitszone bereitzustellen, um eine bessere Leistung zu erzielen und Datenübertragungsgebühren zwischen Verfügbarkeitszonen zu vermeiden.

  • Größenbestimmung des FSx-Speicherclusters. Ein Amazon FSx ONTAP Speicherdateisystem bietet bis zu 160.000 rohe SSD-IOPS, bis zu 4 GBps Durchsatz und eine maximale Kapazität von 192 TiB. Sie können die Größe des Clusters jedoch hinsichtlich bereitgestellter IOPS, Durchsatz und Speicherlimit (mindestens 1.024 GiB) basierend auf Ihren tatsächlichen Anforderungen zum Zeitpunkt der Bereitstellung anpassen. Die Kapazität kann dynamisch im laufenden Betrieb angepasst werden, ohne die Anwendungsverfügbarkeit zu beeinträchtigen.

  • Layout der Oracle-Daten und -Protokolle. In unseren Tests und Validierungen haben wir zwei ASM-Datenträgergruppen für Daten bzw. Protokolle bereitgestellt. Innerhalb der +DATA-ASM-Datenträgergruppe haben wir vier LUNs in einem Datenvolumen bereitgestellt. Innerhalb der +LOGS-ASM-Datenträgergruppe haben wir zwei LUNs in einem Protokollvolume bereitgestellt. Im Allgemeinen bieten mehrere LUNs, die innerhalb eines Amazon FSx ONTAP Volumes angeordnet sind, eine bessere Leistung.

  • iSCSI-Konfiguration. Die Datenbank-VMs in VMC SDDC stellen über das iSCSI-Protokoll eine Verbindung zum FSx-Speicher her. Es ist wichtig, den Spitzendurchsatzbedarf der Oracle-Datenbank für E/A abzuschätzen, indem Sie den Oracle AWR-Bericht sorgfältig analysieren, um die Anforderungen an den Anwendungs- und iSCSI-Datendurchsatz zu bestimmen. NetApp empfiehlt außerdem, beiden FSx-iSCSI-Endpunkten vier iSCSI-Verbindungen mit ordnungsgemäß konfiguriertem Multipath zuzuweisen.

  • Oracle ASM-Redundanzstufe, die für jede von Ihnen erstellte Oracle ASM-Datenträgergruppe verwendet werden soll. Da FSx ONTAP den Speicher bereits auf FSx-Clusterebene spiegelt, sollten Sie externe Redundanz verwenden. Dies bedeutet, dass die Option es Oracle ASM nicht erlaubt, den Inhalt der Datenträgergruppe zu spiegeln.

  • Datenbanksicherung. NetApp bietet eine SnapCenter software zum Sichern, Wiederherstellen und Klonen von Datenbanken mit einer benutzerfreundlichen Benutzeroberfläche. NetApp empfiehlt die Implementierung eines solchen Verwaltungstools, um schnelle (unter einer Minute) SnapShot-Backups, schnelle (Minuten) Datenbankwiederherstellungen und Datenbankklone zu erreichen.

Lösungsbereitstellung

Die folgenden Abschnitte enthalten schrittweise Anleitungen für die Bereitstellung von Oracle 19c in VMC auf AWS mit direkt gemountetem FSx ONTAP -Speicher auf DB-VM in einem Einzelknoten. Starten Sie die Konfiguration mit Oracle ASM als Datenbank-Volume-Manager neu.

Voraussetzungen für die Bereitstellung

Details

Für die Bereitstellung sind die folgenden Voraussetzungen erforderlich.

  1. Es wurde ein softwaredefiniertes Rechenzentrum (SDDC) mit VMware Cloud auf AWS erstellt. Ausführliche Anweisungen zum Erstellen eines SDDC in VMC finden Sie in der VMware-Dokumentation."Erste Schritte mit VMware Cloud auf AWS"

  2. Ein AWS-Konto wurde eingerichtet und die erforderlichen VPC- und Netzwerksegmente wurden innerhalb Ihres AWS-Kontos erstellt. Das AWS-Konto ist mit Ihrem VMC SDDC verknüpft.

  3. Stellen Sie über die AWS EC2-Konsole einen Amazon FSx ONTAP -Speicher-HA-Cluster bereit, um die Oracle-Datenbank-Volumes zu hosten. Wenn Sie mit der Bereitstellung von FSx-Speicher nicht vertraut sind, lesen Sie die Dokumentation"Erstellen von FSx ONTAP Dateisystemen" für schrittweise Anleitungen.

  4. Der obige Schritt kann mit dem folgenden Terraform-Automatisierungs-Toolkit durchgeführt werden, das eine EC2-Instanz als Jump-Host für SDDC im VMC-Zugriff über SSH und ein FSx-Dateisystem erstellt. Lesen Sie die Anweisungen sorgfältig durch und ändern Sie die Variablen vor der Ausführung entsprechend Ihrer Umgebung.

    git clone https://github.com/NetApp-Automation/na_aws_fsx_ec2_deploy.git
  5. Erstellen Sie VMs in VMware SDDC auf AWS, um Ihre Oracle-Umgebung zu hosten und in VMC bereitzustellen. In unserer Demonstration haben wir zwei Linux-VMs als Oracle-DB-Server, einen Windows-Server für den SnapCenter -Server und einen optionalen Linux-Server als Ansible-Controller für die automatisierte Oracle-Installation oder -Konfiguration erstellt, falls gewünscht. Nachfolgend sehen Sie eine Momentaufnahme der Laborumgebung für die Lösungsvalidierung.

    Screenshot, der die VMC SDDC-Testumgebung zeigt.

  6. Optional bietet NetApp auch mehrere Automatisierungs-Toolkits zur Ausführung der Oracle-Bereitstellung und -Konfiguration, falls zutreffend.

Hinweis Stellen Sie sicher, dass Sie im Oracle VM-Stammvolume mindestens 50 GB zugewiesen haben, um ausreichend Speicherplatz für die Bereitstellung der Oracle-Installationsdateien zu haben.

DB VM-Kernelkonfiguration

Details

Nachdem Sie die Voraussetzungen erfüllt haben, melden Sie sich per SSH als Administratorbenutzer bei der Oracle-VM an und wechseln Sie per Sudo zum Root-Benutzer, um den Linux-Kernel für die Oracle-Installation zu konfigurieren. Oracle-Installationsdateien können in einem AWS S3-Bucket bereitgestellt und in die VM übertragen werden.

  1. Erstellen Sie ein Staging-Verzeichnis /tmp/archive Ordner und legen Sie die 777 Erlaubnis.

    mkdir /tmp/archive
    chmod 777 /tmp/archive
  2. Laden Sie die binären Oracle-Installationsdateien und andere erforderliche RPM-Dateien herunter und stellen Sie sie auf dem /tmp/archive Verzeichnis.

    In der folgenden Liste sind die Installationsdateien anzugeben, die in /tmp/archive auf der DB-VM.

    [admin@ora_02 ~]$ ls -l /tmp/archive/
    total 10539364
    -rw-rw-r--. 1 admin  admin         19112 Oct  4 17:04 compat-libcap1-1.10-7.el7.x86_64.rpm
    -rw-rw-r--. 1 admin  admin    3059705302 Oct  4 17:10 LINUX.X64_193000_db_home.zip
    -rw-rw-r--. 1 admin  admin    2889184573 Oct  4 17:11 LINUX.X64_193000_grid_home.zip
    -rw-rw-r--. 1 admin  admin        589145 Oct  4 17:04 netapp_linux_unified_host_utilities-7-1.x86_64.rpm
    -rw-rw-r--. 1 admin  admin         31828 Oct  4 17:04 oracle-database-preinstall-19c-1.0-2.el8.x86_64.rpm
    -rw-rw-r--. 1 admin  admin    2872741741 Oct  4 17:12 p34762026_190000_Linux-x86-64.zip
    -rw-rw-r--. 1 admin  admin    1843577895 Oct  4 17:13 p34765931_190000_Linux-x86-64.zip
    -rw-rw-r--. 1 admin  admin     124347218 Oct  4 17:13 p6880880_190000_Linux-x86-64.zip
    -rw-rw-r--. 1 admin  admin        257136 Oct  4 17:04 policycoreutils-python-utils-2.9-9.el8.noarch.rpm
    [admin@ora_02 ~]$
  3. Installieren Sie Oracle 19c Preinstall RPM, das die meisten Kernel-Konfigurationsanforderungen erfüllt.

    yum install /tmp/archive/oracle-database-preinstall-19c-1.0-2.el8.x86_64.rpm
  4. Laden Sie die fehlenden herunter und installieren Sie sie compat-libcap1 in Linux 8.

    yum install /tmp/archive/compat-libcap1-1.10-7.el7.x86_64.rpm
  5. Laden Sie von NetApp die NetApp Host-Dienstprogramme herunter und installieren Sie sie.

    yum install /tmp/archive/netapp_linux_unified_host_utilities-7-1.x86_64.rpm
  6. Installieren policycoreutils-python-utils .

    yum install /tmp/archive/policycoreutils-python-utils-2.9-9.el8.noarch.rpm
  7. Installieren Sie Open JDK Version 1.8.

    yum install java-1.8.0-openjdk.x86_64
  8. Installieren Sie die iSCSI-Initiator-Dienstprogramme.

    yum install iscsi-initiator-utils
  9. Installieren Sie sg3_utils.

    yum install sg3_utils
  10. Installieren Sie device-mapper-multipath.

    yum install device-mapper-multipath
  11. Deaktivieren Sie transparente Hugepages im aktuellen System.

    echo never > /sys/kernel/mm/transparent_hugepage/enabled
    echo never > /sys/kernel/mm/transparent_hugepage/defrag
  12. Fügen Sie die folgenden Zeilen hinzu in /etc/rc.local deaktivieren transparent_hugepage nach dem Neustart.

    vi /etc/rc.local
      # Disable transparent hugepages
              if test -f /sys/kernel/mm/transparent_hugepage/enabled; then
                echo never > /sys/kernel/mm/transparent_hugepage/enabled
              fi
              if test -f /sys/kernel/mm/transparent_hugepage/defrag; then
                echo never > /sys/kernel/mm/transparent_hugepage/defrag
              fi
  13. Deaktivieren Sie Selinux, indem Sie SELINUX=enforcing Zu SELINUX=disabled . Sie müssen den Host neu starten, damit die Änderung wirksam wird.

    vi /etc/sysconfig/selinux
  14. Fügen Sie die folgenden Zeilen hinzu limit.conf um das Dateideskriptorlimit und die Stapelgröße festzulegen.

    vi /etc/security/limits.conf
    *               hard    nofile          65536
    *               soft    stack           10240
  15. Fügen Sie der DB-VM Swap-Speicherplatz hinzu, wenn mit dieser Anweisung kein Swap-Speicherplatz konfiguriert ist:"Wie ordne ich mithilfe einer Auslagerungsdatei Speicher zu, der als Auslagerungsspeicher in einer Amazon EC2-Instanz fungiert?" Die genaue Menge an hinzuzufügendem Speicherplatz hängt von der Größe des RAM ab und kann bis zu 16 GB betragen.

  16. Ändern node.session.timeo.replacement_timeout im iscsi.conf Konfigurationsdatei von 120 auf 5 Sekunden.

    vi /etc/iscsi/iscsid.conf
  17. Aktivieren und starten Sie den iSCSI-Dienst auf der EC2-Instance.

    systemctl enable iscsid
    systemctl start iscsid
  18. Rufen Sie die iSCSI-Initiatoradresse ab, die für die Datenbank-LUN-Zuordnung verwendet werden soll.

    cat /etc/iscsi/initiatorname.iscsi
  19. Fügen Sie die ASM-Gruppen für den ASM-Verwaltungsbenutzer (Oracle) hinzu.

    groupadd asmadmin
    groupadd asmdba
    groupadd asmoper
  20. Ändern Sie den Oracle-Benutzer, um ASM-Gruppen als sekundäre Gruppen hinzuzufügen (der Oracle-Benutzer sollte nach der RPM-Vorinstallation von Oracle erstellt worden sein).

    usermod -a -G asmadmin oracle
    usermod -a -G asmdba oracle
    usermod -a -G asmoper oracle
  21. Stoppen und deaktivieren Sie die Linux-Firewall, falls sie aktiv ist.

    systemctl stop firewalld
    systemctl disable firewalld
  22. Aktivieren Sie passwortloses Sudo für den Administratorbenutzer, indem Sie die Kommentarzeichen entfernen. # %wheel ALL=(ALL) NOPASSWD: ALL Zeile in der Datei /etc/sudoers. Ändern Sie die Dateiberechtigung, um die Bearbeitung vorzunehmen.

    chmod 640 /etc/sudoers
    vi /etc/sudoers
    chmod 440 /etc/sudoers
  23. Starten Sie die EC2-Instance neu.

Bereitstellen und Zuordnen von FSx ONTAP LUNs zur DB-VM

Details

Stellen Sie drei Volumes über die Befehlszeile bereit, indem Sie sich als fsxadmin-Benutzer über SSH und die FSx-Cluster-Verwaltungs-IP beim FSx-Cluster anmelden. Erstellen Sie LUNs innerhalb der Volumes, um die Binär-, Daten- und Protokolldateien der Oracle-Datenbank zu hosten.

  1. Melden Sie sich über SSH als Benutzer fsxadmin beim FSx-Cluster an.

    ssh fsxadmin@10.49.0.74
  2. Führen Sie den folgenden Befehl aus, um ein Volume für die Oracle-Binärdatei zu erstellen.

    vol create -volume ora_02_biny -aggregate aggr1 -size 50G -state online  -type RW -snapshot-policy none -tiering-policy snapshot-only
  3. Führen Sie den folgenden Befehl aus, um ein Volume für Oracle-Daten zu erstellen.

    vol create -volume ora_02_data -aggregate aggr1 -size 100G -state online  -type RW -snapshot-policy none -tiering-policy snapshot-only
  4. Führen Sie den folgenden Befehl aus, um ein Volume für Oracle-Protokolle zu erstellen.

    vol create -volume ora_02_logs -aggregate aggr1 -size 100G -state online  -type RW -snapshot-policy none -tiering-policy snapshot-only
  5. Validieren Sie die erstellten Volumes.

    vol show ora*

    Ausgabe des Befehls:

    FsxId0c00cec8dad373fd1::> vol show ora*
    Vserver   Volume       Aggregate    State      Type       Size  Available Used%
    --------- ------------ ------------ ---------- ---- ---------- ---------- -----
    nim       ora_02_biny  aggr1        online     RW         50GB    22.98GB   51%
    nim       ora_02_data  aggr1        online     RW        100GB    18.53GB   80%
    nim       ora_02_logs  aggr1        online     RW         50GB     7.98GB   83%
  6. Erstellen Sie eine binäre LUN innerhalb des binären Datenbankvolumes.

    lun create -path /vol/ora_02_biny/ora_02_biny_01 -size 40G -ostype linux
  7. Erstellen Sie Daten-LUNs innerhalb des Datenbankdatenvolumens.

    lun create -path /vol/ora_02_data/ora_02_data_01 -size 20G -ostype linux
    lun create -path /vol/ora_02_data/ora_02_data_02 -size 20G -ostype linux
    lun create -path /vol/ora_02_data/ora_02_data_03 -size 20G -ostype linux
    lun create -path /vol/ora_02_data/ora_02_data_04 -size 20G -ostype linux
  8. Erstellen Sie Protokoll-LUNs innerhalb des Datenbankprotokoll-Volumes.

    lun create -path /vol/ora_02_logs/ora_02_logs_01 -size 40G -ostype linux
    lun create -path /vol/ora_02_logs/ora_02_logs_02 -size 40G -ostype linux
  9. Erstellen Sie eine Igroup für die EC2-Instanz mit dem Initiator, der aus Schritt 14 der obigen EC2-Kernelkonfiguration abgerufen wurde.

    igroup create -igroup ora_02 -protocol iscsi -ostype linux -initiator iqn.1994-05.com.redhat:f65fed7641c2
  10. Ordnen Sie die LUNs der oben erstellten igroup zu. Erhöhen Sie die LUN-ID sequenziell für jede zusätzliche LUN.

    lun map -path /vol/ora_02_biny/ora_02_biny_01 -igroup ora_02 -vserver svm_ora -lun-id 0
    lun map -path /vol/ora_02_data/ora_02_data_01 -igroup ora_02 -vserver svm_ora -lun-id 1
    lun map -path /vol/ora_02_data/ora_02_data_02 -igroup ora_02 -vserver svm_ora -lun-id 2
    lun map -path /vol/ora_02_data/ora_02_data_03 -igroup ora_02 -vserver svm_ora -lun-id 3
    lun map -path /vol/ora_02_data/ora_02_data_04 -igroup ora_02 -vserver svm_ora -lun-id 4
    lun map -path /vol/ora_02_logs/ora_02_logs_01 -igroup ora_02 -vserver svm_ora -lun-id 5
    lun map -path /vol/ora_02_logs/ora_02_logs_02 -igroup ora_02 -vserver svm_ora -lun-id 6
  11. Validieren Sie die LUN-Zuordnung.

    mapping show

    Es wird erwartet, dass Folgendes zurückkehrt:

    FsxId0c00cec8dad373fd1::> mapping show
      (lun mapping show)
    Vserver    Path                                      Igroup   LUN ID  Protocol
    ---------- ----------------------------------------  -------  ------  --------
    nim        /vol/ora_02_biny/ora_02_u01_01            ora_02        0  iscsi
    nim        /vol/ora_02_data/ora_02_u02_01            ora_02        1  iscsi
    nim        /vol/ora_02_data/ora_02_u02_02            ora_02        2  iscsi
    nim        /vol/ora_02_data/ora_02_u02_03            ora_02        3  iscsi
    nim        /vol/ora_02_data/ora_02_u02_04            ora_02        4  iscsi
    nim        /vol/ora_02_logs/ora_02_u03_01            ora_02        5  iscsi
    nim        /vol/ora_02_logs/ora_02_u03_02            ora_02        6  iscsi

DB-VM-Speicherkonfiguration

Details

Importieren und richten Sie nun den FSx ONTAP -Speicher für die Oracle-Grid-Infrastruktur und die Datenbankinstallation auf der VMC-Datenbank-VM ein.

  1. Melden Sie sich als Administratorbenutzer über SSH mit Putty vom Windows-Jump-Server bei der DB-VM an.

  2. Ermitteln Sie die FSx-iSCSI-Endpunkte mithilfe einer der SVM-iSCSI-IP-Adressen. Wechseln Sie zu Ihrer umgebungsspezifischen Portaladresse.

    sudo iscsiadm iscsiadm --mode discovery --op update --type sendtargets --portal 10.49.0.12
  3. Richten Sie iSCSI-Sitzungen ein, indem Sie sich bei jedem Ziel anmelden.

    sudo iscsiadm --mode node -l all

    Die erwartete Ausgabe des Befehls ist:

    [ec2-user@ip-172-30-15-58 ~]$ sudo iscsiadm --mode node -l all
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.12,3260]
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.186,3260]
    Login to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.12,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:sn.1f795e65c74911edb785affbf0a2b26e:vs.3, portal: 10.49.0.186,3260] successful.
  4. Zeigen Sie eine Liste aktiver iSCSI-Sitzungen an und validieren Sie sie.

    sudo iscsiadm --mode session

    Geben Sie die iSCSI-Sitzungen zurück.

    [ec2-user@ip-172-30-15-58 ~]$ sudo iscsiadm --mode session
    tcp: [1] 10.49.0.186:3260,1028 iqn.1992-08.com.netapp:sn.545a38bf06ac11ee8503e395ab90d704:vs.3 (non-flash)
    tcp: [2] 10.49.0.12:3260,1029 iqn.1992-08.com.netapp:sn.545a38bf06ac11ee8503e395ab90d704:vs.3 (non-flash)
  5. Überprüfen Sie, ob die LUNs in den Host importiert wurden.

    sudo sanlun lun show

    Dadurch wird eine Liste der Oracle-LUNs von FSx zurückgegeben.

    [admin@ora_02 ~]$ sudo sanlun lun show
    controller(7mode/E-Series)/                                                  device          host                  lun
    vserver(cDOT/FlashRay)        lun-pathname                                   filename        adapter    protocol   size    product
    -------------------------------------------------------------------------------------------------------------------------------
    nim                           /vol/ora_02_logs/ora_02_u03_02                 /dev/sdo        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_logs/ora_02_u03_01                 /dev/sdn        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_04                 /dev/sdm        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_03                 /dev/sdl        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_02                 /dev/sdk        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_01                 /dev/sdj        host34     iSCSI      20g     cDOT
    nim                           /vol/ora_02_biny/ora_02_u01_01                 /dev/sdi        host34     iSCSI      40g     cDOT
    nim                           /vol/ora_02_logs/ora_02_u03_02                 /dev/sdh        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_logs/ora_02_u03_01                 /dev/sdg        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_04                 /dev/sdf        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_03                 /dev/sde        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_02                 /dev/sdd        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_data/ora_02_u02_01                 /dev/sdc        host33     iSCSI      20g     cDOT
    nim                           /vol/ora_02_biny/ora_02_u01_01                 /dev/sdb        host33     iSCSI      40g     cDOT
  6. Konfigurieren Sie die multipath.conf Datei mit folgenden Standard- und Blacklist-Einträgen.

    sudo vi /etc/multipath.conf

    Fügen Sie folgende Einträge hinzu:

    defaults {
        find_multipaths yes
        user_friendly_names yes
    }
    
    blacklist {
        devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
        devnode "^hd[a-z]"
        devnode "^cciss.*"
    }
  7. Starten Sie den Multipath-Dienst.

    sudo systemctl start multipathd

    Jetzt erscheinen Multipath-Geräte in der /dev/mapper Verzeichnis.

    [ec2-user@ip-172-30-15-58 ~]$ ls -l /dev/mapper
    total 0
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e68512d -> ../dm-0
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685141 -> ../dm-1
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685142 -> ../dm-2
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685143 -> ../dm-3
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685144 -> ../dm-4
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685145 -> ../dm-5
    lrwxrwxrwx 1 root root       7 Mar 21 20:13 3600a09806c574235472455534e685146 -> ../dm-6
    crw------- 1 root root 10, 236 Mar 21 18:19 control
  8. Melden Sie sich als Benutzer fsxadmin über SSH beim FSx ONTAP -Cluster an, um die serielle Hex-Nummer für jede LUN abzurufen, die mit 6c574xxx…​ beginnt. Die HEX-Nummer beginnt mit 3600a0980, der AWS-Anbieter-ID.

    lun show -fields serial-hex

    und kehren Sie wie folgt zurück:

    FsxId02ad7bf3476b741df::> lun show -fields serial-hex
    vserver path                            serial-hex
    ------- ------------------------------- ------------------------
    svm_ora /vol/ora_02_biny/ora_02_biny_01 6c574235472455534e68512d
    svm_ora /vol/ora_02_data/ora_02_data_01 6c574235472455534e685141
    svm_ora /vol/ora_02_data/ora_02_data_02 6c574235472455534e685142
    svm_ora /vol/ora_02_data/ora_02_data_03 6c574235472455534e685143
    svm_ora /vol/ora_02_data/ora_02_data_04 6c574235472455534e685144
    svm_ora /vol/ora_02_logs/ora_02_logs_01 6c574235472455534e685145
    svm_ora /vol/ora_02_logs/ora_02_logs_02 6c574235472455534e685146
    7 entries were displayed.
  9. Aktualisieren Sie die /dev/multipath.conf Datei, um einen benutzerfreundlichen Namen für das Multipath-Gerät hinzuzufügen.

    sudo vi /etc/multipath.conf

    mit folgenden Einträgen:

    multipaths {
            multipath {
                    wwid            3600a09806c574235472455534e68512d
                    alias           ora_02_biny_01
            }
            multipath {
                    wwid            3600a09806c574235472455534e685141
                    alias           ora_02_data_01
            }
            multipath {
                    wwid            3600a09806c574235472455534e685142
                    alias           ora_02_data_02
            }
            multipath {
                    wwid            3600a09806c574235472455534e685143
                    alias           ora_02_data_03
            }
            multipath {
                    wwid            3600a09806c574235472455534e685144
                    alias           ora_02_data_04
            }
            multipath {
                    wwid            3600a09806c574235472455534e685145
                    alias           ora_02_logs_01
            }
            multipath {
                    wwid            3600a09806c574235472455534e685146
                    alias           ora_02_logs_02
            }
    }
  10. Starten Sie den Multipath-Dienst neu, um zu überprüfen, ob die Geräte unter /dev/mapper wurden von seriellen Hex-IDs auf LUN-Namen umgestellt.

    sudo systemctl restart multipathd

    Überprüfen /dev/mapper um wie folgt zurückzukehren:

    [ec2-user@ip-172-30-15-58 ~]$ ls -l /dev/mapper
    total 0
    crw------- 1 root root 10, 236 Mar 21 18:19 control
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_biny_01 -> ../dm-0
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_01 -> ../dm-1
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_02 -> ../dm-2
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_03 -> ../dm-3
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_data_04 -> ../dm-4
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_logs_01 -> ../dm-5
    lrwxrwxrwx 1 root root       7 Mar 21 20:41 ora_02_logs_02 -> ../dm-6
  11. Partitionieren Sie die binäre LUN mit einer einzelnen primären Partition.

    sudo fdisk /dev/mapper/ora_02_biny_01
  12. Formatieren Sie die partitionierte binäre LUN mit einem XFS-Dateisystem.

    sudo mkfs.xfs /dev/mapper/ora_02_biny_01p1
  13. Hängen Sie die binäre LUN ein in /u01 .

    sudo mkdir /u01
    sudo mount -t xfs /dev/mapper/ora_02_biny_01p1 /u01
  14. Ändern /u01 Der Besitz des Mount-Punkts liegt beim Oracle-Benutzer und der zugehörigen primären Gruppe.

    sudo chown oracle:oinstall /u01
  15. Suchen Sie die UUI der binären LUN.

    sudo blkid /dev/mapper/ora_02_biny_01p1
  16. Fügen Sie einen Einhängepunkt hinzu zu /etc/fstab .

    sudo vi /etc/fstab

    Fügen Sie die folgende Zeile hinzu.

    UUID=d89fb1c9-4f89-4de4-b4d9-17754036d11d       /u01    xfs     defaults,nofail 0       2
  17. Fügen Sie als Root-Benutzer die Udev-Regel für Oracle-Geräte hinzu.

    vi /etc/udev/rules.d/99-oracle-asmdevices.rules

    Fügen Sie folgende Einträge hinzu:

    ENV{DM_NAME}=="ora*", GROUP:="oinstall", OWNER:="oracle", MODE:="660"
  18. Laden Sie als Root-Benutzer die Udev-Regeln neu.

    udevadm control --reload-rules
  19. Lösen Sie als Root-Benutzer die Udev-Regeln aus.

    udevadm trigger
  20. Laden Sie Multipathd als Root-Benutzer neu.

    systemctl restart multipathd
  21. Starten Sie den EC2-Instance-Host neu.

Installation der Oracle Grid-Infrastruktur

Details
  1. Melden Sie sich als Administrator über SSH bei der DB-VM an und aktivieren Sie die Kennwortauthentifizierung, indem Sie die Kommentarzeichen entfernen. PasswordAuthentication yes und dann auskommentieren PasswordAuthentication no .

    sudo vi /etc/ssh/sshd_config
  2. Starten Sie den SSHD-Dienst neu.

    sudo systemctl restart sshd
  3. Setzen Sie das Oracle-Benutzerkennwort zurück.

    sudo passwd oracle
  4. Melden Sie sich als Oracle Restart-Softwarebesitzerbenutzer (Oracle) an. Erstellen Sie ein Oracle-Verzeichnis wie folgt:

    mkdir -p /u01/app/oracle
    mkdir -p /u01/app/oraInventory
  5. Ändern Sie die Verzeichnisberechtigungseinstellung.

    chmod -R 775 /u01/app
  6. Erstellen Sie ein Grid-Home-Verzeichnis und wechseln Sie dorthin.

    mkdir -p /u01/app/oracle/product/19.0.0/grid
    cd /u01/app/oracle/product/19.0.0/grid
  7. Entpacken Sie die Grid-Installationsdateien.

    unzip -q /tmp/archive/LINUX.X64_193000_grid_home.zip
  8. Löschen Sie im Grid Home die OPatch Verzeichnis.

    rm -rf OPatch
  9. Entpacken Sie die Datei vom Grid Home p6880880_190000_Linux-x86-64.zip .

    unzip -q /tmp/archive/p6880880_190000_Linux-x86-64.zip
  10. Von Grid Home aus überarbeiten cv/admin/cvu_config , Kommentar entfernen und ersetzen CV_ASSUME_DISTID=OEL5 mit CV_ASSUME_DISTID=OL7 .

    vi cv/admin/cvu_config
  11. Bereiten Sie ein gridsetup.rsp Datei für die stille Installation und platzieren Sie die rsp-Datei im /tmp/archive Verzeichnis. Die RSP-Datei sollte die Abschnitte A, B und G mit den folgenden Informationen abdecken:

    INVENTORY_LOCATION=/u01/app/oraInventory
    oracle.install.option=HA_CONFIG
    ORACLE_BASE=/u01/app/oracle
    oracle.install.asm.OSDBA=asmdba
    oracle.install.asm.OSOPER=asmoper
    oracle.install.asm.OSASM=asmadmin
    oracle.install.asm.SYSASMPassword="SetPWD"
    oracle.install.asm.diskGroup.name=DATA
    oracle.install.asm.diskGroup.redundancy=EXTERNAL
    oracle.install.asm.diskGroup.AUSize=4
    oracle.install.asm.diskGroup.disks=/dev/mapper/ora_02_data_01,/dev/mapper/ora_02_data_02,/dev/mapper/ora_02_data_03,/dev/mapper/ora_02_data_04
    oracle.install.asm.diskGroup.diskDiscoveryString=/dev/mapper/*
    oracle.install.asm.monitorPassword="SetPWD"
    oracle.install.asm.configureAFD=true
  12. Melden Sie sich als Root-Benutzer bei der EC2-Instanz an und legen Sie fest ORACLE_HOME Und ORACLE_BASE .

    export ORACLE_HOME=/u01/app/oracle/product/19.0.0/
    export ORACLE_BASE=/tmp
    cd /u01/app/oracle/product/19.0.0/grid/bin
  13. Initialisieren Sie Festplattengeräte zur Verwendung mit dem Oracle ASM-Filtertreiber.

     ./asmcmd afd_label DATA01 /dev/mapper/ora_02_data_01 --init
     ./asmcmd afd_label DATA02 /dev/mapper/ora_02_data_02 --init
     ./asmcmd afd_label DATA03 /dev/mapper/ora_02_data_03 --init
     ./asmcmd afd_label DATA04 /dev/mapper/ora_02_data_04 --init
     ./asmcmd afd_label LOGS01 /dev/mapper/ora_02_logs_01 --init
     ./asmcmd afd_label LOGS02 /dev/mapper/ora_02_logs_02 --init
  14. Installieren cvuqdisk-1.0.10-1.rpm .

    rpm -ivh /u01/app/oracle/product/19.0.0/grid/cv/rpm/cvuqdisk-1.0.10-1.rpm
  15. Nicht gesetzt $ORACLE_BASE .

    unset ORACLE_BASE
  16. Melden Sie sich als Oracle-Benutzer bei der EC2-Instanz an und extrahieren Sie den Patch im /tmp/archive Ordner.

    unzip -q /tmp/archive/p34762026_190000_Linux-x86-64.zip -d /tmp/archive
  17. Starten Sie vom Grid-Home /u01/app/oracle/product/19.0.0/grid als Oracle-Benutzer gridSetup.sh für die Installation der Netzinfrastruktur.

     ./gridSetup.sh -applyRU /tmp/archive/34762026/ -silent -responseFile /tmp/archive/gridsetup.rsp
  18. Führen Sie als Root-Benutzer die folgenden Skripts aus:

    /u01/app/oraInventory/orainstRoot.sh
    /u01/app/oracle/product/19.0.0/grid/root.sh
  19. Laden Sie Multipathd als Root-Benutzer neu.

    systemctl restart multipathd
  20. Führen Sie als Oracle-Benutzer den folgenden Befehl aus, um die Konfiguration abzuschließen:

    /u01/app/oracle/product/19.0.0/grid/gridSetup.sh -executeConfigTools -responseFile /tmp/archive/gridsetup.rsp -silent
  21. Erstellen Sie als Oracle-Benutzer die LOGS-Datenträgergruppe.

    bin/asmca -silent -sysAsmPassword 'yourPWD' -asmsnmpPassword 'yourPWD' -createDiskGroup -diskGroupName LOGS -disk 'AFD:LOGS*' -redundancy EXTERNAL -au_size 4
  22. Validieren Sie als Oracle-Benutzer die Grid-Dienste nach der Installationskonfiguration.

    bin/crsctl stat res -t
    [oracle@ora_02 grid]$ bin/crsctl stat res -t
    --------------------------------------------------------------------------------
    Name           Target  State        Server                   State details
    --------------------------------------------------------------------------------
    Local Resources
    --------------------------------------------------------------------------------
    ora.DATA.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.LISTENER.lsnr
                   ONLINE  INTERMEDIATE ora_02                   Not All Endpoints Re
                                                                 gistered,STABLE
    ora.LOGS.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.asm
                   ONLINE  ONLINE       ora_02                   Started,STABLE
    ora.ons
                   OFFLINE OFFLINE      ora_02                   STABLE
    --------------------------------------------------------------------------------
    Cluster Resources
    --------------------------------------------------------------------------------
    ora.cssd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.diskmon
          1        OFFLINE OFFLINE                               STABLE
    ora.driver.afd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.evmd
          1        ONLINE  ONLINE       ora_02                   STABLE
    --------------------------------------------------------------------------------
  23. Überprüfen Sie den Status des ASM-Filtertreibers.

    [oracle@ora_02 grid]$ export ORACLE_HOME=/u01/app/oracle/product/19.0.0/grid
    [oracle@ora_02 grid]$ export ORACLE_SID=+ASM
    [oracle@ora_02 grid]$ export PATH=$PATH:$ORACLE_HOME/bin
    [oracle@ora_02 grid]$ asmcmd
    ASMCMD> lsdg
    State    Type    Rebal  Sector  Logical_Sector  Block       AU  Total_MB  Free_MB  Req_mir_free_MB  Usable_file_MB  Offline_disks  Voting_files  Name
    MOUNTED  EXTERN  N         512             512   4096  4194304     81920    81780                0           81780              0             N  DATA/
    MOUNTED  EXTERN  N         512             512   4096  4194304     40960    40852                0           40852              0             N  LOGS/
    ASMCMD> afd_state
    ASMCMD-9526: The AFD state is 'LOADED' and filtering is 'ENABLED' on host 'ora_02'
    ASMCMD> exit
    [oracle@ora_02 grid]$
  24. Überprüfen Sie den HA-Dienststatus.

    [oracle@ora_02 bin]$ ./crsctl check has
    CRS-4638: Oracle High Availability Services is online

Oracle-Datenbankinstallation

Details
  1. Melden Sie sich als Oracle-Benutzer an und heben Sie die $ORACLE_HOME Und $ORACLE_SID wenn es eingestellt ist.

    unset ORACLE_HOME
    unset ORACLE_SID
  2. Erstellen Sie das Oracle DB-Stammverzeichnis und ändern Sie das Verzeichnis dorthin.

    mkdir /u01/app/oracle/product/19.0.0/cdb3
    cd /u01/app/oracle/product/19.0.0/cdb3
  3. Entpacken Sie die Oracle DB-Installationsdateien.

    unzip -q /tmp/archive/LINUX.X64_193000_db_home.zip
  4. Löschen Sie aus der Datenbank-Startseite die OPatch Verzeichnis.

    rm -rf OPatch
  5. Entpacken Sie die Datei von DB Home p6880880_190000_Linux-x86-64.zip .

    unzip -q /tmp/archive/p6880880_190000_Linux-x86-64.zip
  6. Von DB Home aus überarbeiten cv/admin/cvu_config und auskommentieren und ersetzen CV_ASSUME_DISTID=OEL5 mit CV_ASSUME_DISTID=OL7 .

    vi cv/admin/cvu_config
  7. Aus dem /tmp/archive Entpacken Sie den DB 19.18 RU-Patch.

    unzip -q /tmp/archive/p34765931_190000_Linux-x86-64.zip -d /tmp/archive
  8. Bereiten Sie die DB-Silent-Install-RSP-Datei vor in /tmp/archive/dbinstall.rsp Verzeichnis mit den folgenden Werten:

    oracle.install.option=INSTALL_DB_SWONLY
    UNIX_GROUP_NAME=oinstall
    INVENTORY_LOCATION=/u01/app/oraInventory
    ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb3
    ORACLE_BASE=/u01/app/oracle
    oracle.install.db.InstallEdition=EE
    oracle.install.db.OSDBA_GROUP=dba
    oracle.install.db.OSOPER_GROUP=oper
    oracle.install.db.OSBACKUPDBA_GROUP=oper
    oracle.install.db.OSDGDBA_GROUP=dba
    oracle.install.db.OSKMDBA_GROUP=dba
    oracle.install.db.OSRACDBA_GROUP=dba
    oracle.install.db.rootconfig.executeRootScript=false
  9. Führen Sie vom CDB3-Home-Server /u01/app/oracle/product/19.0.0/cdb3 aus eine stille, reine Software-DB-Installation aus.

     ./runInstaller -applyRU /tmp/archive/34765931/ -silent -ignorePrereqFailure -responseFile /tmp/archive/dbinstall.rsp
  10. Führen Sie als Root-Benutzer die root.sh Skript nach der reinen Softwareinstallation.

    /u01/app/oracle/product/19.0.0/db1/root.sh
  11. Erstellen Sie als Oracle-Benutzer die dbca.rsp Datei mit den folgenden Einträgen:

    gdbName=cdb3.demo.netapp.com
    sid=cdb3
    createAsContainerDatabase=true
    numberOfPDBs=3
    pdbName=cdb3_pdb
    useLocalUndoForPDBs=true
    pdbAdminPassword="yourPWD"
    templateName=General_Purpose.dbc
    sysPassword="yourPWD"
    systemPassword="yourPWD"
    dbsnmpPassword="yourPWD"
    datafileDestination=+DATA
    recoveryAreaDestination=+LOGS
    storageType=ASM
    diskGroupName=DATA
    characterSet=AL32UTF8
    nationalCharacterSet=AL16UTF16
    listeners=LISTENER
    databaseType=MULTIPURPOSE
    automaticMemoryManagement=false
    totalMemory=8192
  12. Starten Sie als Oracle-Benutzer die DB-Erstellung mit dbca.

    bin/dbca -silent -createDatabase -responseFile /tmp/archive/dbca.rsp

    Ausgabe:

Prepare for db operation
7% complete
Registering database with Oracle Restart
11% complete
Copying database files
33% complete
Creating and starting Oracle instance
35% complete
38% complete
42% complete
45% complete
48% complete
Completing Database Creation
53% complete
55% complete
56% complete
Creating Pluggable Databases
60% complete
64% complete
69% complete
78% complete
Executing Post Configuration Actions
100% complete
Database creation complete. For details check the logfiles at:
 /u01/app/oracle/cfgtoollogs/dbca/cdb3.
Database Information:
Global Database Name:cdb3.vmc.netapp.com
System Identifier(SID):cdb3
Look at the log file "/u01/app/oracle/cfgtoollogs/dbca/cdb3/cdb3.log" for further details.
  1. Wiederholen Sie die gleichen Schritte ab Schritt 2, um eine Containerdatenbank cdb4 in einem separaten ORACLE_HOME /u01/app/oracle/product/19.0.0/cdb4 mit einer einzelnen PDB zu erstellen.

  2. Überprüfen Sie als Oracle-Benutzer, ob alle Datenbanken (cdb3, cdb4) nach der DB-Erstellung bei den HA-Diensten registriert sind, indem Sie die Oracle-HA-Dienste neu starten.

    /u01/app/oracle/product/19.0.0/grid/crsctl stat res -t

    Ausgabe:

    [oracle@ora_02 bin]$ ./crsctl stat res -t
    --------------------------------------------------------------------------------
    Name           Target  State        Server                   State details
    --------------------------------------------------------------------------------
    Local Resources
    --------------------------------------------------------------------------------
    ora.DATA.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.LISTENER.lsnr
                   ONLINE  INTERMEDIATE ora_02                   Not All Endpoints Re
                                                                 gistered,STABLE
    ora.LOGS.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.asm
                   ONLINE  ONLINE       ora_02                   Started,STABLE
    ora.ons
                   OFFLINE OFFLINE      ora_02                   STABLE
    --------------------------------------------------------------------------------
    Cluster Resources
    --------------------------------------------------------------------------------
    ora.cdb3.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb3,STABLE
    ora.cdb4.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb4,STABLE
    ora.cssd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.diskmon
          1        OFFLINE OFFLINE                               STABLE
    ora.driver.afd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.evmd
          1        ONLINE  ONLINE       ora_02                   STABLE
    --------------------------------------------------------------------------------
  3. Legen Sie den Oracle-Benutzer fest .bash_profile .

    vi ~/.bash_profile

    Fügen Sie folgende Einträge hinzu:

    export ORACLE_HOME=/u01/app/oracle/product/19.0.0/db3
    export ORACLE_SID=db3
    export PATH=$PATH:$ORACLE_HOME/bin
    alias asm='export ORACLE_HOME=/u01/app/oracle/product/19.0.0/grid;export ORACLE_SID=+ASM;export PATH=$PATH:$ORACLE_HOME/bin'
    alias cdb3='export ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb3;export ORACLE_SID=cdb3;export PATH=$PATH:$ORACLE_HOME/bin'
    alias cdb4='export ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb4;export ORACLE_SID=cdb4;export PATH=$PATH:$ORACLE_HOME/bin'
  4. Validieren Sie die für cdb3 erstellte CDB/PDB.

    cdb3
    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Mon Oct 9 08:19:20 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL>
    
    SQL> select name from v$datafile;
    
    NAME
    --------------------------------------------------------------------------------
    +DATA/CDB3/DATAFILE/system.257.1149420273
    +DATA/CDB3/DATAFILE/sysaux.258.1149420317
    +DATA/CDB3/DATAFILE/undotbs1.259.1149420343
    +DATA/CDB3/86B637B62FE07A65E053F706E80A27CA/DATAFILE/system.266.1149421085
    +DATA/CDB3/86B637B62FE07A65E053F706E80A27CA/DATAFILE/sysaux.267.1149421085
    +DATA/CDB3/DATAFILE/users.260.1149420343
    +DATA/CDB3/86B637B62FE07A65E053F706E80A27CA/DATAFILE/undotbs1.268.1149421085
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/system.272.1149422017
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/sysaux.273.1149422017
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/undotbs1.271.1149422017
    +DATA/CDB3/06FB206DF15ADEE8E065025056B66295/DATAFILE/users.275.1149422033
    
    NAME
    --------------------------------------------------------------------------------
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/system.277.1149422033
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/sysaux.278.1149422033
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/undotbs1.276.1149422033
    +DATA/CDB3/06FB21766256DF9AE065025056B66295/DATAFILE/users.280.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/system.282.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/sysaux.283.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/undotbs1.281.1149422049
    +DATA/CDB3/06FB22629AC1DFD7E065025056B66295/DATAFILE/users.285.1149422063
    
    19 rows selected.
    
    SQL>
  5. Validieren Sie das für cdb4 erstellte CDB/PDB.

    cdb4
    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Mon Oct 9 08:20:26 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB4      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB4_PDB                       READ WRITE NO
    SQL>
    
    SQL> select name from v$datafile;
    
    NAME
    --------------------------------------------------------------------------------
    +DATA/CDB4/DATAFILE/system.286.1149424943
    +DATA/CDB4/DATAFILE/sysaux.287.1149424989
    +DATA/CDB4/DATAFILE/undotbs1.288.1149425015
    +DATA/CDB4/86B637B62FE07A65E053F706E80A27CA/DATAFILE/system.295.1149425765
    +DATA/CDB4/86B637B62FE07A65E053F706E80A27CA/DATAFILE/sysaux.296.1149425765
    +DATA/CDB4/DATAFILE/users.289.1149425015
    +DATA/CDB4/86B637B62FE07A65E053F706E80A27CA/DATAFILE/undotbs1.297.1149425765
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/system.301.1149426581
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/sysaux.302.1149426581
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/undotbs1.300.1149426581
    +DATA/CDB4/06FC3070D5E12C23E065025056B66295/DATAFILE/users.304.1149426597
    
    11 rows selected.
  6. Melden Sie sich bei jeder CDB als sysdba mit sqlplus an und legen Sie die Größe des DB-Wiederherstellungsziels für beide CDBs auf die Datenträgergruppengröße +LOGS fest.

    alter system set db_recovery_file_dest_size = 40G scope=both;
  7. Melden Sie sich mit sqlplus als sysdba bei jeder CDB an und aktivieren Sie den Archivprotokollmodus mit den folgenden Befehlssätzen nacheinander.

    sqlplus /as sysdba
    shutdown immediate;
    startup mount;
    alter database archivelog;
    alter database open;

Damit ist die Neustartbereitstellung von Oracle 19c Version 19.18 auf einem Amazon FSx ONTAP -Speicher und einer VMC DB-VM abgeschlossen. Falls gewünscht, empfiehlt NetApp , die Oracle-Steuerdatei und die Online-Protokolldateien in die Datenträgergruppe +LOGS zu verschieben.

Oracle-Backup, -Wiederherstellung und -Klonen mit SnapCenter

SnapCenter -Einrichtung

Details

SnapCenter basiert auf einem hostseitigen Plug-In auf der Datenbank-VM, um anwendungsbezogene Datenschutzverwaltungsaktivitäten durchzuführen. Ausführliche Informationen zum NetApp SnapCenter -Plugin für Oracle finden Sie in dieser Dokumentation"Was können Sie mit dem Plug-in für Oracle Database tun?" . Im Folgenden finden Sie allgemeine Schritte zum Einrichten von SnapCenter für die Sicherung, Wiederherstellung und das Klonen von Oracle-Datenbanken.

  1. Laden Sie die neueste Version der SnapCenter software von der NetApp Support-Site herunter:"NetApp Support-Downloads" .

  2. Installieren Sie als Administrator das neueste Java JDK von"Holen Sie sich Java für Desktopanwendungen" auf dem Windows-Host des SnapCenter -Servers.

    Hinweis Wenn der Windows-Server in einer Domänenumgebung bereitgestellt wird, fügen Sie der lokalen Administratorgruppe des SnapCenter Servers einen Domänenbenutzer hinzu und führen Sie die SnapCenter -Installation mit dem Domänenbenutzer aus.
  3. Melden Sie sich als Installationsbenutzer über den HTTPS-Port 8846 bei der SnapCenter -Benutzeroberfläche an, um SnapCenter für Oracle zu konfigurieren.

  4. Aktualisieren Hypervisor Settings in den globalen Einstellungen.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  5. Erstellen Sie Sicherungsrichtlinien für Oracle-Datenbanken. Erstellen Sie im Idealfall eine separate Richtlinie zur Sicherung des Archivprotokolls, um kürzere Sicherungsintervalle zu ermöglichen und so den Datenverlust im Falle eines Fehlers zu minimieren.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  6. Datenbankserver hinzufügen Credential für SnapCenter Zugriff auf DB-VM. Die Anmeldeinformationen sollten auf einer Linux-VM über Sudo-Berechtigungen oder auf einer Windows-VM über Administratorberechtigungen verfügen.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  7. Fügen Sie FSx ONTAP Speichercluster hinzu zu Storage Systems mit Cluster-Management-IP und authentifiziert über die Benutzer-ID fsxadmin.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  8. Fügen Sie Oracle-Datenbank-VM in VMC hinzu, um Hosts mit den im vorherigen Schritt 6 erstellten Serveranmeldeinformationen.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

Hinweis Stellen Sie sicher, dass der Name des SnapCenter -Servers in die IP-Adresse der DB-VM und der Name der DB-VM in die IP-Adresse des SnapCenter -Servers aufgelöst werden kann.

Datenbanksicherung

Details

SnapCenter nutzt den FSx ONTAP Volume-Snapshot für eine wesentlich schnellere Sicherung, Wiederherstellung oder Klonierung von Datenbanken im Vergleich zur herkömmlichen RMAN-basierten Methodik. Die Snapshots sind anwendungskonsistent, da die Datenbank vor einem Snapshot in den Oracle-Sicherungsmodus versetzt wird.

  1. Aus dem Resources Registerkarte werden alle Datenbanken auf der VM automatisch erkannt, nachdem die VM zu SnapCenter hinzugefügt wurde. Zunächst wird der Datenbankstatus als Not protected .

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  2. Erstellen Sie eine Ressourcengruppe, um die Datenbank in einer logischen Gruppierung zu sichern, z. B. nach DB-VM usw. In diesem Beispiel haben wir eine ora_02_data-Gruppe erstellt, um eine vollständige Online-Datenbanksicherung für alle Datenbanken auf der VM ora_02 durchzuführen. Die Ressourcengruppe ora_02_log führt die Sicherung archivierter Protokolle nur auf der VM durch. Durch das Erstellen einer Ressourcengruppe wird auch ein Zeitplan für die Ausführung der Sicherung definiert.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  3. Die Sicherung der Ressourcengruppe kann auch manuell durch Klicken auf Back up Now und Ausführen der Sicherung mit der in der Ressourcengruppe definierten Richtlinie.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  4. Der Backup-Job kann überwacht werden bei Monitor Klicken Sie auf die Registerkarte „Aktuell ausgeführter Job“.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  5. Nach einer erfolgreichen Sicherung zeigt der Datenbankstatus den Auftragsstatus und den letzten Sicherungszeitpunkt an.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  6. Klicken Sie auf die Datenbank, um die Sicherungssätze für jede Datenbank zu überprüfen.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

Datenbankwiederherstellung

Details

SnapCenter bietet eine Reihe von Wiederherstellungs- und Recovery-Optionen für Oracle-Datenbanken aus Snapshot-Backups. In diesem Beispiel demonstrieren wir eine zeitpunktbezogene Wiederherstellung, um eine versehentlich gelöschte Tabelle wiederherzustellen. Auf der VM ora_02 teilen sich zwei Datenbanken cdb3 und cdb4 dieselben Datenträgergruppen +DATA und +LOGS. Die Datenbankwiederherstellung für eine Datenbank hat keine Auswirkungen auf die Verfügbarkeit der anderen Datenbank.

  1. Erstellen Sie zunächst eine Testtabelle und fügen Sie eine Zeile in die Tabelle ein, um eine zeitpunktbezogene Wiederherstellung zu validieren.

    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Fri Oct 6 14:15:21 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL>
    
    
    SQL> alter session set container=cdb3_pdb1;
    
    Session altered.
    
    SQL> create table test (id integer, dt timestamp, event varchar(100));
    
    Table created.
    
    SQL> insert into test values(1, sysdate, 'test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02');
    
    1 row created.
    
    SQL> commit;
    
    Commit complete.
    
    SQL> select * from test;
    
            ID
    ----------
    DT
    ---------------------------------------------------------------------------
    EVENT
    --------------------------------------------------------------------------------
             1
    06-OCT-23 03.18.24.000000 PM
    test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02
    
    
    SQL> select current_timestamp from dual;
    
    CURRENT_TIMESTAMP
    ---------------------------------------------------------------------------
    06-OCT-23 03.18.53.996678 PM -07:00
  2. Wir führen eine manuelle Snapshot-Sicherung von SnapCenter aus. Dann lassen Sie den Tisch fallen.

    SQL> drop table test;
    
    Table dropped.
    
    SQL> commit;
    
    Commit complete.
    
    SQL> select current_timestamp from dual;
    
    CURRENT_TIMESTAMP
    ---------------------------------------------------------------------------
    06-OCT-23 03.26.30.169456 PM -07:00
    
    SQL> select * from test;
    select * from test
                  *
    ERROR at line 1:
    ORA-00942: table or view does not exist
  3. Notieren Sie sich die SCN-Nummer der Protokollsicherung aus dem im letzten Schritt erstellten Sicherungssatz. Klicken Sie auf Restore um den Wiederherstellungs-Workflow zu starten.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  4. Wählen Sie den Wiederherstellungsumfang.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  5. Wählen Sie den Wiederherstellungsumfang bis zum Protokoll-SCN der letzten vollständigen Datenbanksicherung.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  6. Geben Sie alle optionalen Vorskripte an, die ausgeführt werden sollen.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  7. Geben Sie ein optionales After-Skript an, das ausgeführt werden soll.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  8. Senden Sie auf Wunsch einen Jobbericht.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  9. Überprüfen Sie die Zusammenfassung und klicken Sie auf Finish um mit der Wiederherstellung und Bergung zu beginnen.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  10. Über die Oracle Restart-Grid-Steuerung können wir beobachten, dass CDB4 während der Wiederherstellung und Wiederherstellung von CDB3 online und verfügbar ist.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  11. Aus Monitor Öffnen Sie den Auftrag, um die Details zu überprüfen.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  12. Überprüfen Sie anhand der DB-VM ora_02, ob die gelöschte Tabelle nach einer erfolgreichen Wiederherstellung wiederhergestellt wurde.

    [oracle@ora_02 bin]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Fri Oct 6 17:01:28 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3      READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL> alter session set container=CDB3_PDB1;
    
    Session altered.
    
    SQL> select * from test;
    
            ID
    ----------
    DT
    ---------------------------------------------------------------------------
    EVENT
    --------------------------------------------------------------------------------
             1
    06-OCT-23 03.18.24.000000 PM
    test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02
    
    
    SQL> select current_timestamp from dual;
    
    CURRENT_TIMESTAMP
    ---------------------------------------------------------------------------
    06-OCT-23 05.02.20.382702 PM -07:00
    
    SQL>

Datenbankklon

Details

In diesem Beispiel werden dieselben Sicherungssätze verwendet, um eine Datenbank auf derselben VM in einem anderen ORACLE_HOME zu klonen. Die Verfahren sind bei Bedarf gleichermaßen anwendbar, um eine Datenbank aus der Sicherung auf eine separate VM in VMC zu klonen.

  1. Öffnen Sie die CDB3-Sicherungsliste der Datenbank. Klicken Sie in einer Datensicherung Ihrer Wahl auf Clone Schaltfläche, um den Datenbankklon-Workflow zu starten.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  2. Benennen Sie die SID der Klondatenbank.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  3. Wählen Sie eine VM in VMC als Zieldatenbankhost aus. Auf dem Host sollte eine identische Oracle-Version installiert und konfiguriert sein.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  4. Wählen Sie das richtige ORACLE_HOME, den richtigen Benutzer und die richtige Gruppe auf dem Zielhost aus. Behalten Sie die Standardanmeldeinformationen bei.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  5. Ändern Sie die Parameter der Klondatenbank, um die Konfigurations- oder Ressourcenanforderungen für die Klondatenbank zu erfüllen.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  6. Wählen Sie den Wiederherstellungsumfang. Until Cancel stellt den Klon bis zur letzten verfügbaren Protokolldatei im Sicherungssatz wieder her.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  7. Überprüfen Sie die Zusammenfassung und starten Sie den Klonauftrag.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  8. Überwachen Sie die Ausführung des Klonauftrags von Monitor Tab.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  9. Die geklonte Datenbank wird sofort in SnapCenter registriert.

    Screenshot, der die SnapCenter -Konfiguration zeigt.

  10. Von der DB-VM ora_02 wird die geklonte Datenbank auch in der Oracle Restart-Rastersteuerung registriert und die gelöschte Testtabelle wird in der geklonten Datenbank cdb3tst wie unten gezeigt wiederhergestellt.

    [oracle@ora_02 ~]$ /u01/app/oracle/product/19.0.0/grid/bin/crsctl stat res -t
    --------------------------------------------------------------------------------
    Name           Target  State        Server                   State details
    --------------------------------------------------------------------------------
    Local Resources
    --------------------------------------------------------------------------------
    ora.DATA.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.LISTENER.lsnr
                   ONLINE  INTERMEDIATE ora_02                   Not All Endpoints Re
                                                                 gistered,STABLE
    ora.LOGS.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.SC_2090922_CDB3TST.dg
                   ONLINE  ONLINE       ora_02                   STABLE
    ora.asm
                   ONLINE  ONLINE       ora_02                   Started,STABLE
    ora.ons
                   OFFLINE OFFLINE      ora_02                   STABLE
    --------------------------------------------------------------------------------
    Cluster Resources
    --------------------------------------------------------------------------------
    ora.cdb3.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb3,STABLE
    ora.cdb3tst.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb4,STABLE
    ora.cdb4.db
          1        ONLINE  ONLINE       ora_02                   Open,HOME=/u01/app/o
                                                                 racle/product/19.0.0
                                                                 /cdb4,STABLE
    ora.cssd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.diskmon
          1        OFFLINE OFFLINE                               STABLE
    ora.driver.afd
          1        ONLINE  ONLINE       ora_02                   STABLE
    ora.evmd
          1        ONLINE  ONLINE       ora_02                   STABLE
    --------------------------------------------------------------------------------
    
    [oracle@ora_02 ~]$ export ORACLE_HOME=/u01/app/oracle/product/19.0.0/cdb4
    [oracle@ora_02 ~]$ export ORACLE_SID=cdb3tst
    [oracle@ora_02 ~]$ sqlplus / as sysdba
    
    SQL*Plus: Release 19.0.0.0.0 - Production on Sat Oct 7 08:04:51 2023
    Version 19.18.0.0.0
    
    Copyright (c) 1982, 2022, Oracle.  All rights reserved.
    
    
    Connected to:
    Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
    Version 19.18.0.0.0
    
    SQL> select name, open_mode from v$database;
    
    NAME      OPEN_MODE
    --------- --------------------
    CDB3TST   READ WRITE
    
    SQL> show pdbs
    
        CON_ID CON_NAME                       OPEN MODE  RESTRICTED
    ---------- ------------------------------ ---------- ----------
             2 PDB$SEED                       READ ONLY  NO
             3 CDB3_PDB1                      READ WRITE NO
             4 CDB3_PDB2                      READ WRITE NO
             5 CDB3_PDB3                      READ WRITE NO
    SQL> alter session set container=CDB3_PDB1;
    
    Session altered.
    
    SQL> select * from test;
    
            ID
    ----------
    DT
    ---------------------------------------------------------------------------
    EVENT
    --------------------------------------------------------------------------------
             1
    06-OCT-23 03.18.24.000000 PM
    test oracle recovery on guest mounted fsx storage to VMC guest vm ora_02
    
    
    SQL>

Damit ist die Demonstration der SnapCenter -Sicherung, -Wiederherstellung und des Klonens der Oracle-Datenbank in VMC SDDC auf AWS abgeschlossen.

Wo Sie weitere Informationen finden

Weitere Informationen zu den in diesem Dokument beschriebenen Informationen finden Sie in den folgenden Dokumenten und/oder auf den folgenden Websites: