Einrichtung von Storage Controllern
In diesem Abschnitt wird die Konfiguration des NetApp Storage-Systems beschrieben. Sie müssen die primäre Installation und Einrichtung gemäß den entsprechenden ONTAP Setup- und Konfigurationsleitfäden abschließen.
Storage-Effizienz
In einer SSD-Konfiguration werden Inline-Deduplizierung, Inline-Deduplizierung, Inline-Komprimierung und Inline-Data-Compaction unterstützt.
NetApp FlexGroup Volumes
Die Verwendung von NetApp FlexGroup Volumes wird für SAP HANA nicht unterstützt. Aufgrund der Architektur von SAP HANA bietet die Verwendung von FlexGroup Volumes keinen Vorteil und kann zu Performance-Problemen führen.
NetApp Volume- und Aggregatverschlüsselung
Die Verwendung von NetApp Volume Encryption (NVE) und NetApp Aggregate Encryption (NAE) wird bei SAP HANA unterstützt.
Quality of Service
Mit QoS lässt sich der Storage-Durchsatz für bestimmte SAP HANA Systeme oder andere Applikationen auf einem gemeinsam genutzten Controller begrenzen. Ein Anwendungsfall wäre, den Durchsatz von Entwicklungs- und Testsystemen zu begrenzen, damit sie bei einem gemischten Setup keinen Einfluss auf die Produktionssysteme haben.
Während des Dimensionierungsprozesses sollten Sie die Performance-Anforderungen eines nicht für die Produktion verwendeten Systems ermitteln. Entwicklungs- und Testsysteme können mit niedrigeren Leistungswerten dimensioniert werden, typischerweise im Bereich von 20 % bis 50 % eines von SAP definierten Produktionssystems-KPI.
Ab ONTAP 9 wird QoS auf Storage-Volume-Ebene konfiguriert und verwendet maximale Werte für Durchsatz (MB/s) und I/O-Menge (IOPS).
Ein großer I/O-Schreibvorgang wirkt sich am stärksten auf die Performance des Storage-Systems aus. Daher sollte die QoS-Durchsatzbegrenzung auf einen Prozentsatz der entsprechenden KPI-Werte für die SAP HANA-Speicherleistung in den Daten- und Protokoll-Volumes gesetzt werden.
NetApp FabricPool
NetApp FabricPool darf nicht für aktive primäre Filesysteme in SAP HANA Systemen verwendet werden. Dazu gehören die Dateisysteme für den Daten- und Protokollbereich sowie die /hana/shared
File-System. Dies führt zu unvorhersehbarer Performance, insbesondere beim Start eines SAP HANA Systems.
Die Verwendung der „nur-Snapshots“ Tiering-Politik ist möglich sowie auch die Nutzung von FabricPool im Allgemeinen an einem Backup-Ziel wie einem NetApp SnapVault oder SnapMirror Ziel.
Durch die Verwendung von FabricPool für das Tiering von Snapshot Kopien im Primärspeicher oder die Verwendung von FabricPool zu einem Backup-Ziel werden die für die Wiederherstellung und das Recovery einer Datenbank oder anderer Aufgaben benötigte Zeit, beispielsweise das Erstellen von Systemklonen oder Korrektursystemen, geändert. Berücksichtigen Sie diese Überlegungen bei der Planung Ihrer gesamten Lifecycle-Management-Strategie und prüfen Sie, ob Ihre SLAs unter Verwendung dieser Funktion noch erfüllt werden. |
FabricPool ist eine gute Option, um Log-Backups auf eine andere Storage Tier zu verschieben. Das Verschieben von Backups beeinträchtigt die für das Recovery einer SAP HANA Datenbank erforderliche Zeit. Daher sollte die Option „Tiering-minimum-cooling-days“ auf einen Wert gesetzt werden, der Log-Backups, die routinemäßig für die Wiederherstellung benötigt werden, auf der lokalen fast Storage Tier platziert.
Storage-Konfiguration
In der folgenden Übersicht sind die erforderlichen Schritte zur Storage-Konfiguration zusammengefasst. Jeder Schritt wird in den nachfolgenden Abschnitten näher beschrieben. In diesem Abschnitt wird die Storage-Hardware eingerichtet und die ONTAP Software bereits installiert. Außerdem müssen bereits die Verbindungen zwischen den Storage-Ports (10 GbE oder schneller) und dem Netzwerk vorhanden sein.
-
Überprüfen Sie die richtige Festplatten-Shelf-Konfiguration, wie unter „ “ beschrieben.Festplatten-Shelf-Verbindung.“
-
Erstellen und Konfigurieren der erforderlichen Aggregate wie unter „ “ beschriebenKonfiguration von Aggregaten.“
-
Erstellen einer Storage Virtual Machine (SVM) wie unter „SVM-Konfiguration.“
-
Erstellen Sie LIFs wie in „ “ beschrieben.LIF-Konfiguration.“
-
Erstellen Sie Volumes innerhalb der Aggregate, wie in „“ und „ “Volume-Konfiguration für SAP HANA Multiple-Host-Systeme beschriebenVolume-Konfiguration für SAP HANA Single-Host-Systeme.
-
Legen Sie die erforderlichen Volume-Optionen fest, wie unter „ “ beschrieben.Volume-Optionen.“
-
Legen Sie die erforderlichen Optionen für NFSv3 fest, wie in „ “ beschrieben.NFS-Konfiguration für NFSv3„ Oder für NFSv4 wie in „ “ beschriebenNFS-Konfiguration für NFSv4.“
-
Mounten Sie die Volumes in Namespace und legen Sie die Richtlinien für den Export wie in „ “ beschrieben fest.Volumes werden in Namespace mounten und Richtlinien für den Export festlegen.“
Festplatten-Shelf-Verbindung
SAS-Platten-Shelves
Es kann maximal ein Platten-Shelf mit einem SAS-Stack verbunden werden, um die erforderliche Performance für die SAP HANA-Hosts zu liefern, wie in der folgenden Abbildung dargestellt. Die Festplatten in jedem Shelf müssen gleichmäßig auf beide Controller des HA-Paars verteilt werden. ADPv2 wird mit ONTAP 9 und DS224C Festplatten-Shelfs verwendet.
Mit dem DS224C Festplatten-Shelf können auch Quad-Path-SAS-Kabel verwendet werden, ist aber nicht erforderlich. |
NVMe (100 GbE) Festplatten-Shelfs
Jedes NS224 NVMe-Festplatten-Shelf ist über zwei 100-GbE-Ports pro Controller verbunden. Die Festplatten in jedem Shelf müssen gleichmäßig auf beide Controller des HA-Paars verteilt werden. ADPv2, wie im Kapitel für die Aggregatkonfiguration beschrieben, wird auch für das NS224 Festplatten-Shelf verwendet. Die folgende Abbildung zeigt die Festplatten-Shelf-Verbindung mit einem NVMe-Laufwerk.
Konfiguration von Aggregaten
Im Allgemeinen müssen Sie zwei Aggregate pro Controller konfigurieren, unabhängig vom verwendeten Festplatten-Shelf oder der Festplattentechnologie (SAS-SSDs oder NVMe-SSDs). Dieser Schritt ist notwendig, damit Sie alle verfügbaren Controller-Ressourcen nutzen können. Für die Systeme der AFF A200 Serie reicht ein Daten-Aggregat aus.
Die folgende Abbildung zeigt eine Konfiguration mit 12 SAP HANA Hosts, die auf einem 12-GB-SAS-Shelf ausgeführt werden und mit ADPv2 konfiguriert sind. Sechs SAP-HANA-Hosts sind mit jedem Storage-Controller verbunden. Vier separate Aggregate, zwei an jedem Storage Controller, sind konfiguriert. Jedes Aggregat ist mit 11 Festplatten mit neun Daten und zwei Parity-Festplatten-Partitionen konfiguriert. Für jeden Controller stehen zwei Ersatzpartitionen zur Verfügung.
SVM-Konfiguration
Mehrere SAP Landschaften mit SAP HANA Datenbanken können eine einzige SVM nutzen. Darüber hinaus kann jeder SAP-Landschaft bei Bedarf eine SVM zugewiesen werden, falls diese von verschiedenen Teams innerhalb eines Unternehmens gemanagt werden.
Wenn beim Erstellen einer neuen SVM ein QoS-Profil automatisch erstellt und zugewiesen wird, entfernen Sie dieses automatisch erstellte Profil aus der SVM, um die erforderliche Performance für SAP HANA zu aktivieren:
vserver modify -vserver <svm-name> -qos-policy-group none
LIF-Konfiguration
Für SAP HANA Produktionssysteme müssen unterschiedliche LIFs verwendet werden, um das Daten-Volume und das Protokoll-Volume vom SAP HANA-Host zu mounten. Daher sind mindestens zwei LIFs erforderlich.
Die Daten- und Protokoll-Volume-Mounts verschiedener SAP HANA Hosts können einen physischen Storage-Netzwerk-Port entweder über dieselben LIFs oder mithilfe individueller LIFs für jeden Mount gemeinsam nutzen.
Die folgende Tabelle zeigt die maximale Menge an Daten- und Protokoll-Volume-Mounts pro physischer Schnittstelle.
Ethernet-Port-Geschwindigkeit | 10 GbE | 25 GbE | 40 GbE | 100 GeE |
---|---|---|---|---|
Maximale Anzahl an Protokoll- oder Daten-Volume-Mounts pro physischem Port |
2 |
6 |
12 |
24 |
Die gemeinsame Nutzung einer logischen Schnittstelle zwischen verschiedenen SAP HANA Hosts erfordert möglicherweise eine Neuaufbindung von Daten- oder Protokoll-Volumes an eine andere logische Schnittstelle. Durch diese Änderung werden Performance-Einbußen vermieden, wenn ein Volume auf einen anderen Storage Controller verschoben wird. |
Entwicklungs- und Testsysteme können mehr Daten und Volume-Mounts oder LIFs auf einer physischen Netzwerkschnittstelle verwenden.
Für Produktions-, Entwicklungs- und Testsysteme liefert /hana/shared
Das Filesystem kann dieselbe LIF wie das Daten- oder Protokoll-Volume verwenden.
Volume-Konfiguration für SAP HANA Single-Host-Systeme
Die folgende Abbildung zeigt die Volume-Konfiguration von vier SAP HANA-Systemen mit einem Host. Die Daten- und Protokoll-Volumes jedes SAP HANA Systems werden auf verschiedene Storage Controller verteilt. Beispiel: Volume SID1_data_mnt00001
Wird auf Controller A und Volume konfiguriert SID1_log_mnt00001
Ist auf Controller B konfiguriert
Wenn für die SAP HANA Systeme nur ein Storage-Controller eines HA-Paars verwendet wird, können Daten- und Protokoll-Volumes auch auf demselben Storage Controller gespeichert werden. |
Wenn die Daten- und Protokoll-Volumes auf demselben Controller gespeichert sind, muss der Zugriff des Servers auf den Storage mit zwei unterschiedlichen LIFs durchgeführt werden: Einer logischen Schnittstelle für den Zugriff auf das Daten-Volume und der andere für den Zugriff auf das Protokoll-Volume. |
Für jeden SAP HANA-Host, ein Daten-Volume, ein Protokoll-Volume und ein Volume für /hana/shared
Werden konfiguriert. Die folgende Tabelle zeigt eine Beispielkonfiguration für SAP HANA-Systeme mit einem Host.
Zweck | Aggregat 1 bei Controller A | Aggregat 2 bei Controller A | Aggregat 1 bei Controller B | Aggregat 2 bei Controller b |
---|---|---|---|---|
Daten-, Protokoll- und freigegebene Volumes für System SID1 |
Datenvolumen: SID1_Data_mnt00001 |
Freigegebenes Volume: SID1_Shared |
– |
Protokollvolumen: SID1_log_mnt00001 |
Daten-, Protokoll- und freigegebene Volumes für System SID2 |
– |
Protokollvolumen: SID2_log_mnt00001 |
Datenvolumen: SID2_Data_mnt00001 |
Freigegebenes Volume: SID2_Shared |
Daten-, Protokoll- und gemeinsam genutzte Volumes für System SID3 |
Gemeinsam genutztes Volume: SID3_shared |
Datenvolumen: SID3_Data_mnt00001 |
Protokollvolumen: SID3_log_mnt00001 |
– |
Daten-, Protokoll- und gemeinsam genutzte Volumes für System SID4 |
Protokollvolumen: SID4_log_mnt00001 |
– |
Gemeinsam genutztes Volume: SID4_shared |
Datenvolumen: SID4_Data_mnt00001 |
Die folgende Tabelle zeigt ein Beispiel für die Mount-Point-Konfiguration für ein System mit einem einzelnen Host. Um das Home-Verzeichnis des zu platzieren sidadm
Benutzer auf dem zentralen Speicher, der /usr/sap/SID
Dateisystem sollte vom gemountet werden SID_shared
Datenmenge:
Verbindungspfad | Verzeichnis | Bereitstellungspunkt beim HANA-Host |
---|---|---|
SID_Data_mnt00001 |
/hana/Data/SID/mnt00001 |
|
SID_Log_mnt00001 |
/hana/log/SID/mnt00001 |
|
SID_freigegeben |
Usr-sap freigegeben |
/Usr/sap/SID /hana/shared/ |
Volume-Konfiguration für SAP HANA Multiple-Host-Systeme
Die folgende Abbildung zeigt die Volume-Konfiguration eines 4+1 SAP HANA-Systems. Die Daten- und Protokoll-Volumes jedes SAP HANA-Hosts werden auf verschiedene Storage-Controller verteilt. Beispiel: Volume SID1_data1_mnt00001
Wird auf Controller A und Volume konfiguriert SID1_log1_mnt00001
Ist auf Controller B konfiguriert
Wenn für das SAP HANA System nur ein Storage-Controller eines HA-Paars verwendet wird, können die Daten- und Protokoll-Volumes auch auf demselben Storage Controller gespeichert werden. |
Wenn die Daten- und Protokoll-Volumes auf demselben Controller gespeichert sind, muss der Zugriff des Servers auf den Storage mit zwei unterschiedlichen LIFs durchgeführt werden: Einer logischen Schnittstelle für den Zugriff auf das Daten-Volume und einem für den Zugriff auf das Protokoll-Volume. |
Für jeden SAP HANA-Host werden ein Daten-Volume und ein Protokoll-Volume erstellt. Der /hana/shared
Das Volume wird von allen Hosts des SAP HANA-Systems verwendet. Die folgende Tabelle zeigt eine Beispielkonfiguration für ein SAP HANA-System mit mehreren Hosts und vier aktiven Hosts.
Zweck | Aggregat 1 bei Controller A | Aggregat 2 bei Controller A | Aggregat 1 bei Controller B | Aggregieren 2 bei Controller B |
---|---|---|---|---|
Daten- und Protokoll-Volumes für Node 1 |
Datenvolumen: SID_Data_mnt00001 |
– |
Protokollvolumen: SID_log_mnt00001 |
– |
Daten- und Protokoll-Volumes für Node 2 |
Protokollvolumen: SID_log_mnt002 |
– |
Datenvolumen: SID_Data_mnt002 |
– |
Daten- und Protokoll-Volumes für Node 3 |
– |
Datenvolumen: SID_Data_mnt00003 |
– |
Protokollvolumen: SID_log_mnt00003 |
Daten- und Protokoll-Volumes für Node 4 |
– |
Protokollvolumen: SID_log_mnt004 |
– |
Datenvolumen: SID_Data_mnt00004 |
Gemeinsames Volume für alle Hosts |
Gemeinsam genutztes Volume: SID_shared |
Die folgende Tabelle zeigt die Konfiguration und die Bereitstellungspunkte eines Systems mit mehreren Hosts mit vier aktiven SAP HANA Hosts. Um die Home-Verzeichnisse des zu platzieren sidadm
Benutzer jedes Hosts im zentralen Speicher, der /usr/sap/SID
Dateisysteme werden über eingebunden SID_shared
Datenmenge:
Verbindungspfad | Verzeichnis | Bereitstellungspunkt beim SAP HANA-Host | Hinweis |
---|---|---|---|
SID_Data_mnt00001 |
– |
/hana/Data/SID/mnt00001 |
Auf allen Hosts montiert |
SID_Log_mnt00001 |
– |
/hana/log/SID/mnt00001 |
Auf allen Hosts montiert |
SID_Data_mnt00002 |
– |
/hana/Data/SID/mnt002 |
Auf allen Hosts montiert |
SID_Log_mnt00002 |
– |
/hana/log/SID/mnt002 |
Auf allen Hosts montiert |
SID_Data_mnt00003 |
– |
/hana/Data/SID/mnt003 |
Auf allen Hosts montiert |
SID_log_mnt00003 |
– |
/hana/log/SID/mnt003 |
Auf allen Hosts montiert |
SID_Data_mnt00004 |
– |
/hana/Data/SID/mnt004 |
Auf allen Hosts montiert |
SID_log_mnt00004 |
– |
/hana/log/SID/mnt004 |
Auf allen Hosts montiert |
SID_freigegeben |
Freigegeben |
/hana/Shared/SID |
Auf allen Hosts montiert |
SID_freigegeben |
Usr-sap-host1 |
/Usr/sap/SID |
Angehängt auf Host 1 |
SID_freigegeben |
Usr-sap-host2 |
/Usr/sap/SID |
Angehängt auf Host 2 |
SID_freigegeben |
Usr-sap-host3 |
/Usr/sap/SID |
Angehängt auf Host 3 |
SID_freigegeben |
Usr-sap-host4 |
/Usr/sap/SID |
Angehängt auf Host 4 |
SID_freigegeben |
Usr-sap-host5 |
/Usr/sap/SID |
Angehängt auf Host 5 |
Volume-Optionen
Sie müssen die in der folgenden Tabelle aufgeführten Volume-Optionen auf allen SVMs überprüfen und festlegen. Bei einigen Befehlen müssen Sie in den erweiterten Berechtigungsebene in ONTAP wechseln.
Aktion | Befehl |
---|---|
Deaktivieren Sie die Sichtbarkeit des Snapshot Verzeichnisses |
vol modify -vserver <vserver-Name> -Volume <volname> -Snapdir-Access false |
Deaktivieren Sie automatische Snapshot Kopien |
vol modify –vserver <vserver-Name> -Volume <volname> -Snapshot-Policy keine |
Deaktivieren Sie Updates der Zugriffszeit außer dem SID_Shared-Volume |
Setzen Sie Advanced vol modify -vserver <vserver-Name> -Volume <volname> -atime-Update false Administrator |
NFS-Konfiguration für NFSv3
Die in der folgenden Tabelle aufgeführten NFS-Optionen müssen verifiziert und auf allen Storage Controllern eingestellt werden. Für einige der Befehle, die in dieser Tabelle aufgeführt sind, müssen Sie in den erweiterten Berechtigungsmodus wechseln.
Aktion | Befehl |
---|---|
Aktivieren Sie NFSv3 |
nfs modify -vserver <vserver-Name> v3.0 aktiviert |
Legen Sie die maximale NFS-TCP-Übertragungsgröße auf 1 MB fest |
Erweitertes nfs modify -vserver <vserver_Name> -tcp-max-xfer-size 1048576 set admin |
In gemeinsam genutzten Umgebungen mit unterschiedlichen Workloads wird die maximale NFS-TCP-Übertragungsgröße auf 262144 festgelegt |
NFS-Konfiguration für NFSv4
Die in der folgenden Tabelle aufgeführten NFS-Optionen müssen verifiziert und auf allen SVMs eingestellt werden.
Für einige Befehle in dieser Tabelle müssen Sie in den erweiterten Berechtigungsmodus wechseln.
Aktion | Befehl |
---|---|
Aktivieren Sie NFSv4 |
nfs modify -vserver <vserver-Name> -v4.1 aktiviert |
Legen Sie die maximale NFS-TCP-Übertragungsgröße auf 1 MB fest |
Erweitertes nfs modify -vserver <vserver_Name> -tcp-max-xfer-size 1048576 set admin |
NFSv4-Zugriffssteuerungslisten (ACLs) deaktivieren |
nfs modify -vserver <vServer_Name> -v4.1-acl deaktiviert |
Legen Sie die NFSv4-Domain-ID fest |
nfs modify -vServer <vServer_Name> -v4-id-Domain <Domain-Name> |
Deaktivieren der NFSv4-Lesedelegierung |
nfs modify -vServer <vServer_Name> -v4.1-read-Delegation deaktiviert |
Deaktivieren der NFSv4-Schreibdelegation |
nfs modify -vServer <vServer_Name> -v4.1-write-Delegation deaktiviert |
Deaktivieren Sie die numerischen nfsv4-ids |
nfs modify -vServer <vServer_Name> -v4-numeric-ids deaktiviert |
Ändern Sie die Anzahl der NFSv4.x-Sitzungsplätze |
Erweiterte Einstellungen |
In gemeinsam genutzten Umgebungen mit unterschiedlichen Workloads wird die maximale NFS-TCP-Übertragungsgröße auf 262144 festgelegt |
Bitte beachten Sie, dass die Deaktivierung numerischer ids eine Benutzerverwaltung erfordert, wie im Abschnitt beschrieben "„SAP HANA Installationsvorbereitungen für NFSv4“." |
Die NFSv4-Domänen-ID muss auf allen Linux-Servern auf denselben Wert festgelegt sein (/etc/idmapd.conf ) Und SVMs, wie im Abschnitt beschrieben "„SAP HANA Installationsvorbereitungen für NFSv4“."
|
PNFS kann aktiviert und verwendet werden. |
Bei Einsatz von SAP HANA Systemen mit mehreren Hosts und automatischem Host-Failover müssen die Failover-Parameter innerhalb angepasst werden nameserver.ini
Wie in der folgenden Tabelle dargestellt.
Behalten Sie das standardmäßige Wiederholungsintervall von 10 Sekunden in diesen Abschnitten bei.
Abschnitt in nameserver.ini | Parameter | Wert |
---|---|---|
Failover |
Normal_Wiederholungen |
9 |
Distributed_Watchdog |
Deaktivierung_Wiederholungen |
11 |
Distributed_Watchdog |
Takeover_Wiederholungen |
9 |
Volumes werden in Namespace mounten und Richtlinien für den Export festlegen
Wenn ein Volume erstellt wird, muss das Volume im Namespace gemountet werden. In diesem Dokument gehen wir davon aus, dass der Name des Verbindungspfads dem Namen des Volumes entspricht. Standardmäßig wird das Volume mit der Standardrichtlinie exportiert. Die Exportpolitik kann bei Bedarf angepasst werden.