Skip to main content
NetApp Solutions SAP
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Einrichtung von Storage Controllern

Beitragende

In diesem Abschnitt wird die Konfiguration des NetApp Storage-Systems beschrieben. Sie müssen die primäre Installation und Einrichtung gemäß den entsprechenden ONTAP Setup- und Konfigurationsleitfäden abschließen.

Storage-Effizienz

In einer SSD-Konfiguration werden Inline-Deduplizierung, Inline-Deduplizierung, Inline-Komprimierung und Inline-Data-Compaction unterstützt.

NetApp Volume- und Aggregatverschlüsselung

Die Verwendung von NetApp Volume Encryption (NVE) und NetApp Aggregate Encryption (NAE) wird bei SAP HANA unterstützt.

Quality of Service

Mit QoS lässt sich der Storage-Durchsatz für bestimmte SAP HANA Systeme oder andere Applikationen auf einem gemeinsam genutzten Controller begrenzen. Ein Anwendungsfall wäre, den Durchsatz von Entwicklungs- und Testsystemen zu begrenzen, damit sie bei einem gemischten Setup keinen Einfluss auf die Produktionssysteme haben.

Während des Dimensionierungsprozesses sollten Sie die Performance-Anforderungen eines nicht für die Produktion verwendeten Systems ermitteln. Entwicklungs- und Testsysteme können mit niedrigeren Leistungswerten dimensioniert werden, typischerweise im Bereich von 20 % bis 50 % eines von SAP definierten Produktionssystems-KPI.

Ab ONTAP 9 wird QoS auf Storage-Volume-Ebene konfiguriert und verwendet maximale Werte für Durchsatz (MB/s) und I/O-Menge (IOPS).

Ein großer I/O-Schreibvorgang wirkt sich am stärksten auf die Performance des Storage-Systems aus. Daher sollte die QoS-Durchsatzbegrenzung auf einen Prozentsatz der entsprechenden KPI-Werte für die SAP HANA-Speicherleistung in den Daten- und Protokoll-Volumes gesetzt werden.

NetApp FabricPool

NetApp FabricPool darf nicht für aktive primäre Filesysteme in SAP HANA Systemen verwendet werden. Dazu gehören die Dateisysteme für den Daten- und Protokollbereich sowie die /hana/shared File-System. Dies führt zu unvorhersehbarer Performance, insbesondere beim Start eines SAP HANA Systems.

Die Verwendung der „nur-Snapshots“ Tiering-Politik ist möglich sowie auch die Nutzung von FabricPool im Allgemeinen an einem Backup-Ziel wie einem NetApp SnapVault oder SnapMirror Ziel.

Hinweis Durch die Verwendung von FabricPool für das Tiering von Snapshot Kopien im Primärspeicher oder die Verwendung von FabricPool zu einem Backup-Ziel werden die für die Wiederherstellung und das Recovery einer Datenbank oder anderer Aufgaben benötigte Zeit, beispielsweise das Erstellen von Systemklonen oder Korrektursystemen, geändert. Berücksichtigen Sie diese Überlegungen bei der Planung Ihrer gesamten Lifecycle-Management-Strategie und prüfen Sie, ob Ihre SLAs unter Verwendung dieser Funktion noch erfüllt werden.

FabricPool ist eine gute Option, um Log-Backups auf eine andere Storage Tier zu verschieben. Das Verschieben von Backups beeinträchtigt die für das Recovery einer SAP HANA Datenbank erforderliche Zeit. Daher sollte die Option „Tiering-minimum-cooling-days“ auf einen Wert gesetzt werden, der Log-Backups, die routinemäßig für die Wiederherstellung benötigt werden, auf der lokalen fast Storage Tier platziert.

Storage-Konfiguration

In der folgenden Übersicht sind die erforderlichen Schritte zur Storage-Konfiguration zusammengefasst. Jeder Schritt wird in den nachfolgenden Abschnitten näher beschrieben. In diesem Abschnitt wird die Storage-Hardware eingerichtet und die ONTAP Software bereits installiert. Außerdem müssen bereits die Verbindungen zwischen den Storage-Ports (10 GbE oder schneller) und dem Netzwerk vorhanden sein.

  1. Überprüfen Sie die richtige Festplatten-Shelf-Konfiguration, wie unter „ “ beschrieben.Festplatten-Shelf-Verbindung.“

  2. Erstellen und Konfigurieren der erforderlichen Aggregate wie unter „ “ beschriebenKonfiguration von Aggregaten.“

  3. Erstellen einer Storage Virtual Machine (SVM) wie unter „SVM-Konfiguration.“

  4. Erstellen Sie LIFs wie in „ “ beschrieben.LIF-Konfiguration.“

  5. Erstellen von Volumes in den Aggregaten wie unter „“ beschrieben[Volume configuration for SAP HANA single host systems]" Und "[Volume configuration for SAP HANA multiple host systems].“

  6. Legen Sie die erforderlichen Volume-Optionen fest, wie unter „ “ beschrieben.Volume-Optionen.“

  7. Legen Sie die erforderlichen Optionen für NFSv3 fest, wie in „ “ beschrieben.NFS-Konfiguration für NFSv3„ Oder für NFSv4 wie in „ “ beschriebenNFS-Konfiguration für NFSv4.“

  8. Mounten Sie die Volumes in Namespace und legen Sie die Richtlinien für den Export wie in „ “ beschrieben fest.Volumes werden in Namespace mounten und Richtlinien für den Export festlegen.“

Festplatten-Shelf-Verbindung

SAS-Platten-Shelves

Es kann maximal ein Platten-Shelf mit einem SAS-Stack verbunden werden, um die erforderliche Performance für die SAP HANA-Hosts zu liefern, wie in der folgenden Abbildung dargestellt. Die Festplatten in jedem Shelf müssen gleichmäßig auf beide Controller des HA-Paars verteilt werden. ADPv2 wird mit ONTAP 9 und DS224C Festplatten-Shelfs verwendet.

Hinweis Mit dem DS224C Festplatten-Shelf können auch Quad-Path-SAS-Kabel verwendet werden, ist aber nicht erforderlich.

Fehler: Fehlendes Grafikbild

NVMe (100 GbE) Festplatten-Shelfs

Jedes NS224 NVMe-Festplatten-Shelf ist über zwei 100-GbE-Ports pro Controller verbunden. Die Festplatten in jedem Shelf müssen gleichmäßig auf beide Controller des HA-Paars verteilt werden. ADPv2, wie im Kapitel für die Aggregatkonfiguration beschrieben, wird auch für das NS224 Festplatten-Shelf verwendet. Die folgende Abbildung zeigt die Festplatten-Shelf-Verbindung mit einem NVMe-Laufwerk.

Fehler: Fehlendes Grafikbild

Konfiguration von Aggregaten

Im Allgemeinen müssen Sie zwei Aggregate pro Controller konfigurieren, unabhängig vom verwendeten Festplatten-Shelf oder der Festplattentechnologie (SAS-SSDs oder NVMe-SSDs). Dieser Schritt ist notwendig, damit Sie alle verfügbaren Controller-Ressourcen nutzen können. Für die Systeme der AFF A200 Serie reicht ein Daten-Aggregat aus.

Die folgende Abbildung zeigt eine Konfiguration mit 12 SAP HANA Hosts, die auf einem 12-GB-SAS-Shelf ausgeführt werden und mit ADPv2 konfiguriert sind. Sechs SAP-HANA-Hosts sind mit jedem Storage-Controller verbunden. Vier separate Aggregate, zwei an jedem Storage Controller, sind konfiguriert. Jedes Aggregat ist mit 11 Festplatten mit neun Daten und zwei Parity-Festplatten-Partitionen konfiguriert. Für jeden Controller stehen zwei Ersatzpartitionen zur Verfügung.

Fehler: Fehlendes Grafikbild

SVM-Konfiguration

Mehrere SAP Landschaften mit SAP HANA Datenbanken können eine einzige SVM nutzen. Darüber hinaus kann jeder SAP-Landschaft bei Bedarf eine SVM zugewiesen werden, falls diese von verschiedenen Teams innerhalb eines Unternehmens gemanagt werden.

Wenn beim Erstellen einer neuen SVM ein QoS-Profil automatisch erstellt und zugewiesen wird, entfernen Sie dieses automatisch erstellte Profil aus der SVM, um die erforderliche Performance für SAP HANA zu aktivieren:

vserver modify -vserver <svm-name> -qos-policy-group none

LIF-Konfiguration

Für SAP HANA Produktionssysteme müssen unterschiedliche LIFs verwendet werden, um das Daten-Volume und das Protokoll-Volume vom SAP HANA-Host zu mounten. Daher sind mindestens zwei LIFs erforderlich.

Die Daten- und Protokoll-Volume-Mounts verschiedener SAP HANA Hosts können einen physischen Storage-Netzwerk-Port entweder über dieselben LIFs oder mithilfe individueller LIFs für jeden Mount gemeinsam nutzen.

Die folgende Tabelle zeigt die maximale Menge an Daten- und Protokoll-Volume-Mounts pro physischer Schnittstelle.

Ethernet-Port-Geschwindigkeit 10 GbE 25 GbE 40 GbE 100 GeE

Maximale Anzahl an Protokoll- oder Daten-Volume-Mounts pro physischem Port

2

6

12

24

Hinweis Die gemeinsame Nutzung einer logischen Schnittstelle zwischen verschiedenen SAP HANA Hosts erfordert möglicherweise eine Neuaufbindung von Daten- oder Protokoll-Volumes an eine andere logische Schnittstelle. Durch diese Änderung werden Performance-Einbußen vermieden, wenn ein Volume auf einen anderen Storage Controller verschoben wird.

Entwicklungs- und Testsysteme können mehr Daten und Volume-Mounts oder LIFs auf einer physischen Netzwerkschnittstelle verwenden.

Für Produktions-, Entwicklungs- und Testsysteme liefert /hana/shared Das Filesystem kann dieselbe LIF wie das Daten- oder Protokoll-Volume verwenden.

Volume-Konfiguration für SAP HANA Single-Host-Systeme

Die folgende Abbildung zeigt die Volume-Konfiguration von vier SAP HANA-Systemen mit einem Host. Die Daten- und Protokoll-Volumes jedes SAP HANA Systems werden auf verschiedene Storage Controller verteilt. Beispiel: Volume SID1_data_mnt00001 Wird auf Controller A und Volume konfiguriert SID1_log_mnt00001 Ist auf Controller B konfiguriert

Hinweis Wenn für die SAP HANA Systeme nur ein Storage-Controller eines HA-Paars verwendet wird, können Daten- und Protokoll-Volumes auch auf demselben Storage Controller gespeichert werden.
Hinweis Wenn die Daten- und Protokoll-Volumes auf demselben Controller gespeichert sind, muss der Zugriff des Servers auf den Storage mit zwei unterschiedlichen LIFs durchgeführt werden: Einer logischen Schnittstelle für den Zugriff auf das Daten-Volume und der andere für den Zugriff auf das Protokoll-Volume.

Fehler: Fehlendes Grafikbild

Für jeden SAP HANA-Host, ein Daten-Volume, ein Protokoll-Volume und ein Volume für /hana/shared Werden konfiguriert. Die folgende Tabelle zeigt eine Beispielkonfiguration für SAP HANA-Systeme mit einem Host.

Zweck Aggregat 1 bei Controller A Aggregat 2 bei Controller A Aggregat 1 bei Controller B Aggregat 2 bei Controller b

Daten-, Protokoll- und freigegebene Volumes für System SID1

Datenvolumen: SID1_Data_mnt00001

Freigegebenes Volume: SID1_Shared

Protokollvolumen: SID1_log_mnt00001

Daten-, Protokoll- und freigegebene Volumes für System SID2

Protokollvolumen: SID2_log_mnt00001

Datenvolumen: SID2_Data_mnt00001

Freigegebenes Volume: SID2_Shared

Daten-, Protokoll- und gemeinsam genutzte Volumes für System SID3

Gemeinsam genutztes Volume: SID3_shared

Datenvolumen: SID3_Data_mnt00001

Protokollvolumen: SID3_log_mnt00001

Daten-, Protokoll- und gemeinsam genutzte Volumes für System SID4

Protokollvolumen: SID4_log_mnt00001

Gemeinsam genutztes Volume: SID4_shared

Datenvolumen: SID4_Data_mnt00001

Die folgende Tabelle zeigt ein Beispiel für die Mount-Point-Konfiguration für ein System mit einem einzelnen Host. Um das Home-Verzeichnis des zu platzieren sidadm Benutzer auf dem zentralen Speicher, der /usr/sap/SID Dateisystem sollte vom gemountet werden SID_shared Datenmenge:

Verbindungspfad Verzeichnis Bereitstellungspunkt beim HANA-Host

SID_Data_mnt00001

/hana/Data/SID/mnt00001

SID_Log_mnt00001

/hana/log/SID/mnt00001

SID_freigegeben

Usr-sap freigegeben

/Usr/sap/SID /hana/shared/

Volume-Konfiguration für SAP HANA Multiple-Host-Systeme

Die folgende Abbildung zeigt die Volume-Konfiguration eines 4+1 SAP HANA-Systems. Die Daten- und Protokoll-Volumes jedes SAP HANA-Hosts werden auf verschiedene Storage-Controller verteilt. Beispiel: Volume SID1_data1_mnt00001 Wird auf Controller A und Volume konfiguriert SID1_log1_mnt00001 Ist auf Controller B konfiguriert

Hinweis Wenn für das SAP HANA System nur ein Storage-Controller eines HA-Paars verwendet wird, können die Daten- und Protokoll-Volumes auch auf demselben Storage Controller gespeichert werden.
Hinweis Wenn die Daten- und Protokoll-Volumes auf demselben Controller gespeichert sind, muss der Zugriff des Servers auf den Storage mit zwei unterschiedlichen LIFs durchgeführt werden: Einer logischen Schnittstelle für den Zugriff auf das Daten-Volume und einem für den Zugriff auf das Protokoll-Volume.

Fehler: Fehlendes Grafikbild

Für jeden SAP HANA-Host werden ein Daten-Volume und ein Protokoll-Volume erstellt. Der /hana/shared Das Volume wird von allen Hosts des SAP HANA-Systems verwendet. Die folgende Tabelle zeigt eine Beispielkonfiguration für ein SAP HANA-System mit mehreren Hosts und vier aktiven Hosts.

Zweck Aggregat 1 bei Controller A Aggregat 2 bei Controller A Aggregat 1 bei Controller B Aggregieren 2 bei Controller B

Daten- und Protokoll-Volumes für Node 1

Datenvolumen: SID_Data_mnt00001

Protokollvolumen: SID_log_mnt00001

Daten- und Protokoll-Volumes für Node 2

Protokollvolumen: SID_log_mnt002

Datenvolumen: SID_Data_mnt002

Daten- und Protokoll-Volumes für Node 3

Datenvolumen: SID_Data_mnt00003

Protokollvolumen: SID_log_mnt00003

Daten- und Protokoll-Volumes für Node 4

Protokollvolumen: SID_log_mnt004

Datenvolumen: SID_Data_mnt00004

Gemeinsames Volume für alle Hosts

Gemeinsam genutztes Volume: SID_shared

Die folgende Tabelle zeigt die Konfiguration und die Bereitstellungspunkte eines Systems mit mehreren Hosts mit vier aktiven SAP HANA Hosts. Um die Home-Verzeichnisse des zu platzieren sidadm Benutzer jedes Hosts im zentralen Speicher, der /usr/sap/SID Dateisysteme werden über eingebunden SID_shared Datenmenge:

Verbindungspfad Verzeichnis Bereitstellungspunkt beim SAP HANA-Host Hinweis

SID_Data_mnt00001

/hana/Data/SID/mnt00001

Auf allen Hosts montiert

SID_Log_mnt00001

/hana/log/SID/mnt00001

Auf allen Hosts montiert

SID_Data_mnt00002

/hana/Data/SID/mnt002

Auf allen Hosts montiert

SID_Log_mnt00002

/hana/log/SID/mnt002

Auf allen Hosts montiert

SID_Data_mnt00003

/hana/Data/SID/mnt003

Auf allen Hosts montiert

SID_log_mnt00003

/hana/log/SID/mnt003

Auf allen Hosts montiert

SID_Data_mnt00004

/hana/Data/SID/mnt004

Auf allen Hosts montiert

SID_log_mnt00004

/hana/log/SID/mnt004

Auf allen Hosts montiert

SID_freigegeben

Freigegeben

/hana/Shared/SID

Auf allen Hosts montiert

SID_freigegeben

Usr-sap-host1

/Usr/sap/SID

Angehängt auf Host 1

SID_freigegeben

Usr-sap-host2

/Usr/sap/SID

Angehängt auf Host 2

SID_freigegeben

Usr-sap-host3

/Usr/sap/SID

Angehängt auf Host 3

SID_freigegeben

Usr-sap-host4

/Usr/sap/SID

Angehängt auf Host 4

SID_freigegeben

Usr-sap-host5

/Usr/sap/SID

Angehängt auf Host 5

Volume-Optionen

Sie müssen die in der folgenden Tabelle aufgeführten Volume-Optionen auf allen SVMs überprüfen und festlegen. Bei einigen Befehlen müssen Sie in den erweiterten Berechtigungsebene in ONTAP wechseln.

Aktion Befehl

Deaktivieren Sie die Sichtbarkeit des Snapshot Verzeichnisses

vol modify -vserver <vserver-Name> -Volume <volname> -Snapdir-Access false

Deaktivieren Sie automatische Snapshot Kopien

vol modify –vserver <vserver-Name> -Volume <volname> -Snapshot-Policy keine

Deaktivieren Sie Updates der Zugriffszeit außer dem SID_Shared-Volume

Setzen Sie Advanced vol modify -vserver <vserver-Name> -Volume <volname> -atime-Update false Administrator

NFS-Konfiguration für NFSv3

Die in der folgenden Tabelle aufgeführten NFS-Optionen müssen verifiziert und auf allen Storage Controllern eingestellt werden. Für einige der Befehle, die in dieser Tabelle aufgeführt sind, müssen Sie in den erweiterten Berechtigungsmodus wechseln.

Aktion Befehl

Aktivieren Sie NFSv3

nfs modify -vserver <vserver-Name> v3.0 aktiviert

ONTAP 9: Legen Sie die maximale Übertragungsgröße für NFS TCP auf 1 MB fest

Erweitertes nfs modify -vserver <vserver_Name> -tcp-max-xfer-size 1048576 set admin

ONTAP 8: Legen Sie die Lese- und Schreibgröße für NFS auf 64 KB fest

Erweitertes nfs modify -vserver <vserver-Name> -v3-tcp-max-read-size 65536 nfs modify -vserver <vserver-Name> -v3-tcp-max-write-size 65536 set admin

NFS-Konfiguration für NFSv4

Die in der folgenden Tabelle aufgeführten NFS-Optionen müssen verifiziert und auf allen SVMs eingestellt werden.

Für einige Befehle in dieser Tabelle müssen Sie in den erweiterten Berechtigungsmodus wechseln.

Aktion Befehl

Aktivieren Sie NFSv4

nfs modify -vserver <vserver-Name> -v4.1 aktiviert

ONTAP 9: Legen Sie die maximale Übertragungsgröße für NFS TCP auf 1 MB fest

Erweitertes nfs modify -vserver <vserver_Name> -tcp-max-xfer-size 1048576 set admin

ONTAP 8: Legen Sie die Lese- und Schreibgröße für NFS auf 64 KB fest

Erweitertes nfs modify -vserver <vserver_Name> -tcp-max-xfer-size 65536 set admin

NFSv4-Zugriffssteuerungslisten (ACLs) deaktivieren

nfs modify -vserver <vServer_Name> -v4.1-acl deaktiviert

Legen Sie die NFSv4-Domain-ID fest

nfs modify -vServer <vServer_Name> -v4-id-Domain <Domain-Name>

Deaktivieren der NFSv4-Lesedelegierung

nfs modify -vServer <vServer_Name> -v4.1-read-Delegation deaktiviert

Deaktivieren der NFSv4-Schreibdelegation

nfs modify -vServer <vServer_Name> -v4.1-write-Delegation deaktiviert

Deaktivieren Sie die numerischen nfsv4-ids

nfs modify -vServer <vServer_Name> -v4-numeric-ids deaktiviert

Ändern Sie die Anzahl der NFSv4.x-Sitzungsplätze
Optional

Erweiterte Einstellungen
nfs modify -vserver hana -v4.x-Session-num-slots <value>
Legen Sie „Admin“ fest

Hinweis Bitte beachten Sie, dass die Deaktivierung numerischer ids eine Benutzerverwaltung erfordert, wie im Abschnitt beschrieben "„SAP HANA Installationsvorbereitungen für NFSv4“."
Hinweis Die NFSv4-Domänen-ID muss auf allen Linux-Servern auf denselben Wert festgelegt sein (/etc/idmapd.conf) Und SVMs, wie im Abschnitt beschrieben "„SAP HANA Installationsvorbereitungen für NFSv4“."
Hinweis Wenn Sie NFSV4.1 verwenden, kann pNFS aktiviert und verwendet werden.

Bei Einsatz von SAP HANA Systemen mit mehreren Hosts und automatischem Host-Failover müssen die Failover-Parameter innerhalb angepasst werden nameserver.ini Wie in der folgenden Tabelle dargestellt.
Behalten Sie das standardmäßige Wiederholungsintervall von 10 Sekunden in diesen Abschnitten bei.

Abschnitt in nameserver.ini Parameter Wert

Failover

Normal_Wiederholungen

9

Distributed_Watchdog

Deaktivierung_Wiederholungen

11

Distributed_Watchdog

Takeover_Wiederholungen

9

Volumes werden in Namespace mounten und Richtlinien für den Export festlegen

Wenn ein Volume erstellt wird, muss das Volume im Namespace gemountet werden. In diesem Dokument gehen wir davon aus, dass der Name des Verbindungspfads dem Namen des Volumes entspricht. Standardmäßig wird das Volume mit der Standardrichtlinie exportiert. Die Exportpolitik kann bei Bedarf angepasst werden.