Skip to main content
NetApp Solutions SAP
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Storage-Dimensionierung

Beitragende

Der folgende Abschnitt bietet einen Überblick über die erforderlichen Performance- und Kapazitätsüberlegungen, die für die Dimensionierung eines Storage-Systems für SAP HANA erforderlich sind.

Hinweis Wenden Sie sich an NetApp oder Ihren Vertriebsmitarbeiter von NetApp Partner, um Sie beim Aufbau einer Storage-Umgebung in einer passenden Größe zu unterstützen.

Überlegungen zur Performance

SAP hat einen statischen Satz von Storage-KPIs definiert, die für alle produktiven SAP HANA-Umgebungen gültig sind, unabhängig von der Speichergröße der Datenbank-Hosts und der Applikationen, die die SAP HANA-Datenbank nutzen. Diese KPIs gelten für Single-Host-, mehrere Hosts-, Business Suite on HANA-, Business Warehouse on HANA-, S/4HANA- und BW/4HANA-Umgebungen. Daher hängt der aktuelle Ansatz zur Performance-Dimensionierung nur von der Anzahl aktiver SAP HANA-Hosts ab, die an das Storage-System angeschlossen sind.

Hinweis Storage-Performance-KPIs sind nur für SAP HANA Produktionssysteme erforderlich, können aber in allen HANA-Systemen implementiert werden.

SAP liefert ein Performance-Testtool, mit dem die Performance des Storage-Systems für aktive an den Storage angeschlossene SAP HANA Hosts validiert werden.

NetApp hat die maximale Anzahl an SAP HANA Hosts getestet und vordefiniert, die an ein bestimmtes Storage-Modell angeschlossen werden können, ohne dabei die erforderlichen Storage-KPIs von SAP für produktionsbasierte SAP HANA Systeme zu erfüllen.

Hinweis Die Storage-Controller der zertifizierten FAS Produktfamilie können auch für SAP HANA mit anderen Festplattentypen oder Disk Back-End-Lösungen verwendet werden. Sie müssen jedoch von NetApp unterstützt werden und die Performance-KPIs von SAP HANA TDI erfüllen. Beispiele dafür sind NetApp Storage Encryption (NSE) und NetApp FlexArray Technologien.

In diesem Dokument wird die Festplattengröße für SAS-HDDs und Solid-State-Laufwerke (SSDs) beschrieben.

HDDs

Um die Storage-Performance-KPIs von SAP zu erfüllen, sind mindestens 10 Datenfestplatten (SAS mit 10.000 U/min) pro SAP HANA-Node erforderlich.

Hinweis Diese Berechnung ist unabhängig vom verwendeten Storage Controller und Platten-Shelf sowie den Kapazitätsanforderungen der Datenbank. Das Hinzufügen weiterer Platten-Shelves erhöht nicht die maximale Anzahl von SAP HANA Hosts, die ein Storage-Controller unterstützen kann.

Solid State Drives

Bei SSDs wird die Anzahl an Datenfestplatten durch den Durchsatz der SAS-Verbindung von den Storage-Controllern zum SSD-Shelf bestimmt.

Mit dem SAP Performance-Test-Tool wurde die maximale Anzahl an SAP HANA-Hosts ermittelt, die in einem einzelnen Platten-Shelf ausgeführt werden können und die Mindestanzahl der pro SAP HANA-Host benötigten SSDs erforderlich ist. Dieser Test berücksichtigt nicht die tatsächlichen Storage-Kapazitätsanforderungen der Hosts. Zusätzlich müssen die Kapazitätsanforderungen berechnet werden, um die tatsächlich benötigte Storage-Konfiguration zu bestimmen.

  • Das 12-GB-SAS-Festplatten-Shelf (DS224C) mit 24 SSDs unterstützt bis zu 14 SAP HANA-Hosts, wenn das Festplatten-Shelf mit 12 GB verbunden ist.

  • Das 6 Gbit SAS-Platten-Shelf (DS2246) mit 24 SSDs unterstützt bis zu 4 SAP HANA Hosts.

Die SSDs und SAP HANA-Hosts müssen auf beide Storage-Controller verteilt sein.

In der folgenden Tabelle ist die unterstützte Anzahl von SAP HANA-Hosts pro Festplatten-Shelf zusammengefasst.

6-Gbit-SAS-Shelfs (DS2246) mit voller Betriebslast 24 SSDs 12-GB-SAS-Shelfs (DS224C) mit 24 SSDs

Maximale Anzahl von SAP HANA-Hosts pro Festplatten-Shelf

4

14

Hinweis Diese Berechnung erfolgt unabhängig vom eingesetzten Storage Controller. Das Hinzufügen weiterer Platten-Shelves erhöhen nicht die maximale Anzahl von SAP HANA Hosts, die ein Storage-Controller unterstützen kann.

Heterogenen Workloads

SAP HANA und andere Applikations-Workloads werden auf demselben Storage Controller oder im selben Storage-Aggregat unterstützt. Es ist jedoch eine NetApp Best Practice, SAP HANA-Workloads von allen anderen Applikations-Workloads zu trennen.

SAP HANA-Workloads und andere Applikations-Workloads können entweder auf demselben Storage-Controller oder demselben Aggregat implementiert werden. Falls ja, müssen Sie sicherstellen, dass in der Umgebung mit heterogenen Workloads für SAP HANA eine ausreichende Performance verfügbar ist. NetApp empfiehlt außerdem, Parameter der Quality of Service (QoS) zu verwenden, um die Auswirkungen anderer Applikationen zu regulieren und einen Durchsatz für SAP HANA-Applikationen zu garantieren.

Das Performance-Testtool von SAP muss verwendet werden, um zu prüfen, ob zusätzliche SAP HANA Hosts auf einem vorhandenen Storage Controller ausgeführt werden können, der bereits für andere Workloads verwendet wird. SAP Applikations-Server können wie die SAP HANA Datenbanken sicher auf demselben Storage Controller und/oder Aggregat platziert werden.

Überlegungen zur Kapazität

Eine detaillierte Beschreibung der Kapazitätsanforderungen für SAP HANA ist im "SAP-Hinweis 1900823" Beigefügtes Whitepaper.

Hinweis Das Kapazitätsdimensionieren der gesamten SAP Landschaft mit mehreren SAP HANA Systemen muss mithilfe von SAP HANA Storage-Größenanpassungs-Tools von NetApp ermittelt werden. Wenden Sie sich an NetApp oder Ihren Ansprechpartner bei NetApp Partnern, um den Prozess der Storage-Größenbemessung für eine ausreichend dimensionierte Storage-Umgebung zu validieren.

Konfiguration des Performance-Testtool

Ab SAP HANA 1.0 SPS10 führte SAP Parameter ein, um das I/O-Verhalten anzupassen und die Datenbank für das verwendete Datei- und Speichersystem zu optimieren. Diese Parameter müssen auch dann eingestellt werden, wenn die Speicherleistung mit dem SAP-Performance-Testtool getestet wird.

NetApp führte Performance-Tests durch, um die optimalen Werte zu ermitteln. In der folgenden Tabelle sind die Parameter aufgeführt, die in der Konfigurationsdatei des SAP-Performance-Testwerkzeugs festgelegt werden müssen.

Parameter Wert

max_parallel_io_Requests

128

Async_read_Submit

Ein

Async_write_submit_Active

Ein

Async_Write_Submit_Blocks

Alle

Weitere Informationen zur Konfiguration des SAP-Testwerkzeugs finden Sie unter "SAP-Hinweis 1943937" Für HWCCT (SAP HANA 1.0) und "SAP-Hinweis 2493172" FÜR HCMT/HCOT (SAP HANA 2.0).

Das folgende Beispiel zeigt, wie Variablen für den HCMT/HCOT-Ausführungsplan festgelegt werden können.

…{
         "Comment": "Log Volume: Controls whether read requests are submitted asynchronously, default is 'on'",
         "Name": "LogAsyncReadSubmit",
         "Value": "on",
         "Request": "false"
      },
      {
         "Comment": "Data Volume: Controls whether read requests are submitted asynchronously, default is 'on'",
         "Name": "DataAsyncReadSubmit",
         "Value": "on",
         "Request": "false"
      },
      {
         "Comment": "Log Volume: Controls whether write requests can be submitted asynchronously",
         "Name": "LogAsyncWriteSubmitActive",
         "Value": "on",
         "Request": "false"
      },
      {
         "Comment": "Data Volume: Controls whether write requests can be submitted asynchronously",
         "Name": "DataAsyncWriteSubmitActive",
         "Value": "on",
         "Request": "false"
      },
      {
         "Comment": "Log Volume: Controls which blocks are written asynchronously. Only relevant if AsyncWriteSubmitActive is 'on' or 'auto' and file system is flagged as requiring asynchronous write submits",
         "Name": "LogAsyncWriteSubmitBlocks",
         "Value": "all",
         "Request": "false"
      },
      {
         "Comment": "Data Volume: Controls which blocks are written asynchronously. Only relevant if AsyncWriteSubmitActive is 'on' or 'auto' and file system is flagged as requiring asynchronous write submits",
         "Name": "DataAsyncWriteSubmitBlocks",
         "Value": "all",
         "Request": "false"
      },
      {
         "Comment": "Log Volume: Maximum number of parallel I/O requests per completion queue",
         "Name": "LogExtMaxParallelIoRequests",
         "Value": "128",
         "Request": "false"
      },
      {
         "Comment": "Data Volume: Maximum number of parallel I/O requests per completion queue",
         "Name": "DataExtMaxParallelIoRequests",
         "Value": "128",
         "Request": "false"
      }, …

Diese Variablen müssen für die Testkonfiguration verwendet werden. Dies ist in der Regel bei den vordefinierten Testsuiten der Fall, die SAP mit dem HCMT/HCOT-Tool liefert. Das folgende Beispiel für einen 4k-Protokollschreibtest stammt aus einer Testsuite.

…
      {
         "ID": "D664D001-933D-41DE-A904F304AEB67906",
         "Note": "File System Write Test",
         "ExecutionVariants": [
            {
               "ScaleOut": {
                  "Port": "${RemotePort}",
                  "Hosts": "${Hosts}",
                  "ConcurrentExecution": "${FSConcurrentExecution}"
               },
               "RepeatCount": "${TestRepeatCount}",
               "Description": "4K Block, Log Volume 5GB, Overwrite",
               "Hint": "Log",
               "InputVector": {
                  "BlockSize": 4096,
                  "DirectoryName": "${LogVolume}",
                  "FileOverwrite": true,
                  "FileSize": 5368709120,
                  "RandomAccess": false,
                  "RandomData": true,
                  "AsyncReadSubmit": "${LogAsyncReadSubmit}",
                  "AsyncWriteSubmitActive": "${LogAsyncWriteSubmitActive}",
                  "AsyncWriteSubmitBlocks": "${LogAsyncWriteSubmitBlocks}",
                  "ExtMaxParallelIoRequests": "${LogExtMaxParallelIoRequests}",
                  "ExtMaxSubmitBatchSize": "${LogExtMaxSubmitBatchSize}",
                  "ExtMinSubmitBatchSize": "${LogExtMinSubmitBatchSize}",
                  "ExtNumCompletionQueues": "${LogExtNumCompletionQueues}",
                  "ExtNumSubmitQueues": "${LogExtNumSubmitQueues}",
                  "ExtSizeKernelIoQueue": "${ExtSizeKernelIoQueue}"
               }
            }, …

Übersicht über den Prozess zur Storage-Größenbemessung

Die Anzahl der Festplatten pro HANA Host und die SAP HANA Host-Dichte für jedes Storage-Modell wurden mit dem Performance-Testtool von SAP ermittelt.

Der Dimensionierungsprozess erfordert Einzelheiten, z. B. die Anzahl der SAP HANA-Hosts in der Produktion und für die Produktion nichtproduktive Umgebung, die RAM-Größe jedes Hosts und die Backup-Aufbewahrung der Storage-basierten Snapshot Kopien. Die Anzahl der SAP HANA-Hosts bestimmt den Storage Controller und die Anzahl der benötigten Festplatten.

Die Größe des RAM, die Netto-Datengröße auf der Festplatte jedes SAP HANA-Hosts und der Aufbewahrungszeitraum für das Snapshot-Backup werden als Inputs bei der Kapazitätsdimensionierung verwendet.

Die folgende Abbildung fasst den Dimensionierungsprozess zusammen.

Die Abbildung zeigt den Input/Output-Dialog oder die Darstellung des schriftlichen Inhalts