NVA-1173 NetApp AIPod mit NVIDIA DGX Systemen – Leitfaden zur Lösungsvalidierung und Größenbestimmung
Der Abschnitt konzentriert sich auf die Lösungsvalidierung und die Anleitung zur Dimensionierung des NetApp AIPod mit NVIDIA DGX-Systemen.
Lösungsvalidierung
Die Storage-Konfiguration in dieser Lösung wurde mit Hilfe des Open Source-Tools FIO mit einer Reihe synthetischer Workloads validiert. Diese Tests schließen Lese- und Schreib-I/O-Muster ein, die darauf ausgelegt sind, den Storage-Workload zu simulieren, der von DGX-Systemen generiert wird, die Deep-Learning-Trainingsaufgaben durchführen. Die Storage-Konfiguration wurde mit einem Cluster aus 2-Socket-CPU-Servern validiert, auf denen die FIO-Workloads gleichzeitig ausgeführt wurden, um einen Cluster aus DGX-Systemen zu simulieren. Jeder Client wurde mit derselben oben beschriebenen Netzwerkkonfiguration konfiguriert, wobei folgende Details hinzugefügt wurden.
Für diese Validierung wurden die folgenden Mount-Optionen verwendet:
Vers=4.1 |
PNFS ermöglicht parallelen Zugriff auf mehrere Storage Nodes |
Proto=rdma |
Setzt das Übertragungsprotokoll auf RDMA anstelle des Standard-TCP |
Port = 20049 |
Geben Sie den richtigen Port für den RDMA-NFS-Dienst an |
max_Connect=16 |
Ermöglicht NFS Session Trunking zur Aggregation der Storage Port-Bandbreite |
Write=Eager |
Verbessert die Schreib-Performance von gepufferten Schreibvorgängen |
Rsize=262144,wsize=262144 |
Legt die E/A-Übertragungsgröße auf 256 KB fest |
Darüber hinaus wurden die Clients mit einem NFS max_Session_slots-Wert von 1024 konfiguriert. Als die Lösung mit NFS over RDMA getestet wurde, wurden die Storage-Netzwerk-Ports mit einem aktiv/Passiv-Bond konfiguriert. Für diese Validierung wurden die folgenden Bond-Parameter verwendet:
Mode=Active-Backup |
Legt die Bindung auf den aktiven/passiven Modus fest |
Primär = <interface name> |
Die primären Schnittstellen aller Clients wurden über die Switches verteilt |
mii-Monitor-interval=100 |
Gibt das Überwachungsintervall von 100 ms an |
Failover-mac-Policy=aktiv |
Gibt an, dass die MAC-Adresse der aktiven Verbindung die MAC der Verbindung ist. Dies ist für den ordnungsgemäßen Betrieb von RDMA über die gebundene Schnittstelle erforderlich. |
Das Storage-System wurde mit zwei A900 HA-Paaren (4 Controllern) mit zwei NS224-Festplatten-Shelfs mit 24 1,9-TB-NVMe-Festplatten konfiguriert, die an jedes HA-Paar angeschlossen sind. Diese Beschreibung erfolgte unter Verwendung von zwei A900 HA-Paaren. Wie im Abschnitt zur Architektur erwähnt, wurde die Storage-Kapazität aller Controller mit einem FlexGroup Volume kombiniert, wobei die Daten aller Clients über alle Controller im Cluster verteilt wurden.
Leitfaden Zur Größenbemessung Für Storage-Systeme
NetApp hat die DGX BasePOD-Zertifizierung erfolgreich abgeschlossen. Die beiden getesteten A90 HA-Paare können problemlos ein Cluster mit sechzehn DGX H100-Systemen unterstützen. Für größere Implementierungen mit höheren Anforderungen an die Storage-Performance können dem NetApp ONTAP Cluster bis zu 12 HA-Paare (24 Nodes) in einem einzelnen Cluster zusätzliche AFF Systeme hinzugefügt werden. Mithilfe der in dieser Lösung beschriebenen FlexGroup Technologie kann ein 24-Node-Cluster in einem Single Namespace über 79 PB und einen Durchsatz von bis zu 552 Gbit/s bereitstellen. Andere NetApp Storage-Systeme wie die AFF A400, A250 und C800 bieten Optionen für niedrigere Performance und/oder höhere Kapazität für kleinere Implementierungen zu geringeren Kosten. Da ONTAP 9 Cluster mit gemischten Modellen unterstützt, können Kunden mit einem kleineren anfänglichen Platzbedarf beginnen und bei wachsenden Kapazitäts- und Performance-Anforderungen weitere oder größere Storage-Systeme zum Cluster hinzufügen. In der folgenden Tabelle ist eine ungefähre Schätzung der Anzahl der unterstützten A100- und H100-GPUs für jedes AFF-Modell aufgeführt.
Anleitung zur Dimensionierung des NetApp Storage-Systems