Skip to main content
NetApp Solutions
本繁體中文版使用機器翻譯,譯文僅供參考,若與英文版本牴觸,應以英文版本為準。

NVA-1173 NetApp AIPod 搭配 NVIDIA DGX H100 系統 - 解決方案架構

貢獻者

本節著重於採用 NVIDIA DGX 系統的 NetApp AIPod 架構。

NetApp AIPod 搭配 DGX 系統

此參考架構運用獨立的架構來進行運算叢集互連和儲存存取、並在運算節點之間提供 400GB / 秒 InfiniBand ( IB )連線能力。下圖顯示 NetApp AIPod 搭配 DGX H100 系統的整體解決方案拓撲。

NetApp AIPod 解決方案拓撲 _

錯誤:缺少圖形影像

網路設計

在此組態中、運算叢集架構使用一對 QM9700 400GB / 秒 IB 交換器、這些交換器會連接在一起以獲得高可用度。每個 DGX H100 系統都使用八個連線連接至交換器、其中偶數連接埠連接至一台交換器、而奇數連接埠則連接至另一台交換器。

對於儲存系統存取、頻內管理和用戶端存取、會使用一對 SN4600 乙太網路交換器。交換器是透過交換器間的連結連接、並設定多個 VLAN 來隔離各種流量類型。在特定 VLAN 之間啟用基本 L3 路由、可在同一台交換器的用戶端和儲存介面之間、以及在交換器之間啟用多條路徑、以實現高可用度。對於較大型的部署、可將乙太網路擴充至葉脊組態、為脊椎交換器新增額外的交換器配對、並視需要新增額外的葉片。

除了運算互連和高速乙太網路之外、所有實體裝置也會連線至一或多個 SN2201 乙太網路交換器、以進行頻外管理。"部署詳細資料"如需網路組態的詳細資訊、請參閱頁面。

DGX H100 系統的儲存存取總覽

每個 DGX H100 系統均配置兩個雙連接埠 ConnectX-7 介面卡、用於管理和儲存流量、而此解決方案則將每個介面卡上的兩個連接埠連接到同一個交換器。接著、每個卡的一個連接埠會設定為 LACP MLAG 連結、每個交換器都有一個連接埠、而用於頻內管理、用戶端存取和使用者層級儲存存取的 VLAN 則會裝載在此連結上。

每張卡上的另一個連接埠用於連線至 AFF A90 儲存系統、並可用於數種組態、視工作負載需求而定。對於使用 NFS over RDMA 來支援 NVIDIA Magnum IO GPUDirect 儲存設備的組態、連接埠會個別用於不同 VLAN 中的 IP 位址。對於不需要 RDMA 的部署、儲存介面也可以設定為 LACP 繫結、以提供高可用度和額外頻寬。無論是否使用 RDMA 、用戶端都可以使用 NFS v4.1 pNFS 和工作階段主幹來掛載儲存系統、以便平行存取叢集中的所有儲存節點。"部署詳細資料"如需用戶端組態的詳細資訊、請參閱頁面。

如需 DGX H100 系統連線的詳細資訊"NVIDIA BasePOD 文件"、請參閱。

儲存系統設計

每個 AFF A90 儲存系統都使用每個控制器的六個 200 GbE 連接埠進行連線。每個控制器有四個連接埠用於從 DGX 系統存取工作負載資料、每個控制器有兩個連接埠則設定為 LACP 介面群組、以支援從管理層伺服器存取叢集管理成品和使用者主目錄。儲存系統的所有資料存取都是透過 NFS 提供、其中儲存虛擬機器( SVM )專用於 AI 工作負載存取、另有專用於叢集管理用途的獨立 SVM 。

"部署詳細資料"如需儲存系統組態的詳細資訊、請參閱頁面。

管理層伺服器

此參考架構也包含五部以 CPU 為基礎的伺服器、供管理層使用。其中兩個系統是 NVIDIA Base Command Manager 的主要節點、用於叢集部署和管理。其餘三個系統則用於提供額外的叢集服務、例如 Kubernetes 主節點或登入節點、以便使用 Slurm 進行工作排程。使用 Kubernetes 的部署可運用 NetApp Trident CSI 驅動程式、為 AFF A900 儲存系統上的管理和 AI 工作負載提供持續儲存的自動化資源配置和資料服務。

每部伺服器都會實體連接至 IB 交換器和乙太網路交換器、以啟用叢集部署和管理、並透過管理 SVM 將 NFS 裝載至儲存系統、以儲存叢集管理產出工件、如前所述。