NVA-1173 AIPod de NetApp con sistemas DGX de NVIDIA: Validación de soluciones y orientación de tamaño
Esta sección se centra en las directrices sobre el tamaño y la validación de la solución para el AIPod de NetApp con sistemas NVIDIA DGX.
Validación de la solución
La configuración del almacenamiento de esta solución se validó mediante una serie de cargas de trabajo sintéticas utilizando la herramienta de código abierto FIO. Estas pruebas incluyen patrones de I/O de lectura y escritura destinados a simular la carga de trabajo de almacenamiento generada por los sistemas DGX que realizan trabajos de entrenamiento de aprendizaje profundo. La configuración del almacenamiento se validó utilizando un clúster de servidores CPU de 2 sockets que ejecutaban las cargas de trabajo FIO de forma simultánea para simular un clúster de sistemas DGX. Cada cliente se configuró con la misma configuración de red descrita anteriormente, con la adición de los siguientes detalles.
Para esta validación se utilizaron las siguientes opciones de montaje:
vers=4,1 |
Habilita pNFS para el acceso paralelo a varios nodos de almacenamiento |
proto=rdma |
Define el protocolo de transferencia en RDMA en lugar del TCP predeterminado |
puerto = 20049 |
Especifique el puerto correcto para el servicio RDMA NFS |
max_connect=16 |
Habilita la conexión de enlaces de sesión NFS para agregar el ancho de banda de puertos de almacenamiento |
write=eager |
mejora el rendimiento de escritura de escrituras en búfer |
rsize=262144,wsize=262144 |
Establece el tamaño de transferencia de I/O en 256K |
Además, los clientes se configuraron con un valor de NFS max_session_slots de 1024. Dado que la solución se probó con NFS a través de RDMA, los puertos de redes de almacenamiento se configuraron con un vínculo activo-pasivo. Para esta validación, se utilizaron los siguientes parámetros de enlace:
mode=backup activo |
establece el vínculo en el modo activo-pasivo |
primary=<interface name> |
las interfaces principales para todos los clientes se distribuyeron entre los switches |
mii-monitor-interval=100 |
especifica el intervalo de monitorización de 100ms |
fail-over-mac-policy=active |
Especifica que la dirección MAC del enlace activo es la MAC del enlace. Esto es necesario para el correcto funcionamiento de RDMA a través de la interfaz vinculada. |
El sistema de almacenamiento se configuró como se describe con dos pares de alta disponibilidad A900 (4 controladoras) con dos bandejas de discos NS224 de 24 1,9TB unidades de disco NVMe añadidas a cada par de alta disponibilidad. Tal y como se indica en la sección de arquitectura, la capacidad de almacenamiento de todas las controladoras se combinó mediante el uso de un volumen FlexGroup y la información de todos los clientes se distribuyó entre todas las controladoras del clúster.
Directrices de tamaño del sistema de almacenamiento
NetApp ha completado correctamente la certificación DGX BasePOD y las dos parejas de alta disponibilidad A90 como pruebas pueden admitir fácilmente un clúster de dieciséis sistemas DGX H100. Para puestas en marcha de mayor tamaño con requisitos de rendimiento del almacenamiento superiores, es posible añadir sistemas AFF adicionales al clúster de NetApp ONTAP hasta 12 pares de alta disponibilidad (24 nodos) en un único clúster. Con la tecnología FlexGroup descrita en esta solución, un clúster de 24 nodos puede proporcionar más de 79 PB y hasta 552 Gbps de rendimiento en un solo espacio de nombres. Otros sistemas de almacenamiento de NetApp como AFF A400, A250 y C800 ofrecen un rendimiento menor y opciones de capacidad superior para puestas en marcha de menor tamaño a puntos de coste menores. Como ONTAP 9 admite clústeres de modelo mixto, los clientes pueden comenzar con una huella inicial pequeña e ir aumentando el sistema de almacenamiento a medida que crezcan los requisitos de capacidad y rendimiento. La siguiente tabla muestra una estimación aproximada del número de GPU A100 y H100 admitidas en cada modelo de AFF.
Guía para ajustar el tamaño del sistema de almacenamiento de NetApp