Skip to main content
NetApp Solutions
Se proporciona el idioma español mediante traducción automática para su comodidad. En caso de alguna inconsistencia, el inglés precede al español.

Procedimiento de prueba

Colaboradores

Este apartado describe los procedimientos de prueba utilizados para validar esta solución.

Configuración de inferencia de IA y sistema operativo

Para AFF C190, utilizamos Ubuntu 18.04 con controladores NVIDIA y docker con soporte para GPU de NVIDIA y usamos MLPerf "codificación" Disponible como parte de la presentación de Lenovo a la inferencia MLPerf v0.7.

Para EF280, utilizamos Ubuntu 20.04 con controladores NVIDIA y docker con soporte para las GPU de NVIDIA y MLPerf "codificación" Disponible como parte de la presentación de Lenovo a la inferencia MLPerf v1.1.

Para configurar la inferencia de IA, siga estos pasos:

  1. Descargue los conjuntos de datos que requieren registro, el conjunto de datos ImageNET 2012 Validation, el conjunto de datos Criteo Terabyte y el conjunto de entrenamiento Brats 2019 y, a continuación, descomprima los archivos.

  2. Cree un directorio de trabajo con al menos 1 TB y defina una variable ambiental MLPERF_SCRATCH_PATH referencia al directorio.

    Debe compartir este directorio en el almacenamiento compartido para el caso de uso del almacenamiento de red o en el disco local cuando realice pruebas con datos locales.

  3. Ejecute la Marca prebuild comando, que crea e inicia el contenedor docker para las tareas de inferencia necesarias.

    Nota Los siguientes comandos se ejecutan desde el contenedor docker en ejecución:
    • Descargue modelos de IA preformados para tareas de inferencia de MLPerf: make download_model

    • Descargue conjuntos de datos adicionales que se pueden descargar gratuitamente: make download_data

    • Preprocesar los datos: Make preprocess_data

    • Ejecución: make build.

    • Cree motores de inferencia optimizados para la GPU en servidores informáticos: make generate_engines

    • Para ejecutar cargas de trabajo de inferencia, ejecute el siguiente (un comando):

make run_harness RUN_ARGS="--benchmarks=<BENCHMARKS> --scenarios=<SCENARIOS>"

Se ejecuta la inferencia de IA

Se ejecutaron tres tipos de ejecuciones:

  • Inferencia de IA de un único servidor con almacenamiento local

  • Inferencia de IA de un único servidor con el almacenamiento en red

  • Inferencia de la IA en varios servidores con el almacenamiento en red