Skip to main content
NetApp Solutions
Se proporciona el idioma español mediante traducción automática para su comodidad. En caso de alguna inconsistencia, el inglés precede al español.

Implementar el análisis de confianza del centro de soporte

Colaboradores

La implementación de la solución consta de los siguientes componentes:

  1. Kit de herramientas de operaciones de datos de NetApp

  2. Configuración de NGC

  3. Servidor NVIDIA RIVA

  4. Kit de herramientas TAO de NVIDIA

  5. Exportar modelos TAO a RIVA

Para realizar la implementación, lleve a cabo los siguientes pasos:

Kit de herramientas Data OPS de NetApp: Compatibilidad con el análisis de confianza del centro de soporte

Para utilizar la "Kit de herramientas de operaciones de datos de NetApp", lleve a cabo los siguientes pasos:

  1. Instalación del kit de herramientas de PIP.

    python3 -m pip install netapp-dataops-traditional
  2. Configurar la gestión de datos

    netapp_dataops_cli.py config

Configuración de NGC: Respaldar el análisis de confianza del centro

Para configurar "NVIDIA NGC", lleve a cabo los siguientes pasos:

  1. Descargar el NGC.

    wget -O ngccli_linux.zip https://ngc.nvidia.com/downloads/ngccli_linux.zip && unzip -o ngccli_linux.zip && chmod u+x ngc
  2. Agregue su directorio actual a la ruta de acceso.

    echo "export PATH=\"\$PATH:$(pwd)\"" >> ~/.bash_profile && source ~/.bash_profile
  3. Debe configurar la CLI de NGC para su uso con el fin de poder ejecutar los comandos. Introduzca el siguiente comando, incluida su clave de API cuando se le solicite.

    ngc config set

Para sistemas operativos que no están basados en Linux, visite "aquí".

NVIDIA RIVA Server: Análisis de opinión del centro de soporte

Para configurar "RIVA DE NVIDIA", lleve a cabo los siguientes pasos:

  1. Descargar los archivos RIVA de NGC.

    ngc registry resource download-version nvidia/riva/riva_quickstart:1.4.0-beta
  2. Inicialice LA configuración DE RIVA (riva_init.sh).

  3. Inicie EL servidor RIVA (riva_start.sh).

  4. Inicie EL cliente RIVA (riva_start_client.sh).

  5. En EL cliente RIVA, instale la biblioteca de procesamiento de audio ( "FFMPEG")

    apt-get install ffmpeg
  6. Inicie el "Juppyter" servidor.

  7. Ejecute el portátil de canalización de inferencia DE RIVA.

Kit de herramientas TAO de NVIDIA: Análisis de opinión del centro de soporte

Para configurar NVIDIA TAO Toolkit, lleve a cabo los siguientes pasos:

  1. Prepare y active una "entorno virtual" Para TAO Toolkit.

  2. Instale el "paquetes requeridos".

  3. Tire manualmente de la imagen utilizada durante el entrenamiento y ajuste preciso.

    docker pull nvcr.io/nvidia/tao/tao-toolkit-pyt:v3.21.08-py3
  4. Inicie el "Juppyter" servidor.

  5. Ejecute el cuaderno TAO de afinación fina.

Exportar modelos TAO a RIVA: Apoyar el análisis de confianza del centro

Para usar "Modelos TAO Toolkit EN RIVA", lleve a cabo los siguientes pasos:

  1. Guarde los modelos en el cuaderno TAO de sintonización fina.

  2. Copie los modelos TAO entrenados en el directorio del modelo RIVA.

  3. Inicie EL servidor RIVA (riva_start.sh).

Obstáculos para la implementación

Estas son algunas cosas que debe tener en cuenta a medida que desarrolla su propia solución:

  • El kit de herramientas Data OPS de NetApp se instala primero para garantizar que el sistema de almacenamiento de datos se ejecute de forma óptima.

  • NVIDIA NGC debe instalarse antes de cualquier otra cosa porque autentica la descarga de imágenes y modelos.

  • RIVA se debe instalar antes que TAO Toolkit. LA instalación DE RIVA configura el demonio docker para extraer imágenes según sea necesario.

  • El DGX y el docker deben tener acceso a Internet para descargar los modelos.