Skip to main content
NetApp Solutions
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Implementazione dell'analisi del sentimento del centro di supporto

Collaboratori

L'implementazione della soluzione comporta i seguenti componenti:

  1. NetApp DataOps Toolkit

  2. Configurazione NGC

  3. Server NVIDIA RIVA

  4. Toolkit NVIDIA TAO

  5. Esportare i modelli TAO in RIVA

Per eseguire l'implementazione, attenersi alla seguente procedura:

NetApp DataOps Toolkit: Analisi del sentimento del centro di supporto

Per utilizzare "NetApp DataOps Toolkit", completare la seguente procedura:

  1. PIP installare il toolkit.

    python3 -m pip install netapp-dataops-traditional
  2. Configurare la gestione dei dati

    netapp_dataops_cli.py config

Configurazione NGC: Analisi del sentimento del centro di supporto

Per configurare "NVIDIA NGC", completare la seguente procedura:

  1. Scarica NGC.

    wget -O ngccli_linux.zip https://ngc.nvidia.com/downloads/ngccli_linux.zip && unzip -o ngccli_linux.zip && chmod u+x ngc
  2. Aggiungere la directory corrente al percorso.

    echo "export PATH=\"\$PATH:$(pwd)\"" >> ~/.bash_profile && source ~/.bash_profile
  3. È necessario configurare l'interfaccia CLI NGC per l'utilizzo in modo da poter eseguire i comandi. Immettere il seguente comando, inclusa la chiave API quando richiesto.

    ngc config set

Per i sistemi operativi che non sono basati su Linux, visitare il sito "qui".

Server NVIDIA RIVA: Analisi del sentimento del centro di supporto

Per configurare "NVIDIA RIVA", completare la seguente procedura:

  1. Scarica I file RIVA da NGC.

    ngc registry resource download-version nvidia/riva/riva_quickstart:1.4.0-beta
  2. Inizializzare la configurazione DI RIVA (riva_init.sh).

  3. Avviare IL server RIVA (riva_start.sh).

  4. Avviare IL client RIVA (riva_start_client.sh).

  5. All'interno del client RIVA, installare la libreria di elaborazione audio ( "FFMPEG")

    apt-get install ffmpeg
  6. Avviare "Jupyter" server.

  7. Eseguire il notebook RIVA Inference Pipeline.

NVIDIA TAO Toolkit: Analisi del sentimento del centro di supporto

Per configurare NVIDIA TAO Toolkit, attenersi alla seguente procedura:

  1. Preparare e attivare un "ambiente virtuale" Per TAO Toolkit.

  2. Installare "pacchetti richiesti".

  3. Estrarre manualmente l'immagine utilizzata durante l'addestramento e la messa a punto.

    docker pull nvcr.io/nvidia/tao/tao-toolkit-pyt:v3.21.08-py3
  4. Avviare "Jupyter" server.

  5. Eseguire il notebook TAO fine-Tuning.

Esportare i modelli TAO in RIVA: Analisi del sentimento del centro di supporto

Da utilizzare "Modelli TAO Toolkit di RIVA", completare la seguente procedura:

  1. Salva i modelli nel notebook TAO fine-Tuning.

  2. Copiare i modelli addestrati TAO nella directory dei modelli RIVA.

  3. Avviare IL server RIVA (riva_start.sh).

Blocchi stradali per l'implementazione

Ecco alcuni elementi da tenere a mente durante lo sviluppo della soluzione:

  • Il NetApp DataOps Toolkit viene installato per primo per garantire il funzionamento ottimale del sistema di storage dei dati.

  • NVIDIA NGC deve essere installata prima di ogni altra cosa perché autentica il download di immagini e modelli.

  • RIVA deve essere installato prima del toolkit TAO. L'installazione DI RIVA configura il daemon del docker per estrarre le immagini in base alle necessità.

  • DGX e Docker devono disporre dell'accesso a Internet per scaricare i modelli.