Skip to main content
NetApp Solutions
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Déploiement de l'analyse des sentiments du centre de support

Contributeurs

Le déploiement de la solution implique les composants suivants :

  1. Kit NetApp DataOps

  2. Configuration NGC

  3. Serveur NVIDIA RIVA

  4. Kit d'outils NVIDIA TAO

  5. Exporter des modèles TAO vers RIVA

Pour effectuer le déploiement, procédez comme suit :

Kit NetApp DataOps : analyse des sentiments des centres de support

Pour utiliser le "Kit NetApp DataOps", effectuez les opérations suivantes :

  1. PIP installer la boîte à outils.

    python3 -m pip install netapp-dataops-traditional
  2. Configuration de la gestion des données

    netapp_dataops_cli.py config

Configuration NGC : analyse du sentiment du centre de support

Pour configurer "NVIDIA NGC", effectuez les opérations suivantes :

  1. Télécharger le contrôleur NGC.

    wget -O ngccli_linux.zip https://ngc.nvidia.com/downloads/ngccli_linux.zip && unzip -o ngccli_linux.zip && chmod u+x ngc
  2. Ajoutez votre répertoire actuel au chemin d'accès.

    echo "export PATH=\"\$PATH:$(pwd)\"" >> ~/.bash_profile && source ~/.bash_profile
  3. Vous devez configurer l'interface de ligne de commandes NGC pour que vous puissiez exécuter les commandes. Entrez la commande suivante, y compris votre clé API lorsque vous y êtes invité.

    ngc config set

Pour les systèmes d'exploitation qui ne sont pas basés sur Linux, rendez-vous sur "ici".

Serveur NVIDIA RIVA : analyse des sentiments des centres de support

Pour configurer "NVIDIA RIVA", effectuez les opérations suivantes :

  1. Téléchargez les fichiers RIVA de NGC.

    ngc registry resource download-version nvidia/riva/riva_quickstart:1.4.0-beta
  2. Initialiser LA configuration RIVA (riva_init.sh).

  3. Démarrez LE serveur RIVA (riva_start.sh).

  4. Démarrez le client RIVA (riva_start_client.sh).

  5. Dans le client RIVA, installez la bibliothèque de traitement audio ( "FFMPEG")

    apt-get install ffmpeg
  6. Démarrez le "Jupyter" serveur.

  7. Exécutez le bloc-notes RIVA Inférence Pipeline.

Kit NVIDIA TAO : analyse des sentiments du centre de support

Pour configurer la boîte à outils NVIDIA TAO, procédez comme suit :

  1. Préparez et activez un "virtualisé" Pour la boîte à outils TAO.

  2. Installer le "packages requis".

  3. Tirez manuellement l'image utilisée pendant l'entraînement et le réglage précis.

    docker pull nvcr.io/nvidia/tao/tao-toolkit-pyt:v3.21.08-py3
  4. Démarrez le "Jupyter" serveur.

  5. Exécutez l'ordinateur portable TAT Fine Tuning.

Exporter des modèles TAO vers RIVA : prendre en charge l'analyse des sentiments des centres de support

À utiliser "Modèles TAO Toolkit à RIVA", effectuez les opérations suivantes :

  1. Enregistrez des modèles dans le portable TAT Fine Tuning.

  2. Copier des modèles entraînés TAO dans le répertoire de modèle RIVA.

  3. Démarrez LE serveur RIVA (riva_start.sh).

Les obstacles au déploiement

Voici quelques points à garder à l'esprit lors du développement de votre propre solution :

  • Le kit NetApp DataOps est installé en premier pour assurer le fonctionnement optimal du système de stockage des données.

  • NVIDIA NGC doit être installé avant toute autre chose, car il authentifie le téléchargement des images et des modèles.

  • RIVA doit être installé avant la boîte à outils TAO. L'installation DE RIVA configure le démon docker pour extraire les images si nécessaire.

  • DGX et docker doivent avoir un accès à Internet pour télécharger les modèles.