Skip to main content
NetApp Solutions
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Exécutez : installation ai

Contributeurs

Pour installer Run:ai, procédez comme suit :

  1. Installez le cluster Kubernetes à l'aide de DeepOps et configurez la classe de stockage par défaut de NetApp.

  2. Préparez les nœuds GPU :

    1. Vérifiez que les pilotes NVIDIA sont installés sur les nœuds GPU.

    2. Vérifiez-le nvidia-docker est installé et configuré comme exécution docker par défaut.

  3. Installer Run:ai :

    1. Connectez-vous au "Exécution : interface d'administration d'IA" pour créer le cluster.

    2. Téléchargez le créé runai-operator-<clustername>.yaml fichier.

    3. Appliquer la configuration de l'opérateur au cluster Kubernetes.

      kubectl apply -f runai-operator-<clustername>.yaml
  4. Vérifiez l'installation :

    1. Accédez à "https://app.run.ai/".

    2. Accédez au tableau de bord Présentation.

    3. Vérifiez que le nombre de GPU situé en haut à droite indique le nombre attendu de GPU et de nœuds GPU dans la liste des serveurs.pour plus d'informations sur le déploiement Run:ai, consultez "Installation de Run:ai sur un cluster Kubernetes sur site" et "Installation de la CLI Run:ai".