Skip to main content
Element Software
Une version plus récente de ce produit est disponible.
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Installez un nœud de gestion

Contributeurs

Vous pouvez installer manuellement le nœud de gestion de votre cluster exécutant le logiciel NetApp Element à l'aide de l'image appropriée pour votre configuration.

Ce processus manuel est destiné aux administrateurs du stockage 100 % Flash SolidFire qui n'utilisent pas le moteur de déploiement NetApp pour l'installation d'un nœud de gestion.

Ce dont vous avez besoin
  • Votre version du cluster exécute NetApp Element 11.3 ou une version ultérieure.

  • Votre installation utilise IPv4. Le nœud de gestion 11.3 ne prend pas en charge IPv6.

    Remarque Si vous devez prendre en charge IPv6, vous pouvez utiliser le nœud de gestion 11.1.
  • Vous avez la permission de télécharger des logiciels sur le site de support NetApp.

  • Vous avez identifié le type d'image de nœud de gestion approprié pour votre plate-forme :

    Plateforme Type d'image d'installation

    Microsoft Hyper-V

    .iso

    KVM

    .iso

    VMware vSphere

    .iso, .ova

    Citrix XenServer

    .iso

    OpenStack

    .iso

  • (Nœud de gestion 12.0 et versions ultérieures avec serveur proxy) vous avez mis à jour le contrôle du cloud hybride NetApp vers la version 2.16 des services de gestion avant de configurer un serveur proxy.

Description de la tâche

Le nœud de gestion Element 12.2 est une mise à niveau optionnelle. Elle n'est pas requise pour les déploiements existants.

Avant de suivre cette procédure, vous devez connaître "Volumes persistants"et savoir si vous souhaitez les utiliser. Les volumes persistants sont facultatifs mais recommandés pour la restauration des données de configuration du nœud de gestion en cas de perte de machine virtuelle.

Téléchargez ISO ou OVA et déployez la VM

  1. Téléchargez la certification OVA ou ISO pour votre installation depuis la "Logiciel Element" page du site de support NetApp.

    1. Sélectionnez Télécharger la dernière version et acceptez le CLUF.

    2. Sélectionnez l'image du nœud de gestion à télécharger.

  2. Si vous avez téléchargé l'OVA, procédez comme suit :

    1. Déployer l'OVA.

    2. Si votre cluster de stockage se trouve sur un sous-réseau distinct de votre nœud de gestion (eth0) et que vous souhaitez utiliser des volumes persistants, ajoutez un deuxième contrôleur d'interface réseau (NIC) à la machine virtuelle du sous-réseau de stockage (eth1, par exemple) ou assurez-vous que le réseau de gestion peut être acheminé vers le réseau de stockage.

  3. Si vous avez téléchargé l'ISO, procédez comme suit :

    1. Créez une nouvelle machine virtuelle 64 bits depuis votre hyperviseur avec la configuration suivante :

      • Six processeurs virtuels

      • 24 GO DE RAM

      • Type d'adaptateur de stockage défini sur LSI Logic Parallel

        Important Par défaut, votre nœud de gestion peut être LSI Logic SAS. Dans la fenêtre Nouvelle machine virtuelle, vérifiez la configuration de la carte de stockage en sélectionnant Personnaliser le matériel > matériel virtuel. Si nécessaire, remplacez LSI Logic SAS par LSI Logic Parallel.
      • Disque virtuel 400 Go, provisionnement fin

      • Une interface réseau virtuelle avec accès à Internet et accès au MVIP de stockage.

      • (Facultatif) une interface réseau virtuelle avec accès au réseau de gestion au cluster de stockage. Si votre cluster de stockage se trouve sur un sous-réseau distinct de votre nœud de gestion (eth0) et que vous souhaitez utiliser des volumes persistants, ajoutez un deuxième contrôleur d'interface réseau (NIC) à la VM sur le sous-réseau de stockage (eth1) ou assurez-vous que le réseau de gestion peut être acheminé vers le réseau de stockage.

        Important Ne mettez pas la machine virtuelle sous tension avant l'étape indiquant de le faire plus tard dans cette procédure.
    2. Reliez l'ISO à la machine virtuelle et démarrez-le sur l'image d'installation .iso.

      Remarque L'installation d'un nœud de gestion à l'aide de l'image peut entraîner un délai de 30 secondes avant l'affichage de l'écran de démarrage.
  4. Mettez le VM sous tension pour le nœud de gestion une fois l'installation terminée.

Créez le noeud de gestion admin et configurez le réseau

  1. À l'aide de l'interface utilisateur du terminal (TUI), créez un utilisateur d'administrateur de nœud de gestion.

    Astuce Pour parcourir les options de menu, appuyez sur les touches fléchées vers le haut ou vers le bas. Pour parcourir les boutons, appuyez sur la touche Tab. Pour passer des boutons aux champs, appuyez sur la touche Tab. Pour naviguer entre les champs, appuyez sur les touches fléchées vers le haut ou vers le bas.
  2. Si un serveur DHCP (Dynamic Host Configuration Protocol) sur le réseau attribue des adresses IP avec une unité de transmission maximale (MTU) inférieure à 1500 octets, vous devez effectuer les opérations suivantes :

    1. Placez temporairement le nœud de gestion sur un réseau vSphere sans DHCP, comme iSCSI.

    2. Redémarrez la machine virtuelle ou le réseau de la machine virtuelle.

    3. À l'aide de l'interface utilisateur, configurez l'adresse IP correcte sur le réseau de gestion avec un MTU supérieur ou égal à 1500 octets.

    4. Réattribuez le réseau VM approprié à la VM.

    Remarque Un DHCP qui attribue des adresses IP avec une MTU inférieure à 1500 octets peut vous empêcher de configurer le réseau du nœud de gestion ou à l'aide de l'interface utilisateur du nœud de gestion.
  3. Configurez le réseau de nœuds de gestion (eth0).

    Remarque Si vous avez besoin d'une carte réseau supplémentaire pour isoler le trafic de stockage, reportez-vous aux instructions de configuration d'une autre carte réseau : "Configuration d'une carte réseau de stockage (NIC)".

Configurer la synchronisation de l'heure

  1. Assurez-vous que le temps est synchronisé entre le nœud de gestion et le cluster de stockage à l'aide de NTP :

Remarque À partir de l'élément 12.3.1, les sous-étapes (a) à (e) sont exécutées automatiquement. Pour le nœud de gestion 12.3.1, passez à la section sous-étape (f) pour terminer la configuration de synchronisation de l'heure.
  1. Connectez-vous au nœud de gestion à l'aide de SSH ou de la console fournie par votre hyperviseur.

  2. Arrêt NTPD :

    sudo service ntpd stop
  3. Modifiez le fichier de configuration NTP /etc/ntp.conf :

    1. Commenter les serveurs par défaut (server 0.gentoo.pool.ntp.org) en ajoutant un # devant chacun.

    2. Ajoutez une nouvelle ligne pour chaque serveur de temps par défaut que vous souhaitez ajouter. Les serveurs de temps par défaut doivent être les mêmes serveurs NTP utilisés sur le cluster de stockage que ceux que vous utiliserez dans un "plus tard".

      vi /etc/ntp.conf
      
      #server 0.gentoo.pool.ntp.org
      #server 1.gentoo.pool.ntp.org
      #server 2.gentoo.pool.ntp.org
      #server 3.gentoo.pool.ntp.org
      server <insert the hostname or IP address of the default time server>
    3. Enregistrez le fichier de configuration une fois terminé.

  4. Forcer une synchronisation NTP avec le nouveau serveur ajouté.

    sudo ntpd -gq
  5. Redémarrez NTPD.

    sudo service ntpd start
  6. Désactiver la synchronisation de l'heure avec l'hôte via l'hyperviseur (l'exemple suivant est VMware) :

    Remarque Si vous déployez le nœud M dans un environnement d'hyperviseur autre que VMware, par exemple, à partir de l'image .iso dans un environnement OpenStack, reportez-vous à la documentation de l'hyperviseur pour connaître les commandes équivalentes.
    1. Désactiver la synchronisation périodique des heures :

      vmware-toolbox-cmd timesync disable
    2. Afficher et confirmer l'état actuel du service :

      vmware-toolbox-cmd timesync status
    3. Dans vSphere, vérifiez que la Synchronize guest time with host case est décochée dans les options de la machine virtuelle.

      Remarque N'activez pas cette option si vous apportez de futures modifications à la machine virtuelle.
Remarque Ne modifiez pas le NTP après avoir terminé la configuration de synchronisation de l'heure, car il affecte le NTP lorsque vous exécutez "commande setup"sur le nœud de gestion.

Configurez le nœud de gestion

  1. Configurez et exécutez la commande de configuration du nœud de gestion :

    Remarque Vous serez invité à saisir des mots de passe dans une invite sécurisée. Si votre cluster est derrière un serveur proxy, vous devez configurer les paramètres proxy pour pouvoir accéder à un réseau public.
    sudo /sf/packages/mnode/setup-mnode --mnode_admin_user [username] --storage_mvip [mvip] --storage_username [username] --telemetry_active [true]
    1. Remplacer la valeur entre crochets [ ] (y compris les crochets) pour chacun des paramètres requis suivants :

      Remarque La forme abrégée du nom de commande est entre parenthèses ( ) et peut être remplacée par le nom complet.
      • --mNode_admin_user (-mu) [username] : nom d'utilisateur du compte administrateur du nœud de gestion. Il s'agit probablement du nom d'utilisateur du compte utilisateur que vous avez utilisé pour vous connecter au nœud de gestion.

      • --Storage_mvip (-sm) [adresse MVIP] : adresse IP virtuelle de gestion (MVIP) du cluster de stockage exécutant le logiciel Element. Configurez le nœud de gestion avec le même cluster de stockage que celui que vous avez utilisé pendant "Configuration de serveurs NTP".

      • --Storage_username (-su) [username] : nom d'utilisateur de l'administrateur du cluster de stockage pour le cluster spécifié par le --storage_mvip paramètre.

      • --télémétrie_active (-t) [true] : conservez la valeur true qui permet la collecte de données pour l'analyse par Active IQ.

    2. (Facultatif) : ajoutez les paramètres du noeud final Active IQ à la commande :

      • --remote_host (-rh) [AIQ_Endpoint] : le point de terminaison où les données de télémétrie Active IQ sont envoyées pour être traitées. Si le paramètre n'est pas inclus, le point final par défaut est utilisé.

    3. (Recommandé) : ajoutez les paramètres de volume persistant suivants. Ne modifiez pas ou ne supprimez pas le compte et les volumes créés pour la fonctionnalité de volumes persistants. En outre, une perte de capacité de gestion se produit.

      • --use_persistent_volumes (-pv) [true/false, default: False] : active ou désactive les volumes persistants. Entrez la valeur true pour activer la fonctionnalité de volumes persistants.

      • --persistent_volumes_account (-pva) [nom_compte] : si --use_persistent_volumes est défini sur true, utilisez ce paramètre et entrez le nom du compte de stockage qui sera utilisé pour les volumes persistants.

        Remarque Utilisez un nom de compte unique pour les volumes persistants différent de n'importe quel nom de compte existant sur le cluster. Il est essentiel de garder ce compte distinct du reste de votre environnement.
      • --persistent_volumes_mvip (-pvm) [mvip] : saisissez l'adresse IP virtuelle de gestion (MVIP) du cluster de stockage exécutant le logiciel Element qui sera utilisé avec des volumes persistants. Cette condition n'est nécessaire que si plusieurs clusters de stockage sont gérés par le nœud de gestion. Si plusieurs clusters ne sont pas gérés, le cluster MVIP par défaut sera utilisé.

    4. Configurer un serveur proxy :

      • --use_proxy (-up) [true/false, default: False] : active ou désactive l'utilisation du proxy. Ce paramètre est requis pour configurer un serveur proxy.

      • --proxy_hostname_or_ip (-pi) [host] : le nom d'hôte ou l'adresse IP du proxy. Cette option est requise si vous souhaitez utiliser un proxy. Si vous spécifiez ceci, vous serez invité à entrer --proxy_port.

      • --proxy_username (-pu) [username] : le nom d'utilisateur du proxy. Ce paramètre est facultatif.

      • --proxy_password (-pp) [mot de passe]: Le mot de passe proxy. Ce paramètre est facultatif.

      • --proxy_port (-pq) [port, par défaut : 0] : le port proxy. Si vous le spécifiez, vous serez invité à entrer le nom d'hôte ou l'adresse IP du proxy (--proxy_hostname_or_ip.

      • --proxy_ssh_port (-ps) [port, par défaut: 443]: Le port proxy SSH. Le port 443 est par défaut.

    5. (Facultatif) utilisez l'aide relative aux paramètres si vous avez besoin d'informations supplémentaires sur chaque paramètre :

      • --help (-h) : renvoie des informations sur chaque paramètre. Ces paramètres sont définis comme requis ou facultatifs en fonction du déploiement initial. Les paramètres requis pour la mise à niveau et le redéploiement peuvent varier.

    6. Exécutez setup-mnode la commande.

Configurer les actifs du contrôleur

  1. Identifiez l'ID d'installation :

    1. Dans un navigateur, connectez-vous à l'interface de l'API REST du nœud de gestion :

    2. Accédez au MVIP de stockage et connectez-vous. Cette action entraîne l'acceptation du certificat pour l'étape suivante.

    3. Ouvrez l'interface utilisateur de l'API REST du service d'inventaire sur le nœud de gestion :

      https://<ManagementNodeIP>/inventory/1/
    4. Sélectionnez Authorise et procédez comme suit :

      1. Saisissez le nom d'utilisateur et le mot de passe du cluster.

      2. Entrez l'ID client comme mnode-client.

      3. Sélectionnez Autoriser pour démarrer une session.

    5. Dans l'interface utilisateur de l'API REST, sélectionnez OBTENIR ​/installations.

    6. Sélectionnez essayez-le.

    7. Sélectionnez Exécuter.

    8. A partir du corps de réponse code 200, copiez et enregistrez le pour l'installation et l' `id`utiliser ultérieurement.

      Votre installation dispose d'une configuration de ressource de base créée lors de l'installation ou de la mise à niveau.

  2. Ajoutez une ressource de contrôleur vCenter pour le contrôle d'un cloud hybride NetApp aux ressources connues du nœud de gestion :

    1. Accédez à l'interface utilisateur de l'API du service mNode sur le nœud de gestion en entrant l'adresse IP du nœud de gestion, puis /mnode :

      https://<ManagementNodeIP>/mnode
    2. Sélectionnez Authorise ou une icône de verrouillage et procédez comme suit :

      1. Saisissez le nom d'utilisateur et le mot de passe du cluster.

      2. Entrez l'ID client comme mnode-client.

      3. Sélectionnez Autoriser pour démarrer une session.

      4. Fermez la fenêtre.

    3. Sélectionnez POST /Assets/{ASSET_ID}/contrôleurs pour ajouter un sous-actif de contrôleur.

      Remarque Vous devez créer un nouveau rôle NetApp HCC dans vCenter pour ajouter une sous-ressource de contrôleur. Ce nouveau rôle NetApp HCC limite l'affichage des services de nœud de gestion aux ressources NetApp uniquement. Voir "Créez un rôle NetApp HCC dans vCenter".
    4. Sélectionnez essayez-le.

    5. Saisissez l'ID d'actif de base parent que vous avez copié dans le presse-papiers dans le champ Asset_ID.

    6. Entrez les valeurs de charge utile requises avec le type vCenter et les informations d'identification vCenter.

    7. Sélectionnez Exécuter.

En savoir plus