Skip to main content
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Procédure de déploiement du stockage NetApp (partie 1)

Contributeurs

Cette section décrit la procédure de déploiement du stockage NetApp AFF.

Installation des contrôleurs de stockage NetApp AFF2xx

NetApp Hardware Universe

L'application NetApp Hardware Universe (HWU) offre des composants matériels et logiciels pris en charge pour toute version ONTAP spécifique. Il fournit des informations de configuration pour toutes les appliances de stockage NetApp actuellement prises en charge par le logiciel ONTAP. Il fournit également un tableau des compatibilités de composants.

Vérifiez que les composants matériels et logiciels que vous souhaitez utiliser sont pris en charge avec la version de ONTAP que vous prévoyez d'installer :

  1. Accédez au "HWU" application pour afficher les guides de configuration du système. Cliquez sur l'onglet contrôleurs pour afficher la compatibilité entre différentes versions du logiciel ONTAP et les appliances de stockage NetApp avec les spécifications souhaitées.

  2. Vous pouvez également comparer les composants par appliance de stockage en cliquant sur Comparer les systèmes de stockage.

Conditions préalables pour le contrôleur AFF2XX Series

Pour planifier l'emplacement physique des systèmes de stockage, consultez le Hardware Universe NetApp. Consultez les sections suivantes : exigences électriques, cordons d'alimentation pris en charge, ports et câbles intégrés.

Contrôleurs de stockage

Suivez les procédures d'installation physique des contrôleurs dans "Documentation AFF A220".

NetApp ONTAP 9.4

Fiche de configuration

Avant d'exécuter le script d'installation, complétez la fiche de configuration du manuel du produit. La fiche de configuration est disponible dans le "Guide de configuration du logiciel ONTAP 9.4".

Remarque Ce système est configuré en cluster à 2 nœuds sans commutateur.

Le tableau suivant présente des informations sur l'installation et la configuration de ONTAP 9.4.

Détail du cluster Valeur des détails du cluster

Adresse IP du nœud de cluster A

<<var_NODEA_mgmt_ip>>

Masque de réseau du nœud de cluster A

<<var_NODEA_mgmt_mask>>

Passerelle de nœud de cluster A

<<var_NODEA_mgmt_Gateway>>

Nom du nœud de cluster A

<<var_NODEA>>

Adresse IP du nœud B du cluster

<<var_NodeB_mgmt_ip>>

Masque de réseau du nœud B du cluster

<<var_NodeB_mgmt_mask>>

Passerelle de nœud B du cluster

<<var_NodeB_mgmt_Gateway>>

Nom du nœud B du cluster

<<var_NodeB>>

URL ONTAP 9.4

<<var_url_boot_software>>

Nom du cluster

<<var_clustername>>

Adresse IP de gestion du cluster

<<var_clustermgmt_ip>>

Passerelle du cluster B

<<var_clustermgmt_gateway>>

Masque de réseau du cluster B.

\<<var_clustermgmt_mask>

Nom de domaine

<<nom_domaine_var>>

IP du serveur DNS (vous pouvez entrer plusieurs adresses)

<<var_dns_server_ip>>

IP de serveur NTP (vous pouvez entrer plusieurs adresses)

<<var_ntp_server_ip>>

Configurez le nœud A

Pour configurer le nœud A, procédez comme suit :

  1. Effectue la connexion au port console du système de stockage. Une invite chargeur-A s'affiche. Cependant, si le système de stockage est dans une boucle de redémarrage, appuyez sur Ctrl-C pour quitter la boucle AUTOBOOT lorsque le message suivant s'affiche :

    Starting AUTOBOOT press Ctrl-C to abort…
  2. Laissez le système démarrer.

    autoboot
  3. Appuyez sur Ctrl-C pour accéder au menu de démarrage.

    Si ONTAP 9.4 n'est pas la version du logiciel en cours de démarrage, procédez comme suit pour installer le nouveau logiciel. Si ONTAP 9.4 est la version en cours de démarrage, sélectionnez les options 8 et y pour redémarrer le nœud. Ensuite, passez à l'étape 14.

  4. Pour installer un nouveau logiciel, sélectionnez option 7.

  5. Entrez y pour effectuer une mise à niveau.

  6. Sélectionnez e0M pour le port réseau que vous souhaitez utiliser pour le téléchargement.

  7. Entrez y pour redémarrer maintenant.

  8. Entrez l'adresse IP, le masque de réseau et la passerelle par défaut de e0M à leurs emplacements respectifs.

    <<var_nodeA_mgmt_ip>> <<var_nodeA_mgmt_mask>> <<var_nodeA_mgmt_gateway>>
  9. Entrez l'URL de l'emplacement du logiciel.

    Remarque Ce serveur Web doit être accessible.
    <<var_url_boot_software>>
  10. Appuyez sur entrée pour le nom d'utilisateur, indiquant aucun nom d'utilisateur.

  11. Entrez y pour définir le nouveau logiciel installé comme logiciel par défaut à utiliser pour les redémarrages suivants.

  12. Entrez y pour redémarrer le nœud.

    Lors de l'installation d'un nouveau logiciel, le système peut effectuer des mises à niveau du micrologiciel vers le BIOS et les cartes d'adaptateur, ce qui entraîne des redémarrages et des arrêts possibles à l'invite du chargeur-A. Si ces actions se produisent, le système peut différer de cette procédure.

  13. Appuyez sur Ctrl-C pour accéder au menu de démarrage.

  14. Sélectionnez option 4 Pour une configuration propre et une initialisation de tous les disques.

  15. Entrez y pour zéro disque, réinitialisez la configuration et installez un nouveau système de fichiers.

  16. Entrez y pour effacer toutes les données sur les disques.

    L'initialisation et la création de l'agrégat root peuvent prendre au moins 90 minutes, selon le nombre et le type de disques connectés. Une fois l'initialisation terminée, le système de stockage redémarre. Notez que l'initialisation des disques SSD prend beaucoup moins de temps. Vous pouvez continuer à utiliser la configuration du nœud B pendant que les disques du nœud A sont à zéro.

  17. Lorsque le nœud A est en cours d'initialisation, commencez à configurer le nœud B.

Configurer le nœud B

Pour configurer le nœud B, procédez comme suit :

  1. Effectue la connexion au port console du système de stockage. Une invite chargeur-A s'affiche. Cependant, si le système de stockage est dans une boucle de redémarrage, appuyez sur Ctrl-C pour quitter la boucle AUTOBOOT lorsque le message suivant s'affiche :

    Starting AUTOBOOT press Ctrl-C to abort…
  2. Appuyez sur Ctrl-C pour accéder au menu de démarrage.

    autoboot
  3. Appuyez sur Ctrl-C lorsque vous y êtes invité.

    Si ONTAP 9.4 n'est pas la version du logiciel en cours de démarrage, procédez comme suit pour installer le nouveau logiciel. Si ONTAP 9.4 est la version en cours de démarrage, sélectionnez les options 8 et y pour redémarrer le nœud. Ensuite, passez à l'étape 14.

  4. Pour installer un nouveau logiciel, sélectionnez l'option 7.

  5. Entrez y pour effectuer une mise à niveau.

  6. Sélectionnez e0M pour le port réseau que vous souhaitez utiliser pour le téléchargement.

  7. Entrez y pour redémarrer maintenant.

  8. Entrez l'adresse IP, le masque de réseau et la passerelle par défaut de e0M à leurs emplacements respectifs.

    <<var_nodeB_mgmt_ip>> <<var_nodeB_mgmt_ip>><<var_nodeB_mgmt_gateway>>
  9. Entrez l'URL de l'emplacement du logiciel.

    Remarque Ce serveur Web doit être accessible.
    <<var_url_boot_software>>
  10. Appuyez sur entrée pour le nom d'utilisateur, indiquant aucun nom d'utilisateur.

  11. Entrez y pour définir le nouveau logiciel installé comme logiciel par défaut à utiliser pour les redémarrages suivants.

  12. Entrez y pour redémarrer le nœud.

    Lors de l'installation d'un nouveau logiciel, le système peut effectuer des mises à niveau du micrologiciel vers le BIOS et les cartes d'adaptateur, ce qui entraîne des redémarrages et des arrêts possibles à l'invite du chargeur-A. Si ces actions se produisent, le système peut différer de cette procédure.

  13. Appuyez sur Ctrl-C pour accéder au menu de démarrage.

  14. Sélectionnez l'option 4 pour nettoyer la configuration et initialiser tous les disques.

  15. Entrez y pour zéro disque, réinitialisez la configuration et installez un nouveau système de fichiers.

  16. Entrez y pour effacer toutes les données sur les disques.

    L'initialisation et la création de l'agrégat root peuvent prendre au moins 90 minutes, selon le nombre et le type de disques connectés. Une fois l'initialisation terminée, le système de stockage redémarre. Notez que l'initialisation des disques SSD prend beaucoup moins de temps.

Suite de la configuration du nœud A et de la configuration du cluster

À partir d'un programme de port de console connecté au port de console Du contrôleur de stockage A (nœud A), exécutez le script de configuration du nœud. Ce script apparaît lors du premier démarrage de ONTAP 9.4 sur le nœud.

Remarque La procédure de configuration du nœud et du cluster a été légèrement modifiée dans ONTAP 9.4. L'assistant d'installation du cluster permet de configurer le premier nœud d'un cluster et System Manager sert à configurer le cluster.
  1. Suivez les invites pour configurer le nœud A.

    Welcome to the cluster setup wizard.
    You can enter the following commands at any time:
      "help" or "?" - if you want to have a question clarified,
      "back" - if you want to change previously answered questions, and
      "exit" or "quit" - if you want to quit the cluster setup wizard.
         Any changes you made before quitting will be saved.
    You can return to cluster setup at any time by typing "cluster setup".
    To accept a default or omit a question, do not enter a value.
    This system will send event messages and periodic reports to NetApp Technical
    Support. To disable this feature, enter
    autosupport modify -support disable
    within 24 hours.
    Enabling AutoSupport can significantly speed problem determination and
    resolution should a problem occur on your system.
    For further information on AutoSupport, see:
    http://support.netapp.com/autosupport/
    Type yes to confirm and continue {yes}: yes
    Enter the node management interface port [e0M]:
    Enter the node management interface IP address: <<var_nodeA_mgmt_ip>>
    Enter the node management interface netmask: <<var_nodeA_mgmt_mask>>
    Enter the node management interface default gateway: <<var_nodeA_mgmt_gateway>>
    A node management interface on port e0M with IP address <<var_nodeA_mgmt_ip>> has been created.
    Use your web browser to complete cluster setup by accessing
    https://<<var_nodeA_mgmt_ip>>
    Otherwise, press Enter to complete cluster setup using the command line
    interface:
  2. Accédez à l'adresse IP de l'interface de gestion du nœud.

    La configuration du cluster peut également être effectuée au moyen de l'interface de ligne de commandes. Ce document décrit la configuration du cluster à l'aide de la configuration assistée de NetApp System Manager.

  3. Cliquez sur installation assistée pour configurer le cluster.

  4. Entrez <<var_clustername>> pour les noms de cluster et <<var_nodeA>> et <<var_nodeB>> pour chacun des nœuds que vous configurez. Saisissez le mot de passe que vous souhaitez utiliser pour le système de stockage. Sélectionnez Switchless Cluster pour le type de cluster. Indiquez la licence de base du cluster.

    Erreur : image graphique manquante

  5. Vous pouvez également entrer des licences de fonctions pour Cluster, NFS et iSCSI.

  6. Vous voyez un message de statut indiquant que le cluster est en cours de création. Ce message d'état passe en revue plusieurs États. Ce processus prend plusieurs minutes.

  7. Configurez le réseau.

    1. Désélectionnez l'option Plage d'adresses IP.

    2. Entrez <<var_clustermgmt_ip>> Dans le champ adresse IP de gestion du cluster, <<var_clustermgmt_mask>> Dans le champ masque réseau, et <<var_clustermgmt_gateway>> Dans le champ passerelle. Utilisez le … Sélecteur dans le champ Port pour sélectionner e0M du nœud A.

    3. L'IP de gestion des nœuds du nœud A est déjà renseignée. Entrez <<var_nodeA_mgmt_ip>> Pour le nœud B.

    4. Entrez <<var_domain_name>> Dans le champ Nom de domaine DNS. Entrez <<var_dns_server_ip>> Dans le champ adresse IP du serveur DNS.

      Vous pouvez entrer plusieurs adresses IP de serveur DNS.

    5. Entrez <<var_ntp_server_ip>> Dans le champ serveur NTP principal.

      Vous pouvez également entrer un autre serveur NTP.

  8. Configuration des informations de support.

    1. Si votre environnement requiert un proxy pour accéder à AutoSupport, entrez l'URL dans l'URL du proxy.

    2. Entrez l'hôte de messagerie SMTP et l'adresse électronique pour les notifications d'événements.

      Vous devez au moins configurer la méthode de notification d'événement avant de pouvoir continuer. Vous pouvez sélectionner n'importe quelle méthode.

    Erreur : image graphique manquante

  9. Lorsque la configuration du cluster est terminée, cliquez sur gérer le cluster pour configurer le stockage.

Suite de la configuration du cluster de stockage

Une fois la configuration des nœuds de stockage et du cluster de base terminée, vous pouvez poursuivre la configuration du cluster de stockage.

Zéro de tous les disques de spare

Pour mettre zéro tous les disques de spare du cluster, exécutez la commande suivante :

disk zerospares

Définissez l'option de personnalisation des ports UTA2 intégrés

  1. Vérifiez le mode actuel et le type actuel des ports en exécutant le ucadmin show commande.

    AFF A220::> ucadmin show
                           Current  Current    Pending  Pending    Admin
    Node          Adapter  Mode     Type       Mode     Type       Status
    ------------  -------  -------  ---------  -------  ---------  -----------
    AFF A220_A     0c       fc       target     -        -          online
    AFF A220_A     0d       fc       target     -        -          online
    AFF A220_A     0e       fc       target     -        -          online
    AFF A220_A     0f       fc       target     -        -          online
    AFF A220_B     0c       fc       target     -        -          online
    AFF A220_B     0d       fc       target     -        -          online
    AFF A220_B     0e       fc       target     -        -          online
    AFF A220_B     0f       fc       target     -        -          online
    8 entries were displayed.
  2. Vérifiez que le mode actuel des ports en cours d'utilisation est cna et que le type actuel est défini sur target. Si ce n'est pas le cas, modifiez la personnalité du port à l'aide de la commande suivante :

    ucadmin modify -node <home node of the port> -adapter <port name> -mode cna -type target

    Les ports doivent être hors ligne pour exécuter la commande précédente. Pour mettre un port hors ligne, exécutez la commande suivante :

    `network fcp adapter modify -node <home node of the port> -adapter <port name> -state down`
    Remarque Si vous avez modifié la personnalité du port, vous devez redémarrer chaque nœud pour que le changement prenne effet.

Renommage des interfaces logiques de gestion

Pour renommer les LIFs de management, effectuez la procédure suivante :

  1. Affiche les noms des LIF de gestion actuelles.

    network interface show –vserver <<clustername>>
  2. Renommer la LIF de gestion de cluster.

    network interface rename –vserver <<clustername>> –lif cluster_setup_cluster_mgmt_lif_1 –newname cluster_mgmt
  3. Renommez la LIF de gestion du nœud B.

    network interface rename -vserver <<clustername>> -lif cluster_setup_node_mgmt_lif_AFF A220_B_1 -newname AFF A220-02_mgmt1

Définissez le rétablissement automatique sur la gestion du cluster

Réglez le auto-revert paramètre de l'interface de gestion du cluster.

network interface modify –vserver <<clustername>> -lif cluster_mgmt –auto-revert true

Configurez l'interface réseau du processeur de service

Pour attribuer une adresse IPv4 statique au processeur de service sur chaque nœud, exécutez les commandes suivantes :

system service-processor network modify –node <<var_nodeA>> -address-family IPv4 –enable true –dhcp none –ip-address <<var_nodeA_sp_ip>> -netmask <<var_nodeA_sp_mask>> -gateway <<var_nodeA_sp_gateway>>
system service-processor network modify –node <<var_nodeB>> -address-family IPv4 –enable true –dhcp none –ip-address <<var_nodeB_sp_ip>> -netmask <<var_nodeB_sp_mask>> -gateway <<var_nodeB_sp_gateway>>
Remarque Les adresses IP du processeur de service doivent se trouver dans le même sous-réseau que les adresses IP de gestion du nœud.

Activez le basculement du stockage dans ONTAP

Pour vérifier que le basculement du stockage est activé, exécutez les commandes suivantes dans une paire de basculement :

  1. Vérification de l'état du basculement du stockage

    storage failover show

    Les deux <<var_nodeA>> et <<var_nodeB>> doit pouvoir effectuer un basculement. Accédez à l'étape 3 si les nœuds peuvent effectuer un basculement.

  2. Activez le basculement sur l'un des deux nœuds.

    storage failover modify -node <<var_nodeA>> -enabled true

    L'activation du basculement sur un nœud l'active pour les deux nœuds.

  3. Vérifiez l'état de la HA du cluster à deux nœuds.

    Cette étape ne s'applique pas aux clusters comptant plus de deux nœuds.

    cluster ha show
  4. Passez à l'étape 6 si la haute disponibilité est configurée. Si la haute disponibilité est configurée, le message suivant s'affiche lors de l'émission de la commande :

    High Availability Configured: true
  5. Activez le mode HA uniquement pour le cluster à deux nœuds.

    Remarque N'exécutez pas cette commande pour les clusters avec plus de deux nœuds, car cela entraîne des problèmes de basculement.
    cluster ha modify -configured true
    Do you want to continue? {y|n}: y
  6. Vérifiez que l'assistance matérielle est correctement configurée et modifiez, si nécessaire, l'adresse IP du partenaire.

    storage failover hwassist show

    Le message Keep Alive Status : Error: did not receive hwassist keep alive alerts from partner indique que l'assistance matérielle n'est pas configurée. Exécutez les commandes suivantes pour configurer l'assistance matérielle.

    storage failover modify –hwassist-partner-ip <<var_nodeB_mgmt_ip>> -node <<var_nodeA>>
    storage failover modify –hwassist-partner-ip <<var_nodeA_mgmt_ip>> -node <<var_nodeB>>

Créez un domaine de diffusion MTU de trames Jumbo dans ONTAP

Pour créer un domaine de diffusion de données avec un MTU de 9 9000, exécutez les commandes suivantes :

broadcast-domain create -broadcast-domain Infra_NFS -mtu 9000
broadcast-domain create -broadcast-domain Infra_iSCSI-A -mtu 9000
broadcast-domain create -broadcast-domain Infra_iSCSI-B -mtu 9000

Supprime les ports de données du broadcast domain par défaut

Les ports de données 10 GbE sont utilisés pour le trafic iSCSI/NFS. Ces ports doivent être supprimés du domaine par défaut. Les ports e0e et e0f ne sont pas utilisés et doivent également être supprimés du domaine par défaut.

Pour supprimer les ports du broadcast domain, lancer la commande suivante :

broadcast-domain remove-ports -broadcast-domain Default -ports <<var_nodeA>>:e0c, <<var_nodeA>>:e0d, <<var_nodeA>>:e0e, <<var_nodeA>>:e0f, <<var_nodeB>>:e0c, <<var_nodeB>>:e0d, <<var_nodeA>>:e0e, <<var_nodeA>>:e0f

Désactiver le contrôle de flux sur les ports UTA2

Il est recommandé par NetApp de désactiver le contrôle de flux sur tous les ports UTA2 connectés à des périphériques externes. Pour désactiver le contrôle de flux, lancer la commande suivante :

net port modify -node <<var_nodeA>> -port e0c -flowcontrol-admin none
Warning: Changing the network port settings will cause a several second interruption in carrier.
Do you want to continue? {y|n}: y
net port modify -node <<var_nodeA>> -port e0d -flowcontrol-admin none
Warning: Changing the network port settings will cause a several second interruption in carrier.
Do you want to continue? {y|n}: y
net port modify -node <<var_nodeA>> -port e0e -flowcontrol-admin none
Warning: Changing the network port settings will cause a several second interruption in carrier.
Do you want to continue? {y|n}: y
net port modify -node <<var_nodeA>> -port e0f -flowcontrol-admin none
Warning: Changing the network port settings will cause a several second interruption in carrier.
Do you want to continue? {y|n}: y
net port modify -node <<var_nodeB>> -port e0c -flowcontrol-admin none
Warning: Changing the network port settings will cause a several second interruption in carrier.
Do you want to continue? {y|n}: y
net port modify -node <<var_nodeB>> -port e0d -flowcontrol-admin none
Warning: Changing the network port settings will cause a several second interruption in carrier.
Do you want to continue? {y|n}: y
net port modify -node <<var_nodeB>> -port e0e -flowcontrol-admin none
Warning: Changing the network port settings will cause a several second interruption in carrier.
Do you want to continue? {y|n}: y
net port modify -node <<var_nodeB>> -port e0f -flowcontrol-admin none
Warning: Changing the network port settings will cause a several second interruption in carrier.
Do you want to continue? {y|n}: y

Configurez le protocole LACP IFGRP dans ONTAP

Ce type de groupe d'interface nécessite au moins deux interfaces Ethernet et un switch qui prend en charge LACP. S'assurer que le commutateur est correctement configuré.

Dans l'invite de cluster, effectuez la procédure suivante.

ifgrp create -node <<var_nodeA>> -ifgrp a0a -distr-func port -mode multimode_lacp
network port ifgrp add-port -node <<var_nodeA>> -ifgrp a0a -port e0c
network port ifgrp add-port -node <<var_nodeA>> -ifgrp a0a -port e0d
ifgrp create -node << var_nodeB>> -ifgrp a0a -distr-func port -mode multimode_lacp
network port ifgrp add-port -node <<var_nodeB>> -ifgrp a0a -port e0c
network port ifgrp add-port -node <<var_nodeB>> -ifgrp a0a -port e0d

Configuration des trames Jumbo dans NetApp ONTAP

Pour configurer un port réseau ONTAP afin d'utiliser des trames Jumbo (qui possèdent généralement un MTU de 1 9,000 octets), exécutez les commandes suivantes depuis le shell du cluster :

AFF A220::> network port modify -node node_A -port a0a -mtu 9000
Warning: This command will cause a several second interruption of service on
         this network port.
Do you want to continue? {y|n}: y
AFF A220::> network port modify -node node_B -port a0a -mtu 9000
Warning: This command will cause a several second interruption of service on
         this network port.
Do you want to continue? {y|n}: y

Créez des VLAN dans ONTAP

Pour créer des VLAN dans ONTAP, procédez comme suit :

  1. Créez des ports VLAN NFS et ajoutez-les au domaine de broadcast de données.

    network port vlan create –node <<var_nodeA>> -vlan-name a0a-<<var_nfs_vlan_id>>
    network port vlan create –node <<var_nodeB>> -vlan-name a0a-<<var_nfs_vlan_id>>
    broadcast-domain add-ports -broadcast-domain Infra_NFS -ports <<var_nodeA>>:a0a-<<var_nfs_vlan_id>>, <<var_nodeB>>:a0a-<<var_nfs_vlan_id>>
  2. Créez des ports VLAN iSCSI et ajoutez-les au domaine de diffusion de données.

    network port vlan create –node <<var_nodeA>> -vlan-name a0a-<<var_iscsi_vlan_A_id>>
    network port vlan create –node <<var_nodeA>> -vlan-name a0a-<<var_iscsi_vlan_B_id>>
    network port vlan create –node <<var_nodeB>> -vlan-name a0a-<<var_iscsi_vlan_A_id>>
    network port vlan create –node <<var_nodeB>> -vlan-name a0a-<<var_iscsi_vlan_B_id>>
    broadcast-domain add-ports -broadcast-domain Infra_iSCSI-A -ports <<var_nodeA>>:a0a-<<var_iscsi_vlan_A_id>>, <<var_nodeB>>:a0a-<<var_iscsi_vlan_A_id>>
    broadcast-domain add-ports -broadcast-domain Infra_iSCSI-B -ports <<var_nodeA>>:a0a-<<var_iscsi_vlan_B_id>>, <<var_nodeB>>:a0a-<<var_iscsi_vlan_B_id>>
  3. Créez des ports MGMT-VLAN.

    network port vlan create –node <<var_nodeA>> -vlan-name a0a-<<mgmt_vlan_id>>
    network port vlan create –node <<var_nodeB>> -vlan-name a0a-<<mgmt_vlan_id>>

Créez des agrégats dans ONTAP

Un agrégat contenant le volume root est créé lors du processus de setup ONTAP. Pour créer des agrégats supplémentaires, déterminez le nom de l'agrégat, le nœud sur lequel il doit être créé, ainsi que le nombre de disques qu'il contient.

Pour créer des agrégats, lancer les commandes suivantes :

aggr create -aggregate aggr1_nodeA -node <<var_nodeA>> -diskcount <<var_num_disks>>
aggr create -aggregate aggr1_nodeB -node <<var_nodeB>> -diskcount <<var_num_disks>>

Conservez au moins un disque (sélectionnez le plus grand disque) dans la configuration comme disque de rechange. Il est recommandé d'avoir au moins une unité de rechange pour chaque type et taille de disque.

Commencez par cinq disques ; vous pouvez ajouter des disques à un agrégat lorsque du stockage supplémentaire est requis.

L'agrégat ne peut pas être créé tant que la remise à zéro du disque n'est pas terminée. Exécutez le aggr show commande permettant d'afficher l'état de création de l'agrégat. Ne pas continuer avant aggr1`_`nodeA est en ligne.

Configurer le fuseau horaire dans ONTAP

Pour configurer la synchronisation de l'heure et pour définir le fuseau horaire sur le cluster, exécutez la commande suivante :

timezone <<var_timezone>>
Remarque Par exemple, dans l'est des États-Unis, le fuseau horaire est America/New York. Après avoir commencé à saisir le nom du fuseau horaire, appuyez sur la touche Tab pour afficher les options disponibles.

Configurez SNMP dans ONTAP

Pour configurer le SNMP, procédez comme suit :

  1. Configurer les informations de base SNMP, telles que l'emplacement et le contact. Lorsqu'elle est interrogée, cette information est visible comme sysLocation et sysContact Variables dans SNMP.

    snmp contact <<var_snmp_contact>>
    snmp location “<<var_snmp_location>>”
    snmp init 1
    options snmp.enable on
  2. Configurez les interruptions SNMP pour envoyer aux hôtes distants.

    snmp traphost add <<var_snmp_server_fqdn>>

Configurez SNMPv1 dans ONTAP

Pour configurer SNMPv1, définissez le mot de passe secret partagé en texte brut appelé communauté.

snmp community add ro <<var_snmp_community>>
Remarque Utilisez le snmp community delete all commande avec précaution. Si des chaînes de communauté sont utilisées pour d'autres produits de surveillance, cette commande les supprime.

Configurez SNMPv3 dans ONTAP

SNMPv3 requiert la définition et la configuration d'un utilisateur pour l'authentification. Pour configurer SNMPv3, effectuez les étapes suivantes :

  1. Exécutez le security snmpusers Commande permettant d'afficher l'ID du moteur.

  2. Créez un utilisateur appelé snmpv3user.

    security login create -username snmpv3user -authmethod usm -application snmp
  3. Entrez l'ID moteur de l'entité faisant autorité et sélectionnez md5 en tant que protocole d'authentification.

  4. Lorsque vous y êtes invité, entrez un mot de passe de huit caractères minimum pour le protocole d'authentification.

  5. Sélectionnez des comme protocole de confidentialité.

  6. Entrez un mot de passe de huit caractères minimum pour le protocole de confidentialité lorsque vous y êtes invité.

Configurez AutoSupport HTTPS dans ONTAP

L'outil NetApp AutoSupport envoie à NetApp des informations de résumé du support via HTTPS. Pour configurer AutoSupport, lancer la commande suivante :

system node autosupport modify -node * -state enable –mail-hosts <<var_mailhost>> -transport https -support enable -noteto <<var_storage_admin_email>>

Créez un serveur virtuel de stockage

Pour créer une infrastructure de SVM (Storage Virtual machine), procédez comme suit :

  1. Exécutez le vserver create commande.

    vserver create –vserver Infra-SVM –rootvolume rootvol –aggregate aggr1_nodeA –rootvolume-security-style unix
  2. Ajoutez l'agrégat de données à la liste INFRA-SVM pour NetApp VSC.

    vserver modify -vserver Infra-SVM -aggr-list aggr1_nodeA,aggr1_nodeB
  3. Retirer les protocoles de stockage inutilisés du SVM, tout en conservant les protocoles NFS et iSCSI.

    vserver remove-protocols –vserver Infra-SVM -protocols cifs,ndmp,fcp
  4. Activer et exécuter le protocole NFS dans le SVM infra-SVM.

    `nfs create -vserver Infra-SVM -udp disabled`
  5. Allumez le SVM vstorage Paramètre du plug-in NetApp NFS VAAI. Ensuite, vérifiez que NFS a été configuré.

    `vserver nfs modify –vserver Infra-SVM –vstorage enabled`
    `vserver nfs show `
    Remarque Les commandes sont préfaites par vserver dans la ligne de commande, car les ordinateurs virtuels de stockage étaient auparavant appelés serveurs.

Configurez NFSv3 dans ONTAP

Le tableau suivant répertorie les informations nécessaires pour mener à bien cette configuration.

Détails Valeur de détail

Hôte ESXi D'Une adresse IP NFS

<<var_esxi_hostA_nfs_ip>>

Adresse IP NFS de l'hôte ESXi B

<<var_esxi_hostB_nfs_ip>>

Pour configurer NFS sur le SVM, lancer les commandes suivantes :

  1. Créez une règle pour chaque hôte ESXi dans la stratégie d'exportation par défaut.

  2. Pour chaque hôte ESXi créé, attribuez une règle. Chaque hôte a son propre index de règles. Votre premier hôte ESXi dispose de l'index de règles 1, votre second hôte ESXi dispose de l'index de règles 2, etc.

    vserver export-policy rule create –vserver Infra-SVM -policyname default –ruleindex 1 –protocol nfs -clientmatch <<var_esxi_hostA_nfs_ip>> -rorule sys –rwrule sys -superuser sys –allow-suid false
    vserver export-policy rule create –vserver Infra-SVM -policyname default –ruleindex 2 –protocol nfs -clientmatch <<var_esxi_hostB_nfs_ip>> -rorule sys –rwrule sys -superuser sys –allow-suid false
    vserver export-policy rule show
  3. Assigner la export policy au volume root du SVM d'infrastructure.

    volume modify –vserver Infra-SVM –volume rootvol –policy default
    Remarque NetApp VSC gère automatiquement les règles d'exportation si vous choisissez de l'installer une fois vSphere configuré. Si vous ne l'installez pas, vous devez créer des règles d'export policy lorsque des serveurs Cisco UCS C-Series supplémentaires sont ajoutés.

Créez le service iSCSI dans ONTAP

Pour créer le service iSCSI, procédez comme suit :

  1. Créer le service iSCSI sur la SVM. Cette commande démarre également le service iSCSI et définit l'IQN iSCSI pour la SVM. Vérifiez que le protocole iSCSI a été configuré.

    iscsi create -vserver Infra-SVM
    iscsi show

Créer un miroir de partage de charge du volume racine du SVM dans ONTAP

  1. Créer un volume pour être le miroir de partage de charge du volume root du SVM d'infrastructure sur chaque nœud.

    volume create –vserver Infra_Vserver –volume rootvol_m01 –aggregate aggr1_nodeA –size 1GB –type DP
    volume create –vserver Infra_Vserver –volume rootvol_m02 –aggregate aggr1_nodeB –size 1GB –type DP
  2. Créer un programme de travail pour mettre à jour les relations de miroir de volume racine toutes les 15 minutes.

    job schedule interval create -name 15min -minutes 15
  3. Créer les relations de mise en miroir.

    snapmirror create -source-path Infra-SVM:rootvol -destination-path Infra-SVM:rootvol_m01 -type LS -schedule 15min
    snapmirror create -source-path Infra-SVM:rootvol -destination-path Infra-SVM:rootvol_m02 -type LS -schedule 15min
  4. Initialisez la relation de mise en miroir et vérifiez qu'elle a été créée.

    snapmirror initialize-ls-set -source-path Infra-SVM:rootvol
    snapmirror show

Configurez l'accès HTTPS dans ONTAP

Pour configurer un accès sécurisé au contrôleur de stockage, procédez comme suit :

  1. Augmentez le niveau de privilège pour accéder aux commandes de certificat.

    set -privilege diag
    Do you want to continue? {y|n}: y
  2. En général, un certificat auto-signé est déjà en place. Vérifiez le certificat en exécutant la commande suivante :

    security certificate show
  3. Pour chaque SVM affiché, le nom commun du certificat doit correspondre au FQDN DNS du SVM. Les quatre certificats par défaut doivent être supprimés et remplacés par des certificats auto-signés ou des certificats d'une autorité de certification.

    La suppression de certificats expirés avant de créer des certificats est une bonne pratique. Exécutez le security certificate delete commande permettant de supprimer les certificats expirés. Dans la commande suivante, utilisez L'option D'achèvement PAR ONGLET pour sélectionner et supprimer chaque certificat par défaut.

    security certificate delete [TAB] …
    Example: security certificate delete -vserver Infra-SVM -common-name Infra-SVM -ca Infra-SVM -type server -serial 552429A6
  4. Pour générer et installer des certificats auto-signés, exécutez les commandes suivantes en tant que commandes à durée unique. Générer un certificat de serveur pour l'infra-SVM et le SVM de cluster. Là encore, utilisez la saisie AUTOMATIQUE PAR TABULATION pour vous aider à compléter ces commandes.

    security certificate create [TAB] …
    Example: security certificate create -common-name infra-svm. netapp.com -type  server -size 2048 -country US -state "North Carolina" -locality "RTP" -organization "NetApp" -unit "FlexPod" -email-addr "abc@netapp.com" -expire-days 365 -protocol SSL -hash-function SHA256 -vserver Infra-SVM
  5. Pour obtenir les valeurs des paramètres requis à l'étape suivante, exécutez la security certificate show commande.

  6. Activez chaque certificat qui vient d'être créé à l'aide de –server-enabled true et –client-enabled false paramètres. Utilisez de nouveau la saisie AUTOMATIQUE PAR TABULATION.

    security ssl modify [TAB] …
    Example: security ssl modify -vserver Infra-SVM -server-enabled true -client-enabled false -ca infra-svm.netapp.com -serial 55243646 -common-name infra-svm.netapp.com
  7. Configurez et activez l'accès SSL et HTTPS, et désactivez l'accès HTTP.

    system services web modify -external true -sslv3-enabled true
    Warning: Modifying the cluster configuration will cause pending web service requests to be
             interrupted as the web servers are restarted.
    Do you want to continue {y|n}: y
    system services firewall policy delete -policy mgmt -service http –vserver <<var_clustername>>
    Remarque Il est normal que certaines de ces commandes renvoient un message d'erreur indiquant que l'entrée n'existe pas.
  8. Ne rétablit pas le niveau de privilège admin et crée l'installation pour permettre la disponibilité de la SVM par le web.

    set –privilege admin
    vserver services web modify –name spi|ontapi|compat –vserver * -enabled true

Créez un volume NetApp FlexVol dans ONTAP

Pour créer un volume NetApp FlexVol, entrez le nom, la taille et l'agrégat sur lequel il existe. Créer deux volumes de datastore VMware et un volume de démarrage de serveur.

volume create -vserver Infra-SVM -volume infra_datastore_1 -aggregate aggr1_nodeA -size 500GB -state online -policy default -junction-path /infra_datastore_1 -space-guarantee none -percent-snapshot-space 0
volume create -vserver Infra-SVM -volume infra_swap -aggregate aggr1_nodeA -size 100GB -state online -policy default -junction-path /infra_swap -space-guarantee none -percent-snapshot-space 0 -snapshot-policy none
volume create -vserver Infra-SVM -volume esxi_boot -aggregate aggr1_nodeA -size 100GB -state online -policy default -space-guarantee none -percent-snapshot-space 0

Activez la déduplication dans ONTAP

Pour activer la déduplication sur les volumes appropriés, exécutez les commandes suivantes :

volume efficiency on –vserver Infra-SVM -volume infra_datastore_1
volume efficiency on –vserver Infra-SVM -volume esxi_boot

Créer des LUN dans ONTAP

Pour créer deux LUN de démarrage, exécutez les commandes suivantes :

lun create -vserver Infra-SVM -volume esxi_boot -lun VM-Host-Infra-A -size 15GB -ostype vmware -space-reserve disabled
lun create -vserver Infra-SVM -volume esxi_boot -lun VM-Host-Infra-B -size 15GB -ostype vmware -space-reserve disabled
Remarque Lorsque vous ajoutez un serveur Cisco UCS C-Series supplémentaire, vous devez créer un LUN de démarrage supplémentaire.

Création des LIFs iSCSI dans ONTAP

Le tableau suivant répertorie les informations nécessaires pour mener à bien cette configuration.

Détails Valeur de détail

Nœud de stockage A iSCSI LIF01A

<<var_NODEA_iscsi_lif01a_ip>>

Masque de réseau LIF01A iSCSI du nœud de stockage

<<var_NODEA_iscsi_lif01a_masque>>

Nœud de stockage A iSCSI LIF01B

<<var_NODEA_iscsi_lif01b_ip>>

Masque de réseau LIF01B iSCSI sur le nœud de stockage

<<var_NODEA_iscsi_lif01b_mask>>

Nœud de stockage B iSCSI LIF01A

<<var_NodeB_iscsi_lif01a_ip>>

Masque de réseau du nœud de stockage B iSCSI LIF01A

<<var_NodeB_iscsi_lif01a_masque>>

Nœud de stockage B iSCSI LIF01B

<<var_NodeB_iscsi_lif01b_ip>>

Masque de réseau du nœud de stockage B iSCSI LIF01B

<<var_NodeB_iscsi_lif01b_mask>>

  1. Création de quatre LIF iSCSI, deux sur chaque nœud

    network interface create -vserver Infra-SVM -lif iscsi_lif01a -role data -data-protocol iscsi -home-node <<var_nodeA>> -home-port a0a-<<var_iscsi_vlan_A_id>> -address <<var_nodeA_iscsi_lif01a_ip>> -netmask <<var_nodeA_iscsi_lif01a_mask>> –status-admin up –failover-policy disabled –firewall-policy data –auto-revert false
    network interface create -vserver Infra-SVM -lif iscsi_lif01b -role data -data-protocol iscsi -home-node <<var_nodeA>> -home-port a0a-<<var_iscsi_vlan_B_id>> -address <<var_nodeA_iscsi_lif01b_ip>> -netmask <<var_nodeA_iscsi_lif01b_mask>> –status-admin up –failover-policy disabled –firewall-policy data –auto-revert false
    network interface create -vserver Infra-SVM -lif iscsi_lif02a -role data -data-protocol iscsi -home-node <<var_nodeB>> -home-port a0a-<<var_iscsi_vlan_A_id>> -address <<var_nodeB_iscsi_lif01a_ip>> -netmask <<var_nodeB_iscsi_lif01a_mask>> –status-admin up –failover-policy disabled –firewall-policy data –auto-revert false
    network interface create -vserver Infra-SVM -lif iscsi_lif02b -role data -data-protocol iscsi -home-node <<var_nodeB>> -home-port a0a-<<var_iscsi_vlan_B_id>> -address <<var_nodeB_iscsi_lif01b_ip>> -netmask <<var_nodeB_iscsi_lif01b_mask>> –status-admin up –failover-policy disabled –firewall-policy data –auto-revert false
    network interface show

Création des LIFs NFS dans ONTAP

Le tableau suivant répertorie les informations nécessaires pour mener à bien cette configuration.

Détails Valeur de détail

Nœud de stockage A NFS LIF 01 IP

<<var_NODEA_nfs_lif_01_ip>>

Nœud de stockage A masque réseau NFS LIF 01

<<var_NODEA_nfs_lif_01_mask>>

Nœud de stockage B NFS LIF 02 IP

<<var_NodeB_nfs_lif_02_ip>>

Masque de réseau LIF 02 du nœud de stockage B NFS

<<var_NodeB_nfs_lif_02_mask>>

  1. Créer une LIF NFS.

    network interface create -vserver Infra-SVM -lif nfs_lif01 -role data -data-protocol nfs -home-node <<var_nodeA>> -home-port a0a-<<var_nfs_vlan_id>> –address <<var_nodeA_nfs_lif_01_ip>> -netmask << var_nodeA_nfs_lif_01_mask>> -status-admin up –failover-policy broadcast-domain-wide –firewall-policy data –auto-revert true
    network interface create -vserver Infra-SVM -lif nfs_lif02 -role data -data-protocol nfs -home-node <<var_nodeA>> -home-port a0a-<<var_nfs_vlan_id>> –address <<var_nodeB_nfs_lif_02_ip>> -netmask << var_nodeB_nfs_lif_02_mask>> -status-admin up –failover-policy broadcast-domain-wide –firewall-policy data –auto-revert true
    network interface show

Ajoutez un administrateur SVM d'infrastructure

Le tableau suivant répertorie les informations nécessaires pour mener à bien cette configuration.

Détails Valeur de détail

IP de Vsmgmt

<<var_svm_mgmt_ip>>

Masque de réseau Vsmgmt

<<var_svm_mgmt_mask>>

Passerelle par défaut de Vsmgmt

<<var_svm_mgmt_gateway>>

Pour ajouter l'administrateur du SVM d'infrastructure et l'interface logique d'administration du SVM au réseau de gestion, effectuez les opérations suivantes :

  1. Exécutez la commande suivante :

    network interface create –vserver Infra-SVM –lif vsmgmt –role data –data-protocol none –home-node <<var_nodeB>> -home-port  e0M –address <<var_svm_mgmt_ip>> -netmask <<var_svm_mgmt_mask>> -status-admin up –failover-policy broadcast-domain-wide –firewall-policy mgmt –auto-revert true
    Remarque L'IP de gestion SVM devrait ici se trouver dans le même sous-réseau que l'IP de gestion du cluster de stockage.
  2. Créer une route par défaut pour permettre à l'interface de gestion du SVM d'atteindre le monde extérieur.

    network route create –vserver Infra-SVM -destination 0.0.0.0/0 –gateway <<var_svm_mgmt_gateway>>
    network route show
  3. Définir un mot de passe pour l'utilisateur SVM vsadmin et déverrouiller l'utilisateur

    security login password –username vsadmin –vserver Infra-SVM
    Enter a new password: <<var_password>>
    Enter it again: <<var_password>>
    security login unlock –username vsadmin –vserver Infra-SVM