Skip to main content
È disponibile una versione più recente di questo prodotto.
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Installare un nodo di gestione

Collaboratori

È possibile installare manualmente il nodo di gestione del cluster che esegue il software NetApp Element utilizzando l'immagine appropriata per la configurazione.

Questo processo manuale è destinato agli amministratori NetApp HCI che non utilizzano il motore di implementazione NetApp per l'installazione del nodo di gestione.

Di cosa hai bisogno
  • La versione del cluster in uso esegue il software NetApp Element 11.3 o versione successiva.

  • L'installazione utilizza IPv4. Il nodo di gestione 11.3 non supporta IPv6.

    Nota Se è necessario supportare IPv6, è possibile utilizzare il nodo di gestione 11.1.
  • Hai il permesso di scaricare il software dal NetApp Support Site.

  • Hai identificato il tipo di immagine del nodo di gestione corretto per la tua piattaforma:

    Piattaforma Tipo di immagine di installazione

    Microsoft Hyper-V.

    iso

    KVM

    iso

    VMware vSphere

    iso, .ova

    Citrix XenServer

    iso

    OpenStack

    iso

  • (Nodo di gestione 12.0 e versioni successive con server proxy) hai aggiornato NetApp Hybrid Cloud Control alla versione 2.16 dei servizi di gestione prima di configurare un server proxy.

A proposito di questa attività

Il nodo di gestione di Element 12.2 è un aggiornamento opzionale. Non è richiesto per le implementazioni esistenti.

Prima di seguire questa procedura, è necessario conoscere "volumi persistenti" e se si desidera o meno utilizzarli. I volumi persistenti sono opzionali ma consigliati per il ripristino dei dati di configurazione del nodo di gestione in caso di perdita di macchine virtuali.

Scarica ISO o OVA e implementa la macchina virtuale

  1. Scaricare l'OVA o l'ISO per l'installazione dal "NetApp HCI" Pagina sul sito di supporto NetApp:

    1. Selezionare Download Latest Release (Scarica ultima versione) e accettare il contratto EULA.

    2. Selezionare l'immagine del nodo di gestione che si desidera scaricare.

  2. Se l'OVA è stato scaricato, attenersi alla seguente procedura:

    1. Implementare OVA.

    2. Se il cluster di storage si trova su una subnet separata dal nodo di gestione (eth0) e si desidera utilizzare volumi persistenti, aggiungere un secondo controller di interfaccia di rete (NIC) alla VM sulla subnet di storage (ad esempio eth1) o assicurarsi che la rete di gestione possa instradare verso la rete di storage.

  3. Se è stato scaricato l'ISO, attenersi alla seguente procedura:

    1. Creare una nuova macchina virtuale a 64 bit dall'hypervisor con la seguente configurazione:

      • Sei CPU virtuali

      • 24 GB DI RAM

      • Tipo di scheda di storage impostato su LSI Logic Parallel

        Importante L'impostazione predefinita per il nodo di gestione potrebbe essere LSI Logic SAS. Nella finestra Nuova macchina virtuale, verificare la configurazione della scheda di storage selezionando Personalizza hardware > hardware virtuale. Se necessario, modificare LSI Logic SAS in LSI Logic Parallel.
      • Disco virtuale da 400 GB, con thin provisioning

      • Un'interfaccia di rete virtuale con accesso a Internet e accesso allo storage MVIP.

      • Un'interfaccia di rete virtuale con accesso alla rete di gestione al cluster di storage. Se il cluster di storage si trova su una subnet separata dal nodo di gestione (eth0) e si desidera utilizzare volumi persistenti, aggiungere un secondo controller di interfaccia di rete (NIC) alla macchina virtuale sulla subnet di storage (eth1) o assicurarsi che la rete di gestione possa essere instradata alla rete di storage.

        Importante Non accendere la macchina virtuale prima della fase indicata in questa procedura.
    2. Collegare l'ISO alla macchina virtuale e avviare l'immagine di installazione .iso.

      Nota L'installazione di un nodo di gestione mediante l'immagine potrebbe causare un ritardo di 30 secondi prima della visualizzazione della schermata iniziale.
  4. Al termine dell'installazione, accendere la macchina virtuale per il nodo di gestione.

Creare il nodo di gestione admin e configurare la rete

  1. Utilizzando l'interfaccia utente del terminale (TUI), creare un utente admin del nodo di gestione.

    Suggerimento Per spostarsi tra le opzioni di menu, premere i tasti freccia su o giù. Per spostarsi tra i pulsanti, premere Tab. Per spostarsi dai pulsanti ai campi, premere Tab. Per spostarsi tra i campi, premere i tasti freccia su o giù.
  2. Configurare la rete dei nodi di gestione (eth0).

    Nota Se è necessaria una scheda di rete aggiuntiva per isolare il traffico di storage, consultare le istruzioni per la configurazione di un'altra scheda di rete: "Configurazione di un NIC (Network Interface Controller) per lo storage".

Configurare la sincronizzazione dell'ora

  1. Assicurarsi che il tempo sia sincronizzato tra il nodo di gestione e il cluster di storage utilizzando NTP:

    Nota A partire dall'elemento 12.3.1, i passaggi da (a) a (e) vengono eseguiti automaticamente. Per il nodo di gestione 12.3.1, passare a. sottopase (f) per completare la configurazione di time sync.
    1. Accedere al nodo di gestione utilizzando SSH o la console fornita dall'hypervisor.

    2. Stop NTPD:

      sudo service ntpd stop
    3. Modificare il file di configurazione NTP /etc/ntp.conf:

      1. Commentare i server predefiniti (server 0.gentoo.pool.ntp.org) aggiungendo un # davanti a ciascuno.

      2. Aggiungere una nuova riga per ciascun server di riferimento orario predefinito che si desidera aggiungere. I server di riferimento orario predefiniti devono essere gli stessi server NTP utilizzati nel cluster di storage in "passo successivo".

        vi /etc/ntp.conf
        
        #server 0.gentoo.pool.ntp.org
        #server 1.gentoo.pool.ntp.org
        #server 2.gentoo.pool.ntp.org
        #server 3.gentoo.pool.ntp.org
        server <insert the hostname or IP address of the default time server>
      3. Al termine, salvare il file di configurazione.

    4. Forzare una sincronizzazione NTP con il server appena aggiunto.

      sudo ntpd -gq
    5. Riavviare NTPD.

      sudo service ntpd start
    6. Disattiva la sincronizzazione dell'ora con l'host tramite l'hypervisor (il seguente è un esempio VMware):

      Nota Se si implementa mNode in un ambiente hypervisor diverso da VMware, ad esempio dall'immagine .iso in un ambiente OpenStack, fare riferimento alla documentazione dell'hypervisor per i comandi equivalenti.
      1. Disattivare la sincronizzazione periodica dell'ora:

        vmware-toolbox-cmd timesync disable
      2. Visualizzare e confermare lo stato corrente del servizio:

        vmware-toolbox-cmd timesync status
      3. In vSphere, verificare che Synchronize guest time with host Nelle opzioni della macchina virtuale, la casella di controllo non è selezionata.

        Nota Non attivare questa opzione se si apportano modifiche future alla macchina virtuale.
Nota Non modificare l'NTP dopo aver completato la configurazione di Time Sync, in quanto influisce sull'NTP quando si esegue "comando di installazione" sul nodo di gestione.

Configurare il nodo di gestione

  1. Configurare ed eseguire il comando di setup del nodo di gestione:

    Nota Viene richiesto di inserire le password in un prompt sicuro. Se il cluster si trova dietro un server proxy, è necessario configurare le impostazioni del proxy in modo da poter accedere a una rete pubblica.
    sudo /sf/packages/mnode/setup-mnode --mnode_admin_user [username] --storage_mvip [mvip] --storage_username [username] --telemetry_active [true]
    1. Sostituire il valore tra parentesi [ ] (comprese le parentesi) per ciascuno dei seguenti parametri richiesti:

      Nota La forma abbreviata del nome del comando è tra parentesi ( ) e può essere sostituita con il nome completo.
      • --mnode_admin_user (-mu) [nome utente]: Il nome utente per l'account amministratore del nodo di gestione. Probabilmente si tratta del nome utente dell'account utente utilizzato per accedere al nodo di gestione.

      • --storage_mvip (-SM) [indirizzo MVIP]: L'indirizzo IP virtuale di gestione (MVIP) del cluster di storage che esegue il software Element. Configurare il nodo di gestione con lo stesso cluster di storage utilizzato durante "Configurazione dei server NTP".

      • --storage_Username (-su) [Username]: Il nome utente dell'amministratore del cluster di storage per il cluster specificato da --storage_mvip parametro.

      • --Telemetry_Active (-t) [true]: Conserva il valore true che consente la raccolta dei dati per l'analisi di Active IQ.

    2. (Facoltativo): Aggiungere i parametri dell'endpoint Active IQ al comando:

      • --Remote_host (-rh) [AIQ_endpoint]: L'endpoint in cui vengono inviati i dati di telemetria Active IQ per l'elaborazione. Se il parametro non è incluso, viene utilizzato l'endpoint predefinito.

    3. (Consigliato): Aggiungere i seguenti parametri di volume persistente. Non modificare o eliminare l'account e i volumi creati per la funzionalità dei volumi persistenti, altrimenti si verificherà una perdita delle funzionalità di gestione.

      • --use_persistent_Volumes (-pv) [true/false, default: False]: Attiva o disattiva i volumi persistenti. Inserire il valore true per abilitare la funzionalità dei volumi persistenti.

      • --Persistent_Volumes_account (-pva) [nome_account]: IF --use_persistent_volumes è impostato su true, utilizzare questo parametro e inserire il nome dell'account di storage che verrà utilizzato per i volumi persistenti.

        Nota Utilizzare un nome account univoco per i volumi persistenti diverso da qualsiasi nome account esistente nel cluster. È di fondamentale importanza mantenere l'account dei volumi persistenti separato dal resto dell'ambiente.
      • --persistent_Volumes_mvip (-pvm) [mvip]: Immettere l'indirizzo IP virtuale di gestione (MVIP) del cluster di storage che esegue il software Element che verrà utilizzato con i volumi persistenti. Questo è necessario solo se il nodo di gestione gestisce più cluster di storage. Se non vengono gestiti più cluster, viene utilizzato il cluster predefinito MVIP.

    4. Configurare un server proxy:

      • --use_proxy (-up) [true/false, default: False]: Attiva o disattiva l'utilizzo del proxy. Questo parametro è necessario per configurare un server proxy.

      • --proxy_hostname_or_ip (-pi) [host]: Il nome host o l'IP del proxy. Questa opzione è necessaria se si desidera utilizzare un proxy. Se si specifica questa opzione, viene richiesto di immettere --proxy_port.

      • --proxy_Username (-pu) [nome utente]: Il nome utente del proxy. Questo parametro è facoltativo.

      • --proxy_password (-pp) [password]: La password del proxy. Questo parametro è facoltativo.

      • --proxy_port (-pq) [port, default: 0]: La porta proxy. Se si specifica questa opzione, viene richiesto di inserire il nome host o l'IP del proxy (--proxy_hostname_or_ip).

      • --proxy_ssh_port (-ps) [port, default: 443]: La porta proxy SSH. Per impostazione predefinita, viene impostata la porta 443.

    5. (Facoltativo) utilizzare la guida ai parametri se sono necessarie ulteriori informazioni su ciascun parametro:

      • --help (-h): Restituisce informazioni su ciascun parametro. I parametri sono definiti come obbligatori o facoltativi in base all'implementazione iniziale. I requisiti dei parametri di aggiornamento e ridistribuzione potrebbero variare.

    6. Eseguire setup-mnode comando.

Configurare le risorse dei controller

  1. Individuare l'ID di installazione:

    1. Da un browser, accedere all'interfaccia utente API REST del nodo di gestione:

    2. Accedere a Storage MVIP ed effettuare l'accesso. Questa azione fa sì che il certificato venga accettato per la fase successiva.

    3. Aprire l'interfaccia utente REST API del servizio di inventario sul nodo di gestione:

      https://<ManagementNodeIP>/inventory/1/
    4. Selezionare autorizzare e completare le seguenti operazioni:

      1. Inserire il nome utente e la password del cluster.

      2. Immettere l'ID client come mnode-client.

      3. Selezionare autorizzare per avviare una sessione.

    5. Dall'interfaccia utente API REST, selezionare GET ​/Installations.

    6. Selezionare Provalo.

    7. Selezionare Esegui.

    8. Dal corpo della risposta del codice 200, copiare e salvare id per l'installazione da utilizzare in un passaggio successivo.

      L'installazione dispone di una configurazione delle risorse di base creata durante l'installazione o l'aggiornamento.

  2. (Solo NetApp HCI) individuare il tag hardware per il nodo di calcolo in vSphere:

    1. Selezionare l'host in vSphere Web Client Navigator.

    2. Selezionare la scheda Monitor e selezionare hardware Health.

    3. Vengono elencati il produttore e il numero di modello del BIOS del nodo. Copiare e salvare il valore per tag da utilizzare in un passaggio successivo.

  3. Aggiungere una risorsa del controller vCenter per il monitoraggio NetApp HCI (solo installazioni NetApp HCI) e il controllo del cloud ibrido (per tutte le installazioni) al nodo di gestione risorse note:

    1. Accedere all'interfaccia utente API del servizio mnode sul nodo di gestione immettendo l'indirizzo IP del nodo di gestione seguito da /mnode:

      https:/<ManagementNodeIP>/mnode
    2. Selezionare autorizzare o qualsiasi icona a forma di lucchetto e completare le seguenti operazioni:

      1. Inserire il nome utente e la password del cluster.

      2. Immettere l'ID client come mnode-client.

      3. Selezionare autorizzare per avviare una sessione.

      4. Chiudere la finestra.

    3. Selezionare POST /assets/{asset_id}/controller per aggiungere una sottorisorsa del controller.

      Nota È necessario creare un nuovo ruolo NetApp HCC in vCenter per aggiungere una sottorisorsa del controller. Questo nuovo ruolo di NetApp HCC limiterà la vista dei servizi del nodo di gestione alle risorse solo NetApp. Vedere "Creare un ruolo NetApp HCC in vCenter".
    4. Selezionare Provalo.

    5. Inserire l'ID risorsa base principale copiato negli Appunti nel campo asset_id.

    6. Inserire i valori del payload richiesti con il tipo vCenter E vCenter.

    7. Selezionare Esegui.

(Solo NetApp HCI) configurare le risorse dei nodi di calcolo

  1. (Solo per NetApp HCI) aggiungere una risorsa di nodo di calcolo al nodo di gestione risorse note:

    1. Selezionare POST /assets/{asset_id}/compute-nodes per aggiungere una sottorisorsa del nodo di calcolo con credenziali per la risorsa del nodo di calcolo.

    2. Selezionare Provalo.

    3. Inserire l'ID risorsa base principale copiato negli Appunti nel campo asset_id.

    4. Nel payload, inserire i valori del payload richiesti come definito nella scheda Model (modello). Invio ESXi Host come type e inserire il tag hardware salvato durante un passaggio precedente per hardware_tag.

    5. Selezionare Esegui.

Ulteriori informazioni