Installare un nodo di gestione
È possibile installare manualmente il nodo di gestione del cluster che esegue il software NetApp Element utilizzando l'immagine appropriata per la configurazione.
Questo processo manuale è destinato agli amministratori NetApp HCI che non utilizzano il motore di implementazione NetApp per l'installazione del nodo di gestione.
-
La versione del cluster in uso esegue il software NetApp Element 11.3 o versione successiva.
-
L'installazione utilizza IPv4. Il nodo di gestione 11.3 non supporta IPv6.
Se è necessario supportare IPv6, è possibile utilizzare il nodo di gestione 11.1. -
Hai il permesso di scaricare il software dal NetApp Support Site.
-
Hai identificato il tipo di immagine del nodo di gestione corretto per la tua piattaforma:
Piattaforma Tipo di immagine di installazione Microsoft Hyper-V.
iso
KVM
iso
VMware vSphere
iso, .ova
Citrix XenServer
iso
OpenStack
iso
-
(Nodo di gestione 12,0 e 12,2 con server proxy) hai aggiornato il controllo cloud ibrido NetApp alla versione 2,16 dei servizi di gestione prima di configurare un server proxy.
Il nodo di gestione di Element 12.2 è un aggiornamento opzionale. Non è richiesto per le implementazioni esistenti.
Prima di seguire questa procedura, è necessario conoscere e capire "volumi persistenti"se si desidera utilizzarli o meno. I volumi persistenti sono opzionali ma consigliati per il ripristino dei dati di configurazione del nodo di gestione in caso di perdita di una macchina virtuale (VM).
Scarica ISO o OVA e implementa la macchina virtuale
-
Scaricare OVA o ISO per l'installazione dalla "NetApp HCI" pagina del sito di supporto NetApp:
-
Selezionare Download Latest Release (Scarica ultima versione) e accettare il contratto EULA.
-
Selezionare l'immagine del nodo di gestione che si desidera scaricare.
-
-
Se è stato scaricato l'OVA, attenersi alla seguente procedura:
-
Implementare OVA.
-
Se il cluster di storage si trova su una subnet separata dal nodo di gestione (eth0) e si desidera utilizzare volumi persistenti, aggiungere un secondo controller di interfaccia di rete (NIC) alla VM sulla subnet di storage (ad esempio eth1) o assicurarsi che la rete di gestione possa instradare verso la rete di storage.
-
-
Se è stato scaricato l'ISO, attenersi alla seguente procedura:
-
Creare una nuova VM a 64 bit dall'hypervisor con la seguente configurazione:
-
Sei CPU virtuali
-
24 GB DI RAM
-
Tipo di scheda di storage impostato su LSI Logic Parallel
L'impostazione predefinita per il nodo di gestione potrebbe essere LSI Logic SAS. Nella finestra Nuova macchina virtuale, verificare la configurazione della scheda di storage selezionando Personalizza hardware > hardware virtuale. Se necessario, modificare LSI Logic SAS in LSI Logic Parallel. -
Disco virtuale da 400 GB, con thin provisioning
-
Un'interfaccia di rete virtuale con accesso a Internet e accesso allo storage MVIP.
-
Un'interfaccia di rete virtuale con accesso alla rete di gestione al cluster di storage. Se il cluster di storage si trova su una subnet separata dal nodo di gestione (eth0) e si desidera utilizzare volumi persistenti, aggiungere un secondo controller di interfaccia di rete (NIC) alla macchina virtuale sulla subnet di storage (eth1) o assicurarsi che la rete di gestione possa essere instradata alla rete di storage.
Non accendere la macchina virtuale prima della fase indicata in questa procedura.
-
-
Collegare l'ISO alla macchina virtuale e avviare l'immagine di installazione .iso.
L'installazione di un nodo di gestione mediante l'immagine potrebbe causare un ritardo di 30 secondi prima della visualizzazione della schermata iniziale.
-
-
Al termine dell'installazione, accendere la macchina virtuale per il nodo di gestione.
Creare il nodo di gestione admin e configurare la rete
-
Utilizzando l'interfaccia utente del terminale (TUI), creare un utente admin del nodo di gestione.
Per spostarsi tra le opzioni di menu, premere i tasti freccia su o giù. Per spostarsi tra i pulsanti, premere Tab. Per spostarsi dai pulsanti ai campi, premere Tab. Per spostarsi tra i campi, premere i tasti freccia su o giù. -
Se sulla rete è presente un server DHCP (Dynamic host Configuration Protocol) che assegna indirizzi IP con un numero massimo di unità di trasmissione (MTU) inferiore a 1500 byte, attenersi alla seguente procedura:
-
Posizionare temporaneamente il nodo di gestione su una rete vSphere senza DHCP, ad esempio iSCSI.
-
Riavviare la macchina virtuale o la rete della macchina virtuale.
-
Utilizzando l'interfaccia telefonica utente, configurare l'IP corretto sulla rete di gestione con una MTU maggiore o uguale a 1500 byte.
-
Riassegnare la rete VM corretta alla macchina virtuale.
Un DHCP che assegna IP con un MTU inferiore a 1500 byte può impedire la configurazione della rete del nodo di gestione o l'utilizzo dell'interfaccia utente del nodo di gestione. -
-
Configurare la rete dei nodi di gestione (eth0).
Se è necessaria una scheda NIC aggiuntiva per isolare il traffico di storage, consultare le istruzioni sulla configurazione di un'altra scheda NIC: "Configurazione di un NIC (Network Interface Controller) per lo storage".
Configurare la sincronizzazione dell'ora
-
Assicurarsi che il tempo sia sincronizzato tra il nodo di gestione e il cluster di storage utilizzando NTP:
A partire dall'elemento 12.3.1, i passaggi da (a) a (e) vengono eseguiti automaticamente. Per il nodo di gestione 12,3.1, passare alla sottopase (f) per completare la configurazione della sincronizzazione dell'ora. |
-
Accedere al nodo di gestione utilizzando SSH o la console fornita dall'hypervisor.
-
Arresta NTPD:
sudo service ntpd stop
-
Modificare il file di configurazione NTP
/etc/ntp.conf
:-
Commentare i server predefiniti (
server 0.gentoo.pool.ntp.org
) aggiungendo un#
davanti a ciascuno di essi. -
Aggiungere una nuova riga per ogni server di riferimento orario predefinito che si desidera aggiungere. I server di riferimento orario predefiniti devono essere gli stessi server NTP utilizzati nel cluster di archiviazione che verranno utilizzati in un "passo successivo".
vi /etc/ntp.conf #server 0.gentoo.pool.ntp.org #server 1.gentoo.pool.ntp.org #server 2.gentoo.pool.ntp.org #server 3.gentoo.pool.ntp.org server <insert the hostname or IP address of the default time server>
-
Al termine, salvare il file di configurazione.
-
-
Forzare una sincronizzazione NTP con il server appena aggiunto.
sudo ntpd -gq
-
Riavviare NTPD.
sudo service ntpd start
-
Disattiva la sincronizzazione dell'ora con l'host tramite l'hypervisor (il seguente è un esempio VMware):
Se si implementa mNode in un ambiente hypervisor diverso da VMware, ad esempio dall'immagine .iso in un ambiente OpenStack, fare riferimento alla documentazione dell'hypervisor per i comandi equivalenti. -
Disattivare la sincronizzazione periodica dell'ora:
vmware-toolbox-cmd timesync disable
-
Visualizzare e confermare lo stato corrente del servizio:
vmware-toolbox-cmd timesync status
-
In vSphere, verificare che la
Synchronize guest time with host
casella non sia selezionata nelle opzioni VM.Non attivare questa opzione se si apportano modifiche future alla macchina virtuale.
-
Non modificare l'NTP dopo aver completato la configurazione della sincronizzazione dell'ora perché influisce sull'NTP quando si esegue sul "comando di installazione"nodo di gestione. |
Configurare il nodo di gestione
-
Configurare ed eseguire il comando di setup del nodo di gestione:
Viene richiesto di inserire le password in un prompt sicuro. Se il cluster si trova dietro un server proxy, è necessario configurare le impostazioni del proxy in modo da poter accedere a una rete pubblica. sudo /sf/packages/mnode/setup-mnode --mnode_admin_user [username] --storage_mvip [mvip] --storage_username [username] --telemetry_active [true]
-
Sostituire il valore tra parentesi [ ] (comprese le parentesi) per ciascuno dei seguenti parametri richiesti:
La forma abbreviata del nome del comando è tra parentesi ( ) e può essere sostituita con il nome completo. -
--mnode_admin_user (-mu) [nome utente]: Il nome utente per l'account amministratore del nodo di gestione. Probabilmente si tratta del nome utente dell'account utente utilizzato per accedere al nodo di gestione.
-
--storage_mvip (-SM) [indirizzo MVIP]: L'indirizzo IP virtuale di gestione (MVIP) del cluster di storage che esegue il software Element. Configurare il nodo di gestione con lo stesso cluster di archiviazione utilizzato durante "Configurazione dei server NTP".
-
--storage_username (-su) [username]: Il nome utente dell'amministratore del cluster di archiviazione per il cluster specificato dal
--storage_mvip
parametro. -
--Telemetry_Active (-t) [true]: Conserva il valore true che consente la raccolta dei dati per l'analisi di Active IQ.
-
-
(Facoltativo): Aggiungere i parametri dell'endpoint Active IQ al comando:
-
--Remote_host (-rh) [AIQ_endpoint]: L'endpoint in cui vengono inviati i dati di telemetria Active IQ per l'elaborazione. Se il parametro non è incluso, viene utilizzato l'endpoint predefinito.
-
-
(Consigliato): Aggiungere i seguenti parametri di volume persistente. Non modificare o eliminare l'account e i volumi creati per la funzionalità dei volumi persistenti, altrimenti si verificherà una perdita delle funzionalità di gestione.
-
--use_persistent_Volumes (-pv) [true/false, default: False]: Attiva o disattiva i volumi persistenti. Inserire il valore true per abilitare la funzionalità dei volumi persistenti.
-
--Persistent_Volumes_account (-pva) [nome_account]: Se
--use_persistent_volumes
è impostato su true, utilizzare questo parametro e immettere il nome dell'account di archiviazione che verrà utilizzato per i volumi persistenti.Utilizzare un nome account univoco per i volumi persistenti diverso da qualsiasi nome account esistente nel cluster. È di fondamentale importanza mantenere l'account dei volumi persistenti separato dal resto dell'ambiente. -
--persistent_Volumes_mvip (-pvm) [mvip]: Immettere l'indirizzo IP virtuale di gestione (MVIP) del cluster di storage che esegue il software Element che verrà utilizzato con i volumi persistenti. Questo è necessario solo se il nodo di gestione gestisce più cluster di storage. Se non vengono gestiti più cluster, viene utilizzato il cluster predefinito MVIP.
-
-
Configurare un server proxy:
-
--use_proxy (-up) [true/false, default: False]: Attiva o disattiva l'utilizzo del proxy. Questo parametro è necessario per configurare un server proxy.
-
--proxy_hostname_or_ip (-pi) [host]: Il nome host o l'IP del proxy. Questa opzione è necessaria se si desidera utilizzare un proxy. Se si specifica questo valore, verrà richiesto di immettere
--proxy_port
. -
--proxy_Username (-pu) [nome utente]: Il nome utente del proxy. Questo parametro è facoltativo.
-
--proxy_password (-pp) [password]: La password del proxy. Questo parametro è facoltativo.
-
--proxy_port (-pq) [port, default: 0]: La porta proxy. Se si specifica questo valore, verrà richiesto di immettere il nome host proxy o l'IP (
--proxy_hostname_or_ip
). -
--proxy_ssh_port (-ps) [port, default: 443]: La porta proxy SSH. Per impostazione predefinita, viene impostata la porta 443.
-
-
(Facoltativo) utilizzare la guida ai parametri se sono necessarie ulteriori informazioni su ciascun parametro:
-
--help (-h): Restituisce informazioni su ciascun parametro. I parametri sono definiti come obbligatori o facoltativi in base all'implementazione iniziale. I requisiti dei parametri di aggiornamento e ridistribuzione potrebbero variare.
-
-
Eseguire il
setup-mnode
comando.
-
Configurare le risorse dei controller
-
Individuare l'ID di installazione:
-
Da un browser, accedere all'interfaccia utente API REST del nodo di gestione:
-
Accedere al MVIP di archiviazione ed eseguire l'accesso. In questo modo il certificato viene accettato per il passaggio successivo.
-
Aprire l'interfaccia utente REST API del servizio di inventario sul nodo di gestione:
https://<ManagementNodeIP>/inventory/1/
-
Selezionare autorizzare e completare le seguenti operazioni:
-
Inserire il nome utente e la password del cluster.
-
Immettere l'ID client come
mnode-client
. -
Selezionare autorizzare per avviare una sessione.
-
-
Dall'interfaccia utente API REST, selezionare GET /Installations.
-
Selezionare Provalo.
-
Selezionare Esegui.
-
Dal corpo della risposta codice 200, copiare e salvare
id
per l'installazione per l'uso in un passaggio successivo.L'installazione dispone di una configurazione delle risorse di base creata durante l'installazione o l'aggiornamento.
-
-
(Solo NetApp HCI) individuare il tag hardware per il nodo di calcolo in vSphere:
-
Selezionare l'host in vSphere Web Client Navigator.
-
Selezionare la scheda Monitor e selezionare hardware Health.
-
Vengono elencati il produttore e il numero di modello del BIOS del nodo. Copiare e salvare il valore per
tag
da utilizzare in un passaggio successivo.
-
-
Aggiungere una risorsa del controller vCenter per il monitoraggio NetApp HCI (solo installazioni NetApp HCI) e il controllo del cloud ibrido (per tutte le installazioni) al nodo di gestione risorse note:
-
Accedere all'interfaccia utente dell'API del servizio mnode sul nodo di gestione immettendo l'indirizzo IP del nodo di gestione seguito da
/mnode
:https://<ManagementNodeIP>/mnode
-
Selezionare autorizzare o qualsiasi icona a forma di lucchetto e completare le seguenti operazioni:
-
Inserire il nome utente e la password del cluster.
-
Immettere l'ID client come
mnode-client
. -
Selezionare autorizzare per avviare una sessione.
-
Chiudere la finestra.
-
-
Selezionare POST /assets/{asset_id}/controller per aggiungere una sottorisorsa del controller.
Si consiglia di creare un nuovo ruolo HCC di NetApp in vCenter per aggiungere una sottorisorsa del controller. Questo nuovo ruolo di NetApp HCC limiterà la vista dei servizi del nodo di gestione alle risorse solo NetApp. Vedere "Creare un ruolo NetApp HCC in vCenter". -
Selezionare Provalo.
-
Inserire l'ID risorsa base principale copiato negli Appunti nel campo asset_id.
-
Immettere i valori di payload richiesti con le credenziali di tipo
vCenter
e vCenter. -
Selezionare Esegui.
-
(Solo NetApp HCI) configurare le risorse dei nodi di calcolo
-
(Solo per NetApp HCI) aggiungere una risorsa di nodo di calcolo al nodo di gestione risorse note:
-
Selezionare POST /assets/{asset_id}/compute-nodes per aggiungere una sottorisorsa del nodo di calcolo con credenziali per la risorsa del nodo di calcolo.
-
Selezionare Provalo.
-
Inserire l'ID risorsa base principale copiato negli Appunti nel campo asset_id.
-
Nel payload, inserire i valori del payload richiesti come definito nella scheda Model (modello). Immettere
ESXi Host
cometype
e il tag hardware salvato durante un passaggio precedente perhardware_tag
. -
Selezionare Esegui.
-