Skip to main content
Element Software
12.5
È disponibile una versione più recente di questo prodotto.
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Ripristinare un nodo di gestione

Collaboratori

È possibile ripristinare e ridistribuire manualmente il nodo di gestione per il cluster che esegue il software NetApp Element se il nodo di gestione precedente utilizzava volumi persistenti.

È possibile implementare un nuovo OVA ed eseguire uno script di ridistribuzione per estrarre i dati di configurazione da un nodo di gestione precedentemente installato che esegue la versione 11.3 e successive.

Di cosa hai bisogno
  • Il nodo di gestione precedente utilizzava il software NetApp Element versione 11,3 o successiva dotato di "Volumi persistenti" funzionalità attiva.

  • Conosci MVIP e SVIP del cluster contenente i volumi persistenti.

  • La versione del cluster in uso esegue il software NetApp Element 11.3 o versione successiva.

  • L'installazione utilizza IPv4. Il nodo di gestione 11.3 non supporta IPv6.

  • Hai il permesso di scaricare il software dal NetApp Support Site.

  • Hai identificato il tipo di immagine del nodo di gestione corretto per la tua piattaforma:

    Piattaforma Tipo di immagine di installazione

    Microsoft Hyper-V.

    iso

    KVM

    iso

    VMware vSphere

    iso, .ova

    Citrix XenServer

    iso

    OpenStack

    iso

Scarica ISO o OVA e implementa la macchina virtuale

  1. Scaricare OVA o ISO per l'installazione dalla "Software Element" pagina del sito di supporto NetApp.

    1. Selezionare Download Latest Release (Scarica ultima versione) e accettare il contratto EULA.

    2. Selezionare l'immagine del nodo di gestione che si desidera scaricare.

  2. Se è stato scaricato l'OVA, attenersi alla seguente procedura:

    1. Implementare OVA.

    2. Se il cluster di storage si trova su una subnet separata dal nodo di gestione (eth0) e si desidera utilizzare volumi persistenti, aggiungere un secondo controller di interfaccia di rete (NIC) alla VM sulla subnet di storage (ad esempio eth1) o assicurarsi che la rete di gestione possa instradare verso la rete di storage.

  3. Se è stato scaricato l'ISO, attenersi alla seguente procedura:

    1. Creare una nuova macchina virtuale a 64 bit dall'hypervisor con la seguente configurazione:

      • Sei CPU virtuali

      • 24 GB DI RAM

      • Disco virtuale da 400 GB, con thin provisioning

      • Un'interfaccia di rete virtuale con accesso a Internet e accesso allo storage MVIP.

      • (Opzionale per lo storage all-flash SolidFire) un'interfaccia di rete virtuale con accesso alla rete di gestione al cluster di storage. Se il cluster di storage si trova su una subnet separata dal nodo di gestione (eth0) e si desidera utilizzare volumi persistenti, aggiungere un secondo controller di interfaccia di rete (NIC) alla macchina virtuale sulla subnet di storage (eth1) o assicurarsi che la rete di gestione possa essere instradata alla rete di storage.

        Importante Non accendere la macchina virtuale prima della fase indicata in questa procedura.
    2. Collegare l'ISO alla macchina virtuale e avviare l'immagine di installazione .iso.

      Nota L'installazione di un nodo di gestione mediante l'immagine potrebbe causare un ritardo di 30 secondi prima della visualizzazione della schermata iniziale.
  4. Al termine dell'installazione, accendere la macchina virtuale per il nodo di gestione.

Configurare la rete

  1. Utilizzando l'interfaccia utente del terminale (TUI), creare un utente admin del nodo di gestione.

    Suggerimento Per spostarsi tra le opzioni di menu, premere i tasti freccia su o giù. Per spostarsi tra i pulsanti, premere Tab. Per spostarsi dai pulsanti ai campi, premere Tab. Per spostarsi tra i campi, premere i tasti freccia su o giù.
  2. Configurare la rete dei nodi di gestione (eth0).

    Nota Se è necessaria una scheda NIC aggiuntiva per isolare il traffico di storage, consultare le istruzioni sulla configurazione di un'altra scheda NIC: "Configurazione di un NIC (Network Interface Controller) per lo storage".

Configurare la sincronizzazione dell'ora

  1. Assicurarsi che il tempo sia sincronizzato tra il nodo di gestione e il cluster di storage utilizzando NTP:

Nota A partire dall'elemento 12,3.1, le sottofasi da (a) a (e) vengono eseguite automaticamente. Per il nodo di gestione 12.3.1 o successivo, procedere al sottopase (f) per completare la configurazione della sincronizzazione dell'ora.
  1. Accedere al nodo di gestione utilizzando SSH o la console fornita dall'hypervisor.

  2. Arresta NTPD:

    sudo service ntpd stop
  3. Modificare il file di configurazione NTP /etc/ntp.conf :

    1. Commentare i server predefiniti (server 0.gentoo.pool.ntp.org) aggiungendo un # davanti a ciascuno di essi.

    2. Aggiungere una nuova riga per ogni server di riferimento orario predefinito che si desidera aggiungere. I server di riferimento orario predefiniti devono essere gli stessi server NTP utilizzati nel cluster di archiviazione che verranno utilizzati in un "passo successivo".

      vi /etc/ntp.conf
      
      #server 0.gentoo.pool.ntp.org
      #server 1.gentoo.pool.ntp.org
      #server 2.gentoo.pool.ntp.org
      #server 3.gentoo.pool.ntp.org
      server <insert the hostname or IP address of the default time server>
    3. Al termine, salvare il file di configurazione.

  4. Forzare una sincronizzazione NTP con il server appena aggiunto.

    sudo ntpd -gq
  5. Riavviare NTPD.

    sudo service ntpd start
  6. Disattiva la sincronizzazione dell'ora con l'host tramite l'hypervisor (il seguente è un esempio VMware):

    Nota Se si implementa mNode in un ambiente hypervisor diverso da VMware, ad esempio dall'immagine .iso in un ambiente OpenStack, fare riferimento alla documentazione dell'hypervisor per i comandi equivalenti.
    1. Disattivare la sincronizzazione periodica dell'ora:

      vmware-toolbox-cmd timesync disable
    2. Visualizzare e confermare lo stato corrente del servizio:

      vmware-toolbox-cmd timesync status
    3. In vSphere, verificare che la Synchronize guest time with host casella non sia selezionata nelle opzioni VM.

      Nota Non attivare questa opzione se si apportano modifiche future alla macchina virtuale.
Nota Non modificare l'NTP dopo aver completato la configurazione della sincronizzazione dell'ora perché influisce sull'NTP quando si esegue sul comando di ridistribuzionenodo di gestione.

Configurare il nodo di gestione

  1. Creare una directory di destinazione temporanea per il contenuto del bundle di servizi di gestione:

    mkdir -p /sf/etc/mnode/mnode-archive
  2. Scaricare il bundle dei servizi di gestione (versione 2.15.28 o successiva) precedentemente installato sul nodo di gestione esistente e salvarlo nella /sf/etc/mnode/ directory.

  3. Estrarre il bundle scaricato utilizzando il seguente comando, sostituendo il valore tra parentesi quadre [ ] (comprese le parentesi quadre) con il nome del file bundle:

    tar -C /sf/etc/mnode -xvf /sf/etc/mnode/[management services bundle file]
  4. Estrarre il file risultante nella /sf/etc/mnode-archive directory:

    tar -C /sf/etc/mnode/mnode-archive -xvf /sf/etc/mnode/services_deploy_bundle.tar.gz
  5. Creare un file di configurazione per account e volumi:

    echo '{"trident": true, "mvip": "[mvip IP address]", "account_name": "[persistent volume account name]"}' | sudo tee /sf/etc/mnode/mnode-archive/management-services-metadata.json
    1. Sostituire il valore tra parentesi [ ] (comprese le parentesi) per ciascuno dei seguenti parametri richiesti:

      • [mvip IP address]: L'indirizzo IP virtuale di gestione del cluster di storage. Configurare il nodo di gestione con lo stesso cluster di archiviazione utilizzato durante "Configurazione dei server NTP".

      • [nome account volume persistente]: Il nome dell'account associato a tutti i volumi persistenti in questo cluster di storage.

  6. Configurare ed eseguire il comando di ridistribuzione del nodo di gestione per connettersi ai volumi persistenti ospitati sul cluster e avviare i servizi con i dati di configurazione del nodo di gestione precedenti:

    Nota Viene richiesto di inserire le password in un prompt sicuro. Se il cluster si trova dietro un server proxy, è necessario configurare le impostazioni del proxy in modo da poter accedere a una rete pubblica.
    sudo /sf/packages/mnode/redeploy-mnode --mnode_admin_user [username]
    1. Sostituire il valore tra parentesi quadre [ ] (comprese le parentesi quadre) con il nome utente dell'account amministratore del nodo di gestione. Probabilmente si tratta del nome utente dell'account utente utilizzato per accedere al nodo di gestione.

      Nota È possibile aggiungere il nome utente o consentire allo script di richiedere le informazioni.
    2. Eseguire il redeploy-mnode comando. Al termine della ridistribuzione, lo script visualizza un messaggio di esito positivo.

    3. Se si accede alle interfacce Web di Element (come il nodo di gestione o il controllo cloud ibrido NetApp) utilizzando il nome di dominio completo (FQDN) del sistema, "riconfigurare l'autenticazione per il nodo di gestione".

Importante La capacità SSH che fornisce "Accesso alla sessione del NetApp Support Remote Support Tunnel (RST)" è disattivata per impostazione predefinita nei nodi di gestione che eseguono servizi di gestione 2,18 e versioni successive. Se la funzionalità SSH era stata precedentemente abilitata sul nodo di gestione, potrebbe essere necessario "Disattivare nuovamente SSH"sul nodo di gestione recuperato.

Ulteriori informazioni