Skip to main content
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Installazione e boot node3

Collaboratori

È necessario installare node3 nel rack, trasferire le connessioni del node1 al node3, fare il boot node3 e installare ONTAP. È inoltre necessario riassegnare i dischi spare di node1, i dischi appartenenti al volume root e gli aggregati non root non ricollocati in node2 in precedenza.

A proposito di questa attività

È necessario eseguire netboot node3 se non dispone della stessa versione di ONTAP 9 installata sul node1. Dopo aver installato node3, avviarlo dall'immagine di ONTAP 9 memorizzata sul server Web. È quindi possibile scaricare i file corretti sul dispositivo di avvio per i successivi avvii del sistema. Vedere "Preparatevi per il netboot".

Tuttavia, non è necessario eseguire il netboot node3 se ha la stessa versione o una versione successiva di ONTAP 9 installata sul node1.

Importante

Se si sta eseguendo l'upgrade di un sistema V-Series collegato a storage array o a un sistema con software di virtualizzazione FlexArray collegato a storage array, è necessario completare la procedura Fase 1 attraverso Fase 5, lasciare questa sezione all'indirizzo Fase 6 e seguire le istruzioni in "Configurare le porte FC sul nodo 3" e. "Controllare e configurare le porte UTA/UTA2 sul nodo 3" se necessario, immettere i comandi in modalità di manutenzione. Quindi, tornare a questa sezione e riprendere con Fase 7.

Tuttavia, se si sta eseguendo l'aggiornamento di un sistema con dischi di storage, è necessario completare l'intera sezione e andare al "Configurare le porte FC sul nodo 3" e. "Controllare e configurare le porte UTA/UTA2 sul nodo 3", immettendo i comandi al prompt del cluster.

Fasi
  1. assicurarsi di disporre di spazio rack per node3.

    Se node1 e node2 si trovano in uno chassis separato, è possibile inserire node3 nella stessa posizione rack del node1. Tuttavia, se il nodo 1 si trovava nello stesso chassis con il nodo 2, è necessario inserire il nodo 3 nel proprio spazio rack, preferibilmente vicino alla posizione del nodo 1.

  2. [[fase 2]]installare il nodo 3 nel rack seguendo le istruzioni di installazione e configurazione relative al modello di nodo in uso.

    Nota Se si esegue l'aggiornamento a un sistema con entrambi i nodi nello stesso chassis, installare node4 nello chassis e node3. In caso contrario, quando si avvia node3, il nodo si comporta come se fosse in una configurazione a doppio chassis e quando si avvia node4, l'interconnessione tra i nodi non si verificherà.
  3. cavo node3, spostamento delle connessioni da node1 a node3.

    I seguenti riferimenti consentono di stabilire i collegamenti dei cavi corretti. Passare a. "Riferimenti" per collegarli.

    • Istruzioni per l'installazione e la configurazione o requisiti e riferimenti per l'installazione della virtualizzazione FlexArray per la piattaforma node3

    • La procedura di shelf di dischi appropriata

    • La documentazione ha Pair Management

      Collegare i seguenti cavi:

    • Console (porta di gestione remota)

    • Porte del cluster

    • Porte dati

    • Porte di gestione di cluster e nodi

    • Storage

    • Configurazioni SAN: Porte switch FC e Ethernet iSCSI

      Nota Potrebbe non essere necessario spostare la scheda di interconnessione o la connessione del cavo di interconnessione del cluster dal nodo 1 al nodo 3, poiché la maggior parte dei modelli di piattaforma dispone di un modello di scheda di interconnessione unico. Per la configurazione MetroCluster, è necessario spostare le connessioni del cavo FC-VI dal nodo 1 al nodo 3. Se il nuovo host non dispone di una scheda FC-VI, potrebbe essere necessario spostare la scheda FC-VI.
  4. accendere il computer su node3, quindi interrompere il processo di boot premendo Ctrl-C sul terminale della console per accedere al prompt dell'ambiente di boot.

    Se si sta eseguendo l'aggiornamento a un sistema con entrambi i nodi nello stesso chassis, anche node4 viene riavviato. Tuttavia, è possibile ignorare il node4 boot fino a tardi.

    Nota Quando si avvia node3, potrebbe essere visualizzato il seguente messaggio di avviso:
    WARNING: The battery is unfit to retain data during a power outage. This is likely because the battery is discharged but could be due to other temporary conditions.
    When the battery is ready, the boot process will complete and services will be engaged.
    To override this delay, press 'c' followed by 'Enter'
  5. se viene visualizzato il messaggio di avviso in Fase 4, eseguire le seguenti operazioni:

    1. Verificare la presenza di eventuali messaggi della console che potrebbero indicare un problema diverso da una batteria NVRAM in esaurimento e, se necessario, intraprendere le azioni correttive necessarie.

    2. Attendere che la batteria si ricarichi e che il processo di avvio venga completato.

      Nota Attenzione: Non ignorare il ritardo; il mancato caricamento della batteria potrebbe causare la perdita di dati.
  6. eseguire una delle seguenti operazioni:

    Se il sistema…​ Quindi…​

    Dispone di dischi e non di storage back-end

    Saltare i passaggi da 7 a 12 e passare a. Fase 13.

    È un sistema V-Series o un sistema con software di virtualizzazione FlexArray collegato agli array di storage

    1. Passare a. "Impostare la configurazione FC o UTA/UTA2 su node3" e completare le sottosezioni "Configurare le porte FC sul nodo 3" e. "Controllare e configurare le porte UTA/UTA2 sul nodo 3", in base al sistema in uso.

    2. Tornare a questa sezione e completare i passaggi rimanenti, iniziando da Fase 7.

    Importante È necessario riconfigurare le porte FC onboard, le porte CNA onboard e le schede CNA prima di avviare ONTAP su V-Series o sul sistema con il software di virtualizzazione FlexArray.
  7. aggiungere le porte FC Initiator del nuovo nodo alle zone di switch.

    Se il sistema dispone di UNA SAN a nastro, è necessario eseguire lo zoning per gli iniziatori. Per istruzioni, consultare la documentazione relativa allo storage array e allo zoning.

  8. aggiungere le porte FC Initiator all'array di storage come nuovi host, mappando le LUN dell'array ai nuovi host.

    Per istruzioni, consultare la documentazione relativa allo storage array e allo zoning.

  9. Modifica i valori WWPN (World Wide Port Name) nei gruppi di host o volumi associati alle LUN degli array sullo storage array.

    L'installazione di un nuovo modulo controller modifica i valori WWPN associati a ciascuna porta FC integrata.

  10. se la configurazione utilizza lo zoning basato su switch, regolare lo zoning in modo che rifletta i nuovi valori WWPN.

  11. verificare che le LUN degli array siano ora visibili al nodo 3:

    sysconfig -v

    Il sistema visualizza tutte le LUN degli array visibili a ciascuna porta FC Initiator. Se le LUN degli array non sono visibili, non sarà possibile riassegnare i dischi da node1 a node3 più avanti in questa sezione.

  12. premere Ctrl-C per visualizzare il menu di avvio e selezionare la modalità di manutenzione.

  13. al prompt della modalità di manutenzione, immettere il seguente comando:

    halt

    Il sistema si arresta al prompt dell'ambiente di avvio.

  14. eseguire una delle seguenti operazioni:

    Se il sistema a cui si esegue l'aggiornamento si trova in una…​ Quindi…​

    Configurazione a doppio chassis (con controller in chassis diversi)

    Passare a. Fase 15.

    Configurazione a unico chassis (con controller nello stesso chassis)

    1. Spostare il cavo della console dal nodo 3 al nodo 4.

    2. Accendere il dispositivo al nodo 4, quindi interrompere il processo di avvio premendo Ctrl-C sul terminale della console per accedere al prompt dell'ambiente di avvio.

      L'alimentazione dovrebbe essere già attiva se entrambi i controller si trovano nello stesso chassis.

      Nota Lasciare node4 al prompt dell'ambiente di boot; si tornerà a node4 in "Installazione e boot node4".
    3. Se viene visualizzato il messaggio di avviso nella Fase 4, seguire le istruzioni in Fase 5

    4. Riportare il cavo della console dal nodo 4 al nodo 3.

    5. Passare a. Fase 15.

  15. Configura node3 per ONTAP:

    set-defaults

  16. se si dispone di unità NetApp Storage Encryption (NSE) installate, attenersi alla seguente procedura.

    Nota Se la procedura non è stata ancora eseguita, consultare l'articolo della Knowledge base "Come verificare se un disco è certificato FIPS" per determinare il tipo di unità con crittografia automatica in uso.
    1. Impostare bootarg.storageencryption.support a. true oppure false:

      Se i seguenti dischi sono in uso… Quindi…

      Unità NSE conformi ai requisiti di crittografia automatica FIPS 140-2 livello 2

      setenv bootarg.storageencryption.support true

      SED non FIPS di NetApp

      setenv bootarg.storageencryption.support false

      Nota

      Non è possibile combinare dischi FIPS con altri tipi di dischi sullo stesso nodo o coppia ha.

      È possibile combinare SED con dischi non crittografanti sullo stesso nodo o coppia ha.

    2. Accedere al menu di avvio speciale e selezionare l'opzione (10) Set Onboard Key Manager recovery secrets.

      Inserire la passphrase e le informazioni di backup registrate in precedenza. Vedere "Gestire le chiavi di autenticazione utilizzando Onboard Key Manager".

  17. ] se la versione di ONTAP installata su node3 è uguale o successiva alla versione di ONTAP 9 installata su node1, elencare e riassegnare i dischi al nuovo node3:

    boot_ontap

    Attenzione Se questo nuovo nodo è stato utilizzato in qualsiasi altro cluster o coppia ha, è necessario eseguire wipeconfig prima di procedere. In caso contrario, potrebbero verificarsi interruzioni del servizio o perdita di dati. Contattare il supporto tecnico se il controller sostitutivo è stato utilizzato in precedenza, in particolare se i controller eseguivano ONTAP in 7-Mode.
  18. premere CTRL-C per visualizzare il menu di avvio.

  19. eseguire una delle seguenti operazioni:

    Se il sistema che si sta aggiornando…​ Quindi…​

    Non ha la versione ONTAP corretta o corrente sul nodo 3

    Passare a. Fase 20.

    Ha la versione corretta o attuale di ONTAP al nodo 3

    Passare a. Fase 25.

  20. configurare la connessione netboot scegliendo una delle seguenti operazioni.

    Nota È necessario utilizzare la porta di gestione e l'IP come connessione di netboot. Non utilizzare un IP LIF dei dati, altrimenti potrebbe verificarsi un'interruzione dei dati durante l'aggiornamento.
    Se DHCP (Dynamic host Configuration Protocol) è…​ Quindi…​

    In esecuzione

    Configurare la connessione automaticamente immettendo il seguente comando al prompt dell'ambiente di boot:
    ifconfig e0M -auto

    Non in esecuzione

    Configurare manualmente la connessione immettendo il seguente comando al prompt dell'ambiente di boot:
    ifconfig e0M -addr=filer_addr -mask=netmask -gw=gateway -dns=dns_addr -domain=dns_domain

    filer_addr È l'indirizzo IP del sistema di storage (obbligatorio).
    netmask è la maschera di rete del sistema di storage (obbligatoria).
    gateway è il gateway per il sistema storage (obbligatorio).
    dns_addr È l'indirizzo IP di un name server sulla rete (opzionale).
    dns_domain È il nome di dominio DNS (Domain Name Service). Se si utilizza questo parametro opzionale, non è necessario un nome di dominio completo nell'URL del server netboot; è necessario solo il nome host del server.

    Nota Potrebbero essere necessari altri parametri per l'interfaccia. Invio help ifconfig al prompt del firmware per ulteriori informazioni.
  21. Esegui netboot su node3:

    Per…​ Quindi…​

    Sistemi della serie FAS/AFF8000

    netboot http://<web_server_ip>/<path_to_webaccessible_directory>/netboot/kernel

    Tutti gli altri sistemi

    netboot http://<web_server_ip>/<path_to_webaccessible_directory>/<ontap_version>_image.tgz

    Il <path_to_the_web-accessible_directory> consente di accedere alla posizione in cui è stato scaricato <ontap_version>_image.tgz poll "Fase 1" Nella sezione Prepare for netboot.

    Nota Non interrompere l'avvio.
  22. dal menu di avvio, selezionare l'opzione (7) installare prima il nuovo software.

    Questa opzione di menu consente di scaricare e installare la nuova immagine ONTAP sul dispositivo di avvio.

    Ignorare il seguente messaggio:

    This procedure is not supported for Non-Disruptive Upgrade on an HA pair

    La nota si applica agli aggiornamenti senza interruzioni di ONTAP e non agli aggiornamenti dei controller.

    Nota Utilizzare sempre netboot per aggiornare il nuovo nodo all'immagine desiderata. Se si utilizza un altro metodo per installare l'immagine sul nuovo controller, l'immagine potrebbe essere errata. Questo problema riguarda tutte le versioni di ONTAP. La procedura di netboot combinata con l'opzione (7) Install new software Consente di cancellare il supporto di avvio e di posizionare la stessa versione di ONTAP ONTAP su entrambe le partizioni dell'immagine.
  23. se viene richiesto di continuare la procedura, immettere `y`E quando viene richiesto il pacchetto, immettere il seguente URL:

    http://<web_server_ip>/<path_to_web-accessible_directory>/<ontap_version_image>.tgz

  24. completare i seguenti passaggi secondari:

    1. Invio n per ignorare il ripristino del backup quando viene visualizzato il seguente prompt:

      Do you want to restore the backup configuration now? {y|n}
    2. Riavviare immettendo y quando viene visualizzato il seguente prompt:

      The node must be rebooted to start using the newly installed software. Do you want to reboot now? {y|n}

      Il modulo controller si riavvia ma si arresta al menu di avvio perché il dispositivo di avvio è stato riformattato e i dati di configurazione devono essere ripristinati.

  25. selezionare (5) Maintenance mode boot immettendo 5, quindi immettere y quando viene richiesto di continuare con l'avvio.

  26. prima di continuare, visitare il sito "Impostare la configurazione FC o UTA/UTA2 su node3" Apportare le modifiche necessarie alle porte FC o UTA/UTA2 del nodo.

    Apportare le modifiche consigliate in queste sezioni, riavviare il nodo e passare alla modalità di manutenzione.

  27. trova l'ID di sistema di node3:

    disk show -a

    Il sistema visualizza l'ID di sistema del nodo e le informazioni relative ai dischi, come mostrato nell'esempio seguente:

     *> disk show -a
     Local System ID: 536881109
     DISK     OWNER                    POOL  SERIAL   HOME          DR
     HOME                                    NUMBER
     -------- -------------            ----- -------- ------------- -------------
     0b.02.23 nst-fas2520-2(536880939) Pool0 KPG2RK6F nst-fas2520-2(536880939)
     0b.02.13 nst-fas2520-2(536880939) Pool0 KPG3DE4F nst-fas2520-2(536880939)
     0b.01.13 nst-fas2520-2(536880939) Pool0 PPG4KLAA nst-fas2520-2(536880939)
     ......
     0a.00.0               (536881109) Pool0 YFKSX6JG              (536881109)
     ......
    Nota Potrebbe essere visualizzato il messaggio disk show: No disks match option -a. dopo aver immesso il comando. Non si tratta di un messaggio di errore, pertanto è possibile continuare con la procedura.
  28. Riassegnare le parti di ricambio di node1, i dischi appartenenti alla directory root e gli aggregati non root che non sono stati ricollocati in node2 precedentemente in "Spostare gli aggregati non root dal nodo 1 al nodo 2".

    Inserire il modulo appropriato di disk reassign comando basato sulla presenza di dischi condivisi nel sistema:

    Nota Se nel sistema sono presenti dischi condivisi, aggregati ibridi o entrambi, è necessario utilizzare il corretto disk reassign dalla seguente tabella.
    Se il tipo di disco è…​ Quindi eseguire il comando…​

    Con dischi condivisi

    disk reassign -s node1_sysid -d node3_sysid -p node2_sysid

    Senza dischi condivisi

    disk reassign -s node1_sysid -d node3_sysid

    Per node1_sysid utilizzare le informazioni acquisite in "Registrare le informazioni del nodo 1". Per ottenere il valore per node3_sysid, utilizzare sysconfig comando.

    Nota Il -p l'opzione è richiesta solo in modalità di manutenzione quando sono presenti dischi condivisi.

    Il disk reassign il comando riassegna solo i dischi per i quali node1_sysid è il proprietario corrente.

    Il sistema visualizza il seguente messaggio:

    Partner node must not be in Takeover mode during disk reassignment from maintenance mode.
    Serious problems could result!!
    Do not proceed with reassignment if the partner is in takeover mode. Abort reassignment (y/n)?
  29. Invio n.

    Il sistema visualizza il seguente messaggio:

    After the node becomes operational, you must perform a takeover and giveback of the HA partner node to ensure disk reassignment is successful.
    Do you want to continue (y/n)?
  30. Invio y

    Il sistema visualizza il seguente messaggio:

    Disk ownership will be updated on all disks previously belonging to Filer with sysid <sysid>.
    Do you want to continue (y/n)?
  31. Invio y.

  32. se si esegue l'aggiornamento da un sistema con dischi esterni a un sistema che supporta dischi interni ed esterni (ad esempio, sistemi AFF A800), impostare l'aggregato node1 come root per confermare che node3 si avvia dall'aggregato root di node1.

    Attenzione Attenzione: È necessario eseguire le seguenti fasi secondarie nell'ordine esatto indicato; in caso contrario, si potrebbe verificare un'interruzione o addirittura la perdita di dati.

    La seguente procedura imposta node3 per l'avvio dall'aggregato root di node1:

    1. Controllare le informazioni su RAID, plex e checksum per l'aggregato node1:

      aggr status -r

    2. Controllare lo stato dell'aggregato node1:

      aggr status

    3. Se necessario, portare online l'aggregato node1:

      aggr_online root_aggr_from_node1

    4. Impedire al node3 di avviarsi dal proprio aggregato root originale:
      aggr offline root_aggr_on_node3

    5. Impostare l'aggregato root node1 come nuovo aggregato root per node3:

      aggr options aggr_from_node1 root

    6. Verificare che l'aggregato root di node3 sia offline e che l'aggregato root per i dischi portati da node1 sia online e impostato su root:

      aggr status

      Nota La mancata esecuzione del passaggio secondario precedente potrebbe causare l'avvio di node3 dall'aggregato root interno, oppure il sistema potrebbe presumere l'esistenza di una nuova configurazione del cluster o richiedere di identificarne una.

      Di seguito viene riportato un esempio dell'output del comando:

     ---------------------------------------------------------------
          Aggr State               Status          Options
     aggr0_nst_fas8080_15 online   raid_dp, aggr   root, nosnap=on
                                   fast zeroed
                                   64-bit
    
       aggr0 offline               raid_dp, aggr   diskroot
                                   fast zeroed
                                   64-bit
     ----------------------------------------------------------------------
  33. verificare che il controller e lo chassis siano configurati come ha:

    ha-config show

    L'esempio seguente mostra l'output del comando ha-config show:

     *> ha-config show
        Chassis HA configuration: ha
        Controller HA configuration: ha

    I sistemi registrano in una ROM programmabile (PROM) se si trovano in una configurazione a coppia ha o standalone. Lo stato deve essere lo stesso su tutti i componenti all'interno del sistema standalone o della coppia ha.

    Se il controller e lo chassis non sono configurati come "ha", utilizzare i seguenti comandi per correggere la configurazione:

    ha-config modify controller ha

    ha-config modify chassis ha

    Se si dispone di una configurazione MetroCluster, utilizzare i seguenti comandi per modificare il controller e lo chassis:

    ha-config modify controller mcc

    ha-config modify chassis mcc

  34. distruggere le caselle di posta sul node3:

    mailbox destroy local

    La console visualizza il seguente messaggio:

    Destroying mailboxes forces a node to create new empty mailboxes, which clears any takeover state, removes all knowledge of out-of-date plexes of mirrored volumes, and will prevent management services from going online in 2-node cluster HA configurations. Are you sure you want to destroy the local mailboxes?
  35. Invio y quando viene richiesto di confermare che si desidera distruggere le caselle postali locali.

  36. Esci dalla modalità di manutenzione:

    halt

    Il sistema si arresta al prompt dell'ambiente di avvio.

  37. al node2, controllare la data, l'ora e il fuso orario del sistema:

    date

  38. al node3, controllare la data al prompt dell'ambiente di boot:

    show date

  39. se necessario, impostare la data su node3:

    set date mm/dd/yyyy

  40. al node3, controllare l'ora al prompt dell'ambiente di boot:

    show time

  41. se necessario, impostare l'ora su node3:

    set time hh:mm:ss

  42. verificare che l'ID di sistema del partner sia impostato correttamente, come indicato nella Fase 28 sotto l'interruttore -p:

    printenv partner-sysid

  43. se necessario, impostare l'ID di sistema del partner su node3:

    setenv partner-sysid node2_sysid

    Salvare le impostazioni:

    saveenv

  44. accedere al menu di boot al prompt dell'ambiente di boot:

    boot_ontap menu

  45. dal menu di avvio, selezionare l'opzione (6) Aggiorna flash dalla configurazione di backup immettendo 6 quando richiesto.

    Il sistema visualizza il seguente messaggio:

    This will replace all flash-based configuration with the last backup to disks. Are you sure you want to continue?:
  46. Invio y quando richiesto.

    L'avvio procede normalmente e il sistema chiede di confermare la mancata corrispondenza dell'ID di sistema.

    Nota Il sistema potrebbe riavviarsi due volte prima di visualizzare l'avviso di mancata corrispondenza.
  47. confermare la mancata corrispondenza come mostrato nell'esempio seguente:

    WARNING: System id mismatch. This usually occurs when replacing CF or NVRAM cards!
    Override system id (y|n) ? [n] y

    Il nodo potrebbe essere sottoposto a un ciclo di riavvio prima dell'avvio normale.

  48. Accedi a node3.