Impostare la configurazione FC o UTA/UTA2 su node3
Se node3 dispone di porte FC integrate, porte UTA/UTA2 (onboard Unified target adapter) o una scheda UTA/UTA2, è necessario configurare le impostazioni prima di completare il resto della procedura.
Potrebbe essere necessario completare la sezione Configurare le porte FC sul nodo 3, la sezione Controllare e configurare le porte UTA/UTA2 sul nodo 3, o entrambe le sezioni.
I materiali di marketing NetApp potrebbero utilizzare il termine UTA2 per fare riferimento alle porte e agli adattatori CNA (Converged Network Adapter). Tuttavia, la CLI utilizza il termine CNA. |
-
Se node3 non dispone di porte FC integrate, porte UTA/UTA2 integrate o una scheda UTA/UTA2 e si sta eseguendo l'aggiornamento di un sistema con dischi di storage, passare alla sezione "Verificare l'installazione di node3" sezione.
-
Tuttavia, se si dispone di un sistema V-Series o di un sistema con software di virtualizzazione FlexArray con storage array e node3 non dispone di porte FC integrate, porte UTA/UTA integrate o una scheda UTA/UTA2, tornare alla sezione Installazione e boot node3 e riprendere la sezione all'indirizzo "Fase 23".
Configurare le porte FC sul nodo 3
Se node3 dispone di porte FC, integrate o su un adattatore FC, è necessario impostare le configurazioni delle porte sul nodo prima di metterlo in servizio, perché le porte non sono preconfigurate. Se le porte non sono configurate, si potrebbe verificare un'interruzione del servizio.
È necessario disporre dei valori delle impostazioni della porta FC del nodo 1 salvati nella sezione "Preparare i nodi per l'aggiornamento".
È possibile saltare questa sezione se il sistema non dispone di configurazioni FC. Se il sistema dispone di porte UTA/UTA2 integrate o di una scheda UTA/UTA2, configurarle in Controllare e configurare le porte UTA/UTA2 sul nodo 3.
Se il sistema dispone di dischi di storage, immettere i comandi in questa sezione al prompt del cluster. Se si dispone di un "sistema V-Series" o si dispone del software di virtualizzazione FlexArray e si è connessi agli array di storage, immettere i comandi in questa sezione nella modalità di manutenzione. |
-
[[fase 1]]Confronta le impostazioni FC sul nodo 3 con quelle acquisite in precedenza dal nodo 1.
-
eseguire una delle seguenti operazioni:
Se il sistema che si sta aggiornando… Quindi… Dispone di dischi di storage
In modalità di manutenzione (opzione 5 nel menu di avvio), modificare le porte FC sul nodo 3 in base alle necessità:
-
Per programmare le porte di destinazione:
ucadmin modify -m fc -t target adapter
-
Per programmare le porte initiator:
ucadmin modify -m fc -t initiator adapter
-t
È il tipo FC4: Destinazione o iniziatore.È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage
In modalità di manutenzione (opzione 5 nel menu di avvio), modificare le porte FC sul nodo 3 in base alle necessità:
ucadmin modify -m fc -t initiator -f adapter_port_name
-t
È il tipo, la destinazione o l'iniziatore FC4.Le porte FC devono essere programmate come iniziatori. -
-
eseguire una delle seguenti operazioni:
Se il sistema che si sta aggiornando… Quindi… Dispone di dischi di storage
Verificare le nuove impostazioni utilizzando il seguente comando ed esaminare l'output:
ucadmin show
È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage
Verificare le nuove impostazioni utilizzando il seguente comando ed esaminare l'output:
ucadmin show
-
Esci dalla modalità di manutenzione:
halt
-
Avviare il sistema dal prompt del CARICATORE:
boot_ontap menu
-
dopo aver immesso il comando, attendere che il sistema si arresti al prompt dell'ambiente di avvio.
-
Selezionare l'opzione
5
dal menu di avvio per la modalità di manutenzione. -
eseguire una delle seguenti operazioni:
Se il sistema che si sta aggiornando… Quindi… Dispone di dischi di storage
-
Se node3 ha una scheda UTA/UTA2 o porte UTA/UTA2 integrate, passare alla sezione Controllare e configurare le porte UTA/UTA2 sul nodo 3.
-
Se node3 non dispone di una scheda UTA/UTA2 o di porte UTA/UTA2 integrate, saltare la sezione Controllare e configurare le porte UTA/UTA2 sul nodo 3 e andare alla sezione "Verificare l'installazione di node3".
È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage
-
Se node3 ha una scheda UTA/UTA2 o porte UTA/UTA2 integrate, passare alla sezione Controllare e configurare le porte UTA/UTA2 sul nodo 3.
-
Se node3 non dispone di una scheda UTA/UTA2 o di porte UTA/UTA2 integrate, saltare la sezione Controllare e configurare le porte UTA/UTA2 sul nodo 3 E tornare alla sezione Installazione e boot node3 e riprendere da "Fase 23".
-
Controllare e configurare le porte UTA/UTA2 sul nodo 3
Se node3 dispone di porte UTA/UTA2 integrate o di una scheda UTA/UTA2, è necessario controllare la configurazione delle porte ed eventualmente riconfigurarle, a seconda di come si desidera utilizzare il sistema aggiornato.
È necessario disporre dei moduli SFP+ corretti per le porte UTA/UTA2.
Se si desidera utilizzare una porta UTA/UTA2 (Unified Target Adapter) per FC, è necessario prima verificare la configurazione della porta.
I materiali di marketing NetApp potrebbero utilizzare il termine UTA2 per fare riferimento agli adattatori e alle porte CNA. Tuttavia, la CLI utilizza il termine CNA. |
È possibile utilizzare ucadmin show
comando per verificare la configurazione corrente della porta:
*> ucadmin show Current Current Pending Pending Admin Adapter Mode Type Mode Type Status ------- ------- ------- -------- ---------- -------- 0e fc target - initiator offline 0f fc target - initiator offline 0g fc target - initiator offline 0h fc target - initiator offline 1a fc target - - online 1b fc target - - online 6 entries were displayed.
Le porte UTA/UTA2 possono essere configurate in modalità FC nativa o UTA/UTA2. La modalità FC supporta l'iniziatore FC e la destinazione FC; la modalità UTA/UTA2 consente la condivisione simultanea del traffico NIC e FCoE con la stessa interfaccia SFP+ 10 GbE e supporta le destinazioni FC.
Le porte UTA/UTA2 potrebbero essere presenti su un adattatore o sul controller e presentano le seguenti configurazioni, ma è necessario controllare la configurazione delle porte UTA/UTA2 sul nodo 3 e modificarla, se necessario:
-
Le schede UTA/UTA2 ordinate al momento dell'ordine del controller vengono configurate prima della spedizione per avere la personalità richiesta.
-
Le schede UTA/UTA2 ordinate separatamente dal controller vengono fornite con il linguaggio di destinazione FC predefinito.
-
Le porte UTA/UTA2 integrate sui nuovi controller vengono configurate prima della spedizione in modo da avere la personalità richiesta.
Attenzione: Se il sistema dispone di dischi di storage, immettere i comandi in questa sezione al prompt del cluster, a meno che non venga richiesto di accedere alla modalità di manutenzione. Se si dispone di un sistema V- Series o del software di virtualizzazione FlexArray e si è connessi agli array di storage, immettere i comandi in questa sezione al prompt della modalità di manutenzione. Per configurare le porte UTA/UTA2, è necessario essere in modalità di manutenzione.
-
controllare la configurazione delle porte immettendo il seguente comando sul nodo 3:
Se il sistema… Quindi… Dispone di dischi di storage
Non è richiesta alcuna azione.
È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage
ucadmin show
Il sistema visualizza un output simile al seguente esempio:
*> ucadmin show Current Current Pending Pending Admin Adapter Mode Type Mode Type Status ------- ------- --------- ------- -------- --------- 0e fc initiator - - online 0f fc initiator - - online 0g cna target - - online 0h cna target - - online 0e fc initiator - - online 0f fc initiator - - online 0g cna target - - online 0h cna target - - online *>
-
[[fase 2]]se il modulo SFP+ corrente non corrisponde all'utilizzo desiderato, sostituirlo con il modulo SFP+ corretto.
Contattare il rappresentante NetApp per ottenere il modulo SFP+ corretto.
-
esaminare l'output di
ucadmin show
Controllare e determinare se le porte UTA/UTA2 hanno la personalità desiderata. -
eseguire una delle seguenti operazioni:
Se le porte UTA/UTA2… Quindi… Non avere la personalità che si desidera
Passare a. Fase 5.
Avere la personalità che si desidera
Saltare i passaggi da 5 a 12 e passare a. Fase 13.
-
eseguire una delle seguenti operazioni:
Se si sta configurando… Quindi… Porte su una scheda UTA/UTA2
Passare a. Fase 7
Porte UTA/UTA2 integrate
Saltare la fase 7 e passare a. Fase 8.
-
se la scheda di rete è in modalità Initiator e la porta UTA/UTA2 è in linea, portare la porta UTA/UTA2 offline:
storage disable adapter adapter_name
Gli adattatori in modalità di destinazione sono automaticamente offline in modalità di manutenzione.
-
se la configurazione corrente non corrisponde all'utilizzo desiderato, modificare la configurazione in base alle necessità:
ucadmin modify -m fc|cna -t initiator|target adapter_name
-
-m
è la modalità personality,fc
oppurecna
. -
-t
È di tipo FC4,target
oppureinitiator
.È necessario utilizzare FC Initiator per unità nastro, sistemi di virtualizzazione FlexArray e configurazioni MetroCluster. È necessario utilizzare la destinazione FC per i client SAN.
-
-
ucadmin show
-
Se il sistema… Quindi… Dispone di dischi di storage
ucadmin show
È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage
ucadmin show
L'output degli esempi seguenti mostra che il tipo di adattatore FC4 "1b" sta cambiando in
initiator
e che la modalità degli adattatori "2a" e "2b" stia cambiando incna
:*> ucadmin show Current Current Pending Pending Admin Adapter Mode Type Mode Type Status ------- -------- ---------- ------- -------- -------- 1a fc initiator - - online 1b fc target - initiator online 2a fc target cna - online 2b fc target cna - online *>
-
posizionare le porte di destinazione online immettendo uno dei seguenti comandi, una volta per ciascuna porta:
Se il sistema… Quindi… Dispone di dischi di storage
network fcp adapter modify -node node_name -adapter adapter_name -state up
È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage
fcp config adapter_name up
-
eseguire una delle seguenti operazioni:
Se il sistema… Quindi… Dispone di dischi di storage
Passare a. "Verificare l'installazione di node3".
È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage
Tornare alla sezione Installazione e boot node3 e riprendere il lavoro dal punto "Fase 23".
-
Esci dalla modalità di manutenzione:
halt
-
avviare il nodo nel menu di boot eseguendo
boot_ontap menu
. Se si sta eseguendo l'aggiornamento a un sistema A800, visitare il sito Web all'indirizzo Fase 23. -
Su node3, andare al menu di avvio e utilizzando 22/7, selezionare l'opzione nascosta
boot_after_controller_replacement
. Al prompt, immettere node1 per riassegnare i dischi di node1 a node3, come nell'esempio seguente.Espandere l'esempio di output della console
LOADER-A> boot_ontap menu . <output truncated> . All rights reserved. ******************************* * * * Press Ctrl-C for Boot Menu. * * * ******************************* . <output truncated> . Please choose one of the following: (1) Normal Boot. (2) Boot without /etc/rc. (3) Change password. (4) Clean configuration and initialize all disks. (5) Maintenance mode boot. (6) Update flash from backup config. (7) Install new software first. (8) Reboot node. (9) Configure Advanced Drive Partitioning. (10) Set Onboard Key Manager recovery secrets. (11) Configure node for external key management. Selection (1-11)? 22/7 (22/7) Print this secret List (25/6) Force boot with multiple filesystem disks missing. (25/7) Boot w/ disk labels forced to clean. (29/7) Bypass media errors. (44/4a) Zero disks if needed and create new flexible root volume. (44/7) Assign all disks, Initialize all disks as SPARE, write DDR labels . <output truncated> . (wipeconfig) Clean all configuration on boot device (boot_after_controller_replacement) Boot after controller upgrade (boot_after_mcc_transition) Boot after MCC transition (9a) Unpartition all disks and remove their ownership information. (9b) Clean configuration and initialize node with partitioned disks. (9c) Clean configuration and initialize node with whole disks. (9d) Reboot the node. (9e) Return to main boot menu. The boot device has changed. System configuration information could be lost. Use option (6) to restore the system configuration, or option (4) to initialize all disks and setup a new system. Normal Boot is prohibited. Please choose one of the following: (1) Normal Boot. (2) Boot without /etc/rc. (3) Change password. (4) Clean configuration and initialize all disks. (5) Maintenance mode boot. (6) Update flash from backup config. (7) Install new software first. (8) Reboot node. (9) Configure Advanced Drive Partitioning. (10) Set Onboard Key Manager recovery secrets. (11) Configure node for external key management. Selection (1-11)? boot_after_controller_replacement This will replace all flash-based configuration with the last backup to disks. Are you sure you want to continue?: yes . <output truncated> . Controller Replacement: Provide name of the node you would like to replace:<nodename of the node being replaced> Changing sysid of node node1 disks. Fetched sanown old_owner_sysid = 536940063 and calculated old sys id = 536940063 Partner sysid = 4294967295, owner sysid = 536940063 . <output truncated> . varfs_backup_restore: restore using /mroot/etc/varfs.tgz varfs_backup_restore: attempting to restore /var/kmip to the boot device varfs_backup_restore: failed to restore /var/kmip to the boot device varfs_backup_restore: attempting to restore env file to the boot device varfs_backup_restore: successfully restored env file to the boot device wrote key file "/tmp/rndc.key" varfs_backup_restore: timeout waiting for login varfs_backup_restore: Rebooting to load the new varfs Terminated <node reboots> System rebooting... . Restoring env file from boot media... copy_env_file:scenario = head upgrade Successfully restored env file from boot media... Rebooting to load the restored env file... . System rebooting... . <output truncated> . WARNING: System ID mismatch. This usually occurs when replacing a boot device or NVRAM cards! Override system ID? {y|n} y . Login:
Nell'esempio di output della console precedente, ONTAP richiederà il nome del nodo partner se il sistema utilizza dischi di partizione avanzata dei dischi (ADP). -
Se il sistema entra in un loop di riavvio con il messaggio
no disks found
, Indica che il sistema ha ripristinato le porte FC o UTA/UTA2 alla modalità di destinazione e quindi non è in grado di vedere alcun disco. Per risolvere il problema, continuare con Fase 17 a. Fase 22oppure passare alla sezione "Verificare l'installazione di node3". -
premere Ctrl-C durante L'OPERAZIONE di AUTOBOOT per arrestare il nodo al prompt LOADER>.
-
al prompt DEL CARICATORE, accedere alla modalità di manutenzione:
boot_ontap maint
-
in modalità di manutenzione, visualizzare tutte le porte iniziatore precedentemente impostate che si trovano ora in modalità di destinazione:
ucadmin show
Riportare le porte in modalità initiator:
ucadmin modify -m fc -t initiator -f adapter name
-
verificare che le porte siano state modificate in modalità initiator:
ucadmin show
-
uscire dalla modalità di manutenzione:
halt
Se si esegue l'aggiornamento da un sistema che supporta dischi esterni a un sistema che supporta anche dischi esterni, visitare il sito Web Fase 22.
Se si esegue l'aggiornamento da un sistema che supporta dischi esterni a un sistema che supporta dischi interni ed esterni, ad esempio un sistema AFF A800, visitare il sito Web Fase 23.
-
al prompt del CARICATORE, avviare:
boot_ontap menu
Ora, all'avvio, il nodo è in grado di rilevare tutti i dischi ad esso assegnati in precedenza e di avviarsi come previsto.
Quando i nodi del cluster che si stanno sostituendo utilizzano la crittografia dei volumi root, ONTAP non è in grado di leggere le informazioni sul volume dai dischi. Ripristinare le chiavi del volume root.
Ciò si applica solo quando il volume principale utilizza la crittografia dei volumi di NetApp. -
Tornare al menu di avvio speciale:
LOADER> boot_ontap menu
Please choose one of the following: (1) Normal Boot. (2) Boot without /etc/rc. (3) Change password. (4) Clean configuration and initialize all disks. (5) Maintenance mode boot. (6) Update flash from backup config. (7) Install new software first. (8) Reboot node. (9) Configure Advanced Drive Partitioning. (10) Set Onboard Key Manager recovery secrets. (11) Configure node for external key management. Selection (1-11)? 10
-
Selezionare (10) Imposta segreti di ripristino di Onboard Key Manager
-
Invio
y
al seguente prompt:This option must be used only in disaster recovery procedures. Are you sure? (y or n): y
-
Quando richiesto, inserire la passphrase del gestore delle chiavi.
-
Inserire i dati di backup quando richiesto.
È necessario aver ottenuto la passphrase e i dati di backup in "Preparare i nodi per l'aggiornamento" sezione di questa procedura. -
Dopo aver riavviato il sistema con lo speciale menu di boot, eseguire l'opzione (1) Avvio normale
In questa fase potrebbe verificarsi un errore. Se si verifica un errore, ripetere i passaggi secondari in Fase 22 fino a quando il sistema non si avvia normalmente.
-
-
se si esegue l'aggiornamento da un sistema con dischi esterni a un sistema che supporta dischi interni ed esterni (ad esempio, sistemi AFF A800), impostare l'aggregato node1 come aggregato root per confermare che node3 si avvia dall'aggregato root di node1. Per impostare l'aggregato root, accedere al menu di boot e selezionare l'opzione
5
per accedere alla modalità di manutenzione.È necessario eseguire i seguenti passaggi secondari nell'ordine esatto indicato; in caso contrario, si potrebbe verificare un'interruzione o addirittura la perdita di dati. La seguente procedura imposta node3 per l'avvio dall'aggregato root di node1:
-
Accedere alla modalità di manutenzione:
boot_ontap maint
-
Controllare le informazioni su RAID, plex e checksum per l'aggregato node1:
aggr status -r
-
Controllare lo stato dell'aggregato node1:
aggr status
-
Se necessario, portare online l'aggregato node1:
aggr_online root_aggr_from_node1
-
Impedire al node3 di avviarsi dal proprio aggregato root originale:
aggr offline root_aggr_on_node3
-
Impostare l'aggregato root node1 come nuovo aggregato root per node3:
aggr options aggr_from_node1 root
-
Verificare che l'aggregato root di node3 sia offline e che l'aggregato root per i dischi portati da node1 sia online e impostato su root:
aggr status
La mancata esecuzione del passaggio secondario precedente potrebbe causare l'avvio di node3 dall'aggregato root interno, oppure il sistema potrebbe presumere l'esistenza di una nuova configurazione del cluster o richiedere di identificarne una. Di seguito viene riportato un esempio dell'output del comando:
----------------------------------------------------------------- Aggr State Status Options aggr0_nst_fas8080_15 online raid_dp, aggr root, nosnap=on fast zeroed 64-bit aggr0 offline raid_dp, aggr diskroot fast zeroed 64-bit -----------------------------------------------------------------
-