Skip to main content
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Impostare la configurazione FC o UTA/UTA2 su node4

Collaboratori

Se node4 dispone di porte FC integrate, porte UTA/UTA2 (onboard Unified target adapter) o una scheda UTA/UTA2, è necessario configurare le impostazioni prima di completare il resto della procedura.

A proposito di questa attività

Potrebbe essere necessario completare il Configurare le porte FC sul nodo 4 sezione, la Controllare e configurare le porte UTA/UTA2 sul nodo 4, o entrambe le sezioni.

Nota Se node4 non dispone di porte FC integrate, porte UTA/UTA2 integrate o una scheda UTA/UTA2 e si sta eseguendo l'aggiornamento di un sistema con dischi di storage, è possibile passare a. "Verificare l'installazione di node4". Tuttavia, se si dispone di un sistema V-Series o di un software di virtualizzazione FlexArray e si è connessi a storage array, e node4 non dispone di porte FC integrate, porte UTA/UTA2 integrate o una scheda UTA/UTA2, tornare alla sezione Installazione e boot node4 e riprendere a "Fase 22". Assicurarsi che il node4 disponga di spazio rack sufficiente. Se il nodo 4 si trova in uno chassis separato dal nodo 2, è possibile inserire il nodo 4 nella stessa posizione del nodo 3. Se node2 e node4 si trovano nello stesso chassis, node4 si trova già nella posizione rack appropriata.

Configurare le porte FC sul nodo 4

Se node4 dispone di porte FC, integrate o su un adattatore FC, è necessario impostare le configurazioni delle porte sul nodo prima di metterlo in servizio, perché le porte non sono preconfigurate. Se le porte non sono configurate, si potrebbe verificare un'interruzione del servizio.

Prima di iniziare

È necessario disporre dei valori delle impostazioni della porta FC del nodo 2 salvati nella sezione "Preparare i nodi per l'aggiornamento".

A proposito di questa attività

È possibile saltare questa sezione se il sistema non dispone di configurazioni FC. Se il sistema dispone di porte UTA/UTA2 integrate o di un adattatore UTA/UTA2, configurarle in Controllare e configurare le porte UTA/UTA2 sul nodo 4.

Importante Se il sistema dispone di dischi di storage, è necessario immettere i comandi in questa sezione al prompt del cluster. Se si dispone di un sistema V-Series o di un sistema con software di virtualizzazione FlexArray collegato agli array di storage, immettere i comandi in questa sezione in modalità manutenzione.
Fasi
  1. Eseguire una delle seguenti operazioni:

    Se il sistema che si sta aggiornando…​ Quindi…

    Dispone di dischi di storage

    system node hardware unified-connect show

    È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage

    ucadmin show

    Il sistema visualizza informazioni su tutti gli adattatori di rete FC e convergenti del sistema.

  2. Confrontare le impostazioni FC sul nodo 4 con quelle acquisite in precedenza dal nodo 1.

  3. Eseguire una delle seguenti operazioni:

    Se il sistema che si sta aggiornando…​ Quindi…

    Dispone di dischi di storage

    Modificare le porte FC sul nodo 4 in base alle necessità:

    • Per programmare le porte di destinazione:

      ucadmin modify -m fc -t target adapter

    • Per programmare le porte initiator:

      ucadmin modify -m fc -t initiator adapter

    -t È il tipo FC4: Destinazione o iniziatore.

    È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage

    Modificare le porte FC sul nodo 4 in base alle necessità:

    ucadmin modify -m fc -t initiator -f adapter_port_name

    -t È il tipo, la destinazione o l'iniziatore FC4.

    Nota Le porte FC devono essere programmate come iniziatori.
  4. Uscire dalla modalità di manutenzione:

    halt

  5. Avviare il sistema dal prompt del caricatore:

    boot_ontap menu

  6. Dopo aver immesso il comando, attendere che il sistema si arresti al prompt dell'ambiente di avvio.

  7. Selezionare l'opzione 5 dal menu di avvio per la modalità di manutenzione.

  8. eseguire una delle seguenti operazioni:

    Se il sistema che si sta aggiornando…​ Quindi…

    Dispone di dischi di storage

    È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage

    • Passare a. Controllare e configurare le porte UTA/UTA2 sul nodo 4 Se node4 ha una scheda UTA/UTA2 o porte UTA/UTA2 integrate.

    • Saltare la sezione controllare e configurare le porte UTA/UTA2 su node4 se node4 non dispone di una scheda UTA/UTA2 o di porte integrate UTA/UTA2, tornare alla sezione Installazione e boot node4 e riprendere da "Fase 23".

Controllare e configurare le porte UTA/UTA2 sul nodo 4

Se node4 dispone di porte UTA/UTA2 integrate o di una scheda UTA/UTA2A, è necessario controllare la configurazione delle porte e configurarle, a seconda di come si desidera utilizzare il sistema aggiornato.

Prima di iniziare

È necessario disporre dei moduli SFP+ corretti per le porte UTA/UTA2.

A proposito di questa attività

Le porte UTA/UTA2 possono essere configurate in modalità FC nativa o UTA/UTA2A. La modalità FC supporta l'iniziatore FC e la destinazione FC; la modalità UTA/UTA2 consente al traffico simultaneo di NIC e FCoE di condividere la stessa interfaccia SFP+ 10 GbE e supporta la destinazione FC.

Nota I materiali di marketing NetApp potrebbero utilizzare il termine UTA2 per fare riferimento agli adattatori e alle porte CNA. Tuttavia, la CLI utilizza il termine CNA.

Le porte UTA/UTA2 potrebbero essere su un adattatore o sul controller con le seguenti configurazioni:

  • Le schede UTA/UTA2 ordinate contemporaneamente al controller vengono configurate prima della spedizione in modo da avere la personalità richiesta.

  • Le schede UTA/UTA2 ordinate separatamente dal controller vengono fornite con il linguaggio di destinazione FC predefinito.

  • Le porte UTA/UTA2 integrate sui nuovi controller sono configurate (prima della spedizione) in modo da avere la personalità richiesta.

Tuttavia, è necessario controllare la configurazione delle porte UTA/UTA2 sul nodo 4 e modificarla, se necessario.

Attenzione Attenzione: Se il sistema dispone di dischi di storage, immettere i comandi in questa sezione al prompt del cluster, a meno che non venga richiesto di accedere alla modalità di manutenzione. Se si dispone di un sistema MetroCluster FC, V-Series o un sistema con software di virtualizzazione FlexArray collegato agli array di storage, è necessario essere in modalità di manutenzione per configurare le porte UTA/UTA2.
Fasi
  1. Verificare la configurazione delle porte utilizzando uno dei seguenti comandi sul nodo 4:

    Se il sistema…​ Quindi…

    Dispone di dischi di storage

    system node hardware unified-connect show

    È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage

    ucadmin show

    Il sistema visualizza un output simile al seguente esempio:

    *> ucadmin show
                    Current  Current    Pending   Pending   Admin
    Node   Adapter  Mode     Type       Mode      Type      Status
    ----   -------  ---      ---------  -------   --------  -------
    f-a    0e       fc       initiator  -          -        online
    f-a    0f       fc       initiator  -          -        online
    f-a    0g       cna      target     -          -        online
    f-a    0h       cna      target     -          -        online
    f-a    0e       fc       initiator  -          -        online
    f-a    0f       fc       initiator  -          -        online
    f-a    0g       cna      target     -          -        online
    f-a    0h       cna      target     -          -        online
    *>
  2. Se il modulo SFP+ corrente non corrisponde all'utilizzo desiderato, sostituirlo con il modulo SFP+ corretto.

    Contattare il rappresentante NetApp per ottenere il modulo SFP+ corretto.

  3. Esaminare l'output di ucadmin show Controllare e determinare se le porte UTA/UTA2 hanno la personalità desiderata.

  4. Eseguire una delle seguenti operazioni:

    Se la porta CNA…​ Quindi…

    Non avere la personalità che si desidera

    Passare a. Fase 5.

    Avere la personalità che si desidera

    Saltare i passaggi da 5 a 12 e passare a. Fase 13.

  5. eseguire una delle seguenti operazioni:

    Se si sta configurando…​ Quindi…

    Porte su una scheda UTA/UTA2

    Passare a. Fase 7

    Porte UTA/UTA2 integrate

    Saltare la fase 7 e passare a. Fase 8.

  6. Se l'adattatore è in modalità Initiator e la porta UTA/UTA2 è in linea, portare la porta UTA/UTA2 offline:

    storage disable adapter adapter_name

    Gli adattatori in modalità di destinazione sono automaticamente offline in modalità di manutenzione.

  7. se la configurazione corrente non corrisponde all'utilizzo desiderato, modificare la configurazione in base alle necessità:

    ucadmin modify -m fc|cna -t initiator|target adapter_name

    • -m È la modalità Personality, FC o 10GbE UTA.

    • -t È di tipo FC4, target oppure initiator.

      Nota È necessario utilizzare FC Initiator per unità nastro, sistemi di virtualizzazione FlexArray e configurazioni MetroCluster. È necessario utilizzare la destinazione FC per i client SAN.
  8. verificare le impostazioni utilizzando il seguente comando ed esaminandone l'output:

    ucadmin show

  9. Verificare le impostazioni:

    Se il sistema…​ Quindi…

    Dispone di dischi di storage

    ucadmin show

    È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage

    ucadmin show

    L'output degli esempi seguenti mostra che il tipo di adattatore FC4 "1b" sta cambiando in initiator e che la modalità degli adattatori "2a" e "2b" stia cambiando in cna:

    *> ucadmin show
    Node  Adapter  Current Mode  Current Type  Pending Mode  Pending Type  Admin Status
    ----  -------  ------------  ------------  ------------  ------------  ------------
    f-a   1a       fc             initiator    -             -             online
    f-a   1b       fc             target       -             initiator     online
    f-a   2a       fc             target       cna           -             online
    f-a   2b       fc             target       cna           -             online
    4 entries were displayed.
    *>
  10. Inserire le porte di destinazione in linea immettendo uno dei seguenti comandi, una volta per ciascuna porta:

    Se il sistema…​ Quindi…

    Dispone di dischi di storage

    network fcp adapter modify -node node_name -adapter adapter_name -state up

    È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage

    fcp config adapter_name up

  11. Collegare la porta.

  12. eseguire una delle seguenti operazioni:

    Se il sistema…​ Quindi…

    Dispone di dischi di storage

    Passare a. "Verificare l'installazione di node4".

    È un sistema V-Series o dispone di software di virtualizzazione FlexArray ed è collegato agli array di storage

    Tornare alla sezione Installazione e boot node4 e riprendere il lavoro dal "Fase 23".

  13. Esci dalla modalità di manutenzione:

    halt

  14. nodo di boot nel menu di boot:

    boot_ontap menu.

    Se si sta eseguendo l'aggiornamento a un sistema A800, visitare il sito Web all'indirizzo Fase 23

  15. al nodo 4, accedere al menu di boot e selezionare l'opzione nascosta utilizzando 22 ore su 24, 7 giorni su 7 boot_after_controller_replacement. Al prompt, immettere node2 per riassegnare i dischi di node2 a node4, come nell'esempio seguente.

    Espandere l'esempio di output della console
    LOADER-A> boot_ontap menu
    .
    .
    <output truncated>
    .
    All rights reserved.
    *******************************
    *                             *
    * Press Ctrl-C for Boot Menu. *
    *                             *
    *******************************
    .
    <output truncated>
    .
    Please choose one of the following:
    (1)  Normal Boot.
    (2)  Boot without /etc/rc.
    (3)  Change password.
    (4)  Clean configuration and initialize all disks.
    (5)  Maintenance mode boot.
    (6)  Update flash from backup config.
    (7)  Install new software first.
    (8)  Reboot node.
    (9)  Configure Advanced Drive Partitioning.
    (10) Set Onboard Key Manager recovery secrets.
    (11) Configure node for external key management.
    Selection (1-11)? 22/7
    (22/7)                          Print this secret List
    (25/6)                          Force boot with multiple filesystem disks missing.
    (25/7)                          Boot w/ disk labels forced to clean.
    (29/7)                          Bypass media errors.
    (44/4a)                         Zero disks if needed and create new flexible root volume.
    (44/7)                          Assign all disks, Initialize all disks as SPARE, write DDR labels
    .
    .
    <output truncated>
    .
    .
    (wipeconfig)                        Clean all configuration on boot device
    (boot_after_controller_replacement) Boot after controller upgrade
    (boot_after_mcc_transition)         Boot after MCC transition
    (9a)                                Unpartition all disks and remove their ownership information.
    (9b)                                Clean configuration and initialize node with partitioned disks.
    (9c)                                Clean configuration and initialize node with whole disks.
    (9d)                                Reboot the node.
    (9e)                                Return to main boot menu.
    The boot device has changed. System configuration information could be lost. Use option (6) to
    restore the system configuration, or option (4) to initialize all disks and setup a new system.
    Normal Boot is prohibited.
    Please choose one of the following:
    (1)  Normal Boot.
    (2)  Boot without /etc/rc.
    (3)  Change password.
    (4)  Clean configuration and initialize all disks.
    (5)  Maintenance mode boot.
    (6)  Update flash from backup config.
    (7)  Install new software first.
    (8)  Reboot node.
    (9)  Configure Advanced Drive Partitioning.
    (10) Set Onboard Key Manager recovery secrets.
    (11) Configure node for external key management.
    Selection (1-11)? boot_after_controller_replacement
    This will replace all flash-based configuration with the last backup to disks. Are you sure
    you want to continue?: yes
    .
    .
    <output truncated>
    .
    .
    Controller Replacement: Provide name of the node you would like to replace:
    <nodename of the node being replaced>
    Changing sysid of node node2 disks.
    Fetched sanown old_owner_sysid = 536940063 and calculated old sys id = 536940063
    Partner sysid = 4294967295, owner sysid = 536940063
    .
    .
    <output truncated>
    .
    .
    varfs_backup_restore: restore using /mroot/etc/varfs.tgz
    varfs_backup_restore: attempting to restore /var/kmip to the boot device
    varfs_backup_restore: failed to restore /var/kmip to the boot device
    varfs_backup_restore: attempting to restore env file to the boot device
    varfs_backup_restore: successfully restored env file to the boot device wrote
        key file "/tmp/rndc.key"
    varfs_backup_restore: timeout waiting for login
    varfs_backup_restore: Rebooting to load the new varfs
    Terminated
    <node reboots>
    System rebooting...
    .
    .
    Restoring env file from boot media...
    copy_env_file:scenario = head upgrade
    Successfully restored env file from boot media...
    Rebooting to load the restored env file...
    .
    System rebooting...
    .
    .
    .
    <output truncated>
    .
    .
    .
    .
    WARNING: System ID mismatch. This usually occurs when replacing a
    boot device or NVRAM cards!
    Override system ID? {y|n} y
    .
    .
    .
    .
    Login:
    Nota Nell'esempio di output della console precedente, ONTAP richiederà il nome del nodo partner se il sistema utilizza dischi di partizione avanzata dei dischi (ADP).
  16. Se il sistema entra in un loop di riavvio con il messaggio no disks found, Indica che il sistema ha ripristinato le porte FC o UTA/UTA2 alla modalità di destinazione e quindi non è in grado di vedere alcun disco. Per risolvere il problema, passare alla Fase 17 a. Fase 22 oppure vai alla sezione "Verificare l'installazione di node4".

  17. premere Ctrl-C durante l'autoboot per arrestare il nodo su LOADER> prompt.

  18. Al prompt del caricatore, accedere alla modalità di manutenzione:

    boot_ontap maint

  19. In modalità di manutenzione, visualizzare tutte le porte iniziatore precedentemente impostate che si trovano ora in modalità di destinazione:

    ucadmin show

    Riportare le porte in modalità initiator:

    ucadmin modify -m fc -t initiator -f adapter name

  20. Verificare che le porte siano state modificate in modalità initiator:

    ucadmin show

  21. Uscire dalla modalità di manutenzione:

    halt

    Nota

    Se si esegue l'aggiornamento da un sistema che supporta dischi esterni a un sistema che supporta anche dischi esterni, visitare il sito Web Fase 22.

    Se si esegue l'aggiornamento da un sistema che utilizza dischi esterni a un sistema che supporta dischi interni ed esterni, ad esempio un sistema AFF A800, visitare il sito Web Fase 23.

  22. al prompt del caricatore, avviare:

    boot_ontap menu

    Ora, all'avvio, il nodo è in grado di rilevare tutti i dischi ad esso assegnati in precedenza e di avviarsi come previsto.

    Quando i nodi del cluster che si stanno sostituendo utilizzano la crittografia del volume root, il software ONTAP non è in grado di leggere le informazioni del volume dai dischi. Ripristinare le chiavi del volume root:

    1. Tornare al menu di avvio speciale:
      LOADER> boot_ontap menu

      Please choose one of the following:
      (1) Normal Boot.
      (2) Boot without /etc/rc.
      (3) Change password.
      (4) Clean configuration and initialize all disks.
      (5) Maintenance mode boot.
      (6) Update flash from backup config.
      (7) Install new software first.
      (8) Reboot node.
      (9) Configure Advanced Drive Partitioning.
      (10) Set Onboard Key Manager recovery secrets.
      (11) Configure node for external key management.
      
      Selection (1-11)? 10
    2. Selezionare (10) Imposta segreti di ripristino di Onboard Key Manager

    3. Invio y al seguente prompt:

      This option must be used only in disaster recovery procedures. Are you sure? (y or n): y

    4. Quando richiesto, inserire la passphrase del gestore delle chiavi.

    5. Inserire i dati di backup quando richiesto.

      Nota È necessario aver ottenuto la passphrase e i dati di backup in "Preparare i nodi per l'aggiornamento" sezione di questa procedura.
    6. Dopo aver riavviato il sistema con lo speciale menu di boot, eseguire l'opzione (1) Avvio normale

      Nota In questa fase potrebbe verificarsi un errore. Se si verifica un errore, ripetere i passaggi secondari in Fase 22 fino a quando il sistema non si avvia normalmente.
  23. se si esegue l'aggiornamento da un sistema con dischi esterni a un sistema che supporta dischi interni ed esterni (ad esempio, sistemi AFF A800), impostare l'aggregato node2 come aggregato root per garantire l'avvio node4 dall'aggregato root di node2. Per impostare l'aggregato root, accedere al menu di boot e selezionare l'opzione 5 per accedere alla modalità di manutenzione.

    Attenzione È necessario eseguire i seguenti passaggi secondari nell'ordine esatto indicato; in caso contrario, si potrebbe verificare un'interruzione o addirittura la perdita di dati.

    La seguente procedura imposta node4 per l'avvio dall'aggregato root di node2:

    1. Accedere alla modalità di manutenzione:

      boot_ontap maint

    2. Controllare le informazioni su RAID, plex e checksum per l'aggregato node2:

      aggr status -r

    3. Controllare lo stato dell'aggregato node2:

      aggr status

    4. Se necessario, portare online l'aggregato node2:

      aggr_online root_aggr_from_node2

    5. Impedire al node4 di avviarsi dal proprio aggregato root originale:

      aggr offline root_aggr_on_node4

    6. Impostare l'aggregato root node2 come nuovo aggregato root per node4:

      aggr options aggr_from_node2 root

    7. Verificare che l'aggregato root di node4 sia offline e che l'aggregato root per i dischi portati da node2 sia online e impostato su root:

      aggr status

      Nota La mancata esecuzione del passaggio secondario precedente potrebbe causare l'avvio di node4 dall'aggregato root interno, oppure il sistema potrebbe assumere l'esistenza di una nuova configurazione del cluster o richiedere di identificarne una.

      Di seguito viene riportato un esempio dell'output del comando:

    ---------------------------------------------------------------------
    Aggr State                       Status               Options
    aggr 0_nst_fas8080_15 online     raid_dp, aggr        root, nosnap=on
                                     fast zeroed
                                     64-bit
    aggr0 offline                    raid_dp, aggr        diskroot
                                     fast zeroed`
                                     64-bit
    ---------------------------------------------------------------------