Skip to main content
ONTAP MetroCluster
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Collegamento dei moduli del controller IP MetroCluster

Collaboratori

È necessario aggiungere alla configurazione i quattro nuovi moduli controller ed eventuali shelf di storage aggiuntivi. I nuovi moduli controller vengono aggiunti due alla volta.

Configurazione dei nuovi controller

È necessario inserire in rack e collegare i nuovi controller IP MetroCluster agli shelf di storage precedentemente collegati ai controller FC MetroCluster.

A proposito di questa attività

Questi passaggi devono essere eseguiti su ciascuno dei nodi IP di MetroCluster.

  • Node_A_1-IP

  • Node_A_2-IP

  • Node_B_1-IP

  • Node_B_2-IP

Nell'esempio seguente, vengono aggiunti due shelf di storage aggiuntivi in ogni sito per fornire storage per ospitare i nuovi moduli controller.

transizione 2n 4 nuovi nodi ip e shelf
Fasi
  1. Pianificare il posizionamento dei nuovi moduli controller e degli shelf di storage in base alle necessità.

    Lo spazio rack dipende dal modello di piattaforma dei moduli controller, dai tipi di switch e dal numero di shelf di storage nella configurazione.

  2. Mettere a terra l'utente.

  3. Rack delle nuove apparecchiature: Controller, shelf di storage e switch IP.

    Non collegare i shelf di storage o gli switch IP in questo momento.

  4. Collegare i cavi di alimentazione e la console di gestione ai controller.

  5. Verificare che tutti gli shelf di storage siano spenti.

  6. Verificare che non vi siano dischi collegati eseguendo la seguente procedura su tutti e quattro i nodi:

    1. Al prompt DEL CARICATORE, avviare il menu di avvio:

      boot_ontap maint

    2. Verificare che non siano collegate unità:

      disk show -v

    L'output non dovrebbe mostrare dischi.

    1. Arrestare il nodo:

      halt

  7. Avviare tutti e quattro i nodi utilizzando l'opzione 9a del menu di boot.

    1. Al prompt DEL CARICATORE, avviare il menu di avvio:

      boot_ontap menu

    2. Nel menu di avvio, selezionare l'opzione “9a” per riavviare il controller.

    3. Attendere che il modulo controller completi l'avvio prima di passare al modulo controller successivo.

    Una volta completato “9a”, i nodi tornano automaticamente al menu di boot.

  8. Cablare gli scaffali di stoccaggio.

    Per informazioni sul cablaggio, consultare le procedure di installazione e configurazione del controller per il modello in uso.

  9. Collegare i controller agli switch IP come descritto in "Cablaggio degli switch IP".

  10. Preparare gli switch IP per l'applicazione dei nuovi file RCF.

    Seguire la procedura per il fornitore dello switch:

  11. Scaricare e installare i file RCF.

    Seguire la procedura per il fornitore dello switch:

  12. Accendere il primo nuovo controller (Node_A_1-IP) e premere Ctrl-C per interrompere il processo di avvio e visualizzare il prompt DEL CARICATORE.

  13. Avviare il controller in modalità di manutenzione:

    boot_ontap_maint

  14. Visualizzare l'ID di sistema del controller:

    sysconfig -v

  15. Verificare che gli shelf della configurazione esistente siano visibili dal nuovo nodo IP MetroCluster:

    storage show shelf``disk show -v

  16. Arrestare il nodo:

    halt

  17. Ripetere i passaggi precedenti sull'altro nodo del sito del partner (Site_B).

Connessione e avvio di Node_A_1-IP e Node_B_1-IP

Dopo aver collegato i controller IP MetroCluster e gli switch IP, si passa a Node_A_1-IP e Node_B_1-IP e si avvia.

Creazione di Node_A_1-IP

È necessario avviare il nodo con l'opzione di transizione corretta.

Fasi
  1. Boot node_A_1-IP al menu di boot:

    boot_ontap menu

  2. Immettere il seguente comando al prompt del menu di avvio per avviare la transizione:

    boot_after_mcc_transition

    • Questo comando riassegna tutti i dischi di proprietà di Node_A_1-FC a Node_A_1-IP.

      • I dischi Node_A_1-FC sono assegnati al Node_A_1-IP

      • I dischi Node_B_1-FC sono assegnati al nodo_B_1-IP

    • Il comando esegue inoltre automaticamente altre riassegnazioni di ID di sistema necessarie in modo che i nodi IP MetroCluster possano avviarsi al prompt di ONTAP.

    • Se il comando boot_after_mcc_Transition non riesce per qualsiasi motivo, dovrebbe essere rieseguito dal menu di boot.

      Nota
      • Se viene visualizzato il seguente prompt, immettere Ctrl-C per continuare. Verifica stato DR MCC in corso…​ [Enter Ctrl-C(resume), S(status), L(link)]_

      • Se il volume root è stato crittografato, il nodo si arresta con il seguente messaggio. Arresto del sistema, perché il volume root è crittografato (NetApp Volume Encryption) e l'importazione della chiave non è riuscita. Se questo cluster è configurato con un gestore di chiavi esterno (KMIP), controllare lo stato dei server di chiavi.

      Please choose one of the following:
      (1) Normal Boot.
      (2) Boot without /etc/rc.
      (3) Change password.
      (4) Clean configuration and initialize all disks.
      (5) Maintenance mode boot.
      (6) Update flash from backup config.
      (7) Install new software first.
      (8) Reboot node.
      (9) Configure Advanced Drive Partitioning. Selection (1-9)? `boot_after_mcc_transition`
      This will replace all flash-based configuration with the last backup to disks. Are you sure you want to continue?: yes
      
      MetroCluster Transition: Name of the MetroCluster FC node: `node_A_1-FC`
      MetroCluster Transition: Please confirm if this is the correct value [yes|no]:? y
      MetroCluster Transition: Disaster Recovery partner sysid of MetroCluster FC node node_A_1-FC: `systemID-of-node_B_1-FC`
      MetroCluster Transition: Please confirm if this is the correct value [yes|no]:? y
      MetroCluster Transition: Disaster Recovery partner sysid of local MetroCluster IP node: `systemID-of-node_B_1-IP`
      MetroCluster Transition: Please confirm if this is the correct value [yes|no]:? y
  3. Se i volumi di dati sono crittografati, ripristinare le chiavi utilizzando il comando corretto per la configurazione di gestione delle chiavi.

    Se si utilizza…​

    Utilizzare questo comando…​

    Gestione delle chiavi integrata

    security key-manager onboard sync

    Gestione esterna delle chiavi

    security key-manager key query -node node-name

  4. Se il volume root è crittografato, seguire la procedura descritta in "Ripristino della gestione delle chiavi se il volume root è crittografato".

Ripristino della gestione delle chiavi se il volume root è crittografato

Se il volume root è crittografato, è necessario utilizzare speciali comandi di boot per ripristinare la gestione delle chiavi.

Prima di iniziare

Le passphrase devono essere raccolte in precedenza.

Fasi
  1. Se si utilizza la gestione delle chiavi integrata, eseguire i seguenti passaggi secondari per ripristinare la configurazione.

    1. Dal prompt DEL CARICATORE, visualizzare il menu di avvio:

      boot_ontap menu

    2. Selezionare l'opzione “(10) set onboard key management recovery secrets” dal menu di avvio.

      Rispondere alle richieste in base alle esigenze:

      This option must be used only in disaster recovery procedures. Are you sure? (y or n): y
      Enter the passphrase for onboard key management: passphrase
      Enter the passphrase again to confirm: passphrase
      
      Enter the backup data: backup-key

      Il sistema viene avviato dal menu di avvio.

    3. Immettere l'opzione “6” nel menu di avvio.

      Rispondere alle richieste in base alle esigenze:

      This will replace all flash-based configuration with the last backup to
      disks. Are you sure you want to continue?: y
      
      Following this, the system will reboot a few times and the following prompt will be available continue by saying y
      
      WARNING: System ID mismatch. This usually occurs when replacing a boot device or NVRAM cards!
      Override system ID? {y|n} y

      Dopo il riavvio, il sistema viene visualizzato al prompt DEL CARICATORE.

    4. Dal prompt DEL CARICATORE, visualizzare il menu di avvio:

      boot_ontap menu

    5. Selezionare nuovamente l'opzione “(10) set onboard key management recovery secrets” (Imposta segreti di ripristino gestione delle chiavi integrate) dal menu di avvio.

      Rispondere alle richieste in base alle esigenze:

      This option must be used only in disaster recovery procedures. Are you sure? (y or n): `y`
      Enter the passphrase for onboard key management: `passphrase`
      Enter the passphrase again to confirm:`passphrase`
      
      Enter the backup data:`backup-key`

      Il sistema viene avviato dal menu di avvio.

    6. Immettere l'opzione “1” nel menu di avvio.

      Se viene visualizzato il seguente prompt, premere Ctrl+C per riprendere il processo.

       Checking MCC DR state... [enter Ctrl-C(resume), S(status), L(link)]

      Il sistema viene avviato dal prompt ONTAP.

    7. Ripristinare la gestione delle chiavi integrata:

      security key-manager onboard sync

      Rispondere alle richieste, utilizzando la passphrase precedentemente raccolta:

    cluster_A::> security key-manager onboard sync
    Enter the cluster-wide passphrase for onboard key management in Vserver "cluster_A":: passphrase
  2. Se si utilizza la gestione esterna delle chiavi, eseguire le seguenti procedure secondarie per ripristinare la configurazione.

    1. Impostare i bootargs richiesti:

      setenv bootarg.kmip.init.ipaddr ip-address

      setenv bootarg.kmip.init.netmask netmask

      setenv bootarg.kmip.init.gateway gateway-address

      setenv bootarg.kmip.init.interface interface-id

    2. Dal prompt DEL CARICATORE, visualizzare il menu di avvio:

      boot_ontap menu

    3. Selezionare l'opzione “(11) Configure node for external key management” (Configura nodo per la gestione delle chiavi esterne) dal menu di avvio.

      Il sistema viene avviato dal menu di avvio.

    4. Immettere l'opzione “6” nel menu di avvio.

      Il sistema si avvia più volte. Quando viene richiesto di continuare il processo di avvio, è possibile rispondere affermativamente.

      Dopo il riavvio, il sistema viene visualizzato al prompt DEL CARICATORE.

    5. Impostare i bootargs richiesti:

      setenv bootarg.kmip.init.ipaddr ip-address

      setenv bootarg.kmip.init.netmask netmask

      setenv bootarg.kmip.init.gateway gateway-address

    setenv bootarg.kmip.init.interface interface-id

    1. Dal prompt DEL CARICATORE, visualizzare il menu di avvio:

      boot_ontap menu

    2. Selezionare di nuovo l'opzione “(11) Configure node for external key management” (Configura nodo per la gestione delle chiavi esterne) dal menu di avvio e rispondere alle richieste secondo necessità.

      Il sistema viene avviato dal menu di avvio.

    3. Ripristinare la gestione esterna delle chiavi:

      security key-manager external restore

Creazione della configurazione di rete

È necessario creare una configurazione di rete che corrisponda alla configurazione sui nodi FC. Questo perché il nodo IP MetroCluster riproduce la stessa configurazione all'avvio, il che significa che quando si avvia Node_A_1-IP e Node_B_1-IP, ONTAP tenta di ospitare i file LIF sulle stesse porte utilizzate rispettivamente su Node_A_1-FC e Node_B_1-FC.

A proposito di questa attività

Durante la creazione della configurazione di rete, utilizzare il piano creato in "Mappatura delle porte dai nodi FC MetroCluster ai nodi IP MetroCluster" per assisterti.

Nota Una volta configurati i nodi IP MetroCluster, potrebbe essere necessaria un'ulteriore configurazione per attivare le LIF dei dati.
Fasi
  1. Verificare che tutte le porte del cluster si trovino nel dominio di trasmissione appropriato:

    L'IPSpace del cluster e il dominio di broadcast del cluster sono necessari per creare le LIF del cluster

    1. Visualizzare gli spazi IP:

      network ipspace show

    2. Creare spazi IP e assegnare le porte del cluster in base alle esigenze.

    3. Visualizzare i domini di trasmissione:

      network port broadcast-domain show

    4. Aggiungere eventuali porte del cluster a un dominio di broadcast in base alle esigenze.

    5. Ricreare VLAN e gruppi di interfacce in base alle esigenze.

      L'appartenenza alla VLAN e al gruppo di interfacce potrebbe essere diversa da quella del nodo precedente.

  2. Verificare che le impostazioni MTU siano impostate correttamente per le porte e il dominio di trasmissione e apportare le modifiche utilizzando i seguenti comandi:

    network port broadcast-domain show

    network port broadcast-domain modify -broadcast-domain bcastdomainname -mtu mtu-value

Impostazione delle porte del cluster e delle LIF del cluster

È necessario configurare le porte del cluster e i LIF. I seguenti passaggi devono essere eseguiti sui nodi del sito A che sono stati avviati con aggregati root.

Fasi
  1. Identificare l'elenco di LIF utilizzando la porta del cluster desiderata:

    network interface show -curr-port portname

    network interface show -home-port portname

  2. Per ciascuna porta del cluster, modificare la porta home di una delle LIF di tale porta con un'altra,

    1. Immettere Advanced Privilege mode e digitare “y” quando viene richiesto di continuare:

      set priv advanced

    2. Se la LIF da modificare è una LIF dati:

      vserver config override -command "network interface modify -lif lifname -vserver vservername -home-port new-datahomeport"

    3. Se la LIF non è una LIF dati:

      network interface modify -lif lifname -vserver vservername -home-port new-datahomeport

    4. Ripristinare le LIF modificate alla porta home:

      network interface revert * -vserver vserver_name

    5. Verificare che non vi siano LIF sulla porta del cluster:

      network interface show -curr-port portname

    network interface show -home-port portname

    1. Rimuovere la porta dal dominio di trasmissione corrente:

      network port broadcast-domain remove-ports -ipspace ipspacename -broadcast-domain bcastdomainname -ports node_name:port_name

    2. Aggiungere la porta all'IPSpace del cluster e al dominio di trasmissione:

      network port broadcast-domain add-ports -ipspace Cluster -broadcast-domain Cluster -ports node_name:port_name

    3. Verificare che il ruolo della porta sia stato modificato: network port show

    4. Ripetere questi passaggi secondari per ciascuna porta del cluster.

    5. Tornare alla modalità admin:

      set priv admin

  3. Creare le LIF del cluster sulle nuove porte del cluster:

    1. Per la configurazione automatica utilizzando l'indirizzo link-local per la LIF del cluster, utilizzare il seguente comando:

      network interface create -vserver Cluster -lif cluster_lifname -service-policy default-cluster -home-node a1name -home-port clusterport -auto true

    2. Per assegnare un indirizzo IP statico alla LIF del cluster, utilizzare il seguente comando:

      network interface create -vserver Cluster -lif cluster_lifname -service-policy default-cluster -home-node a1name -home-port clusterport -address ip-address -netmask netmask -status-admin up

Verifica della configurazione LIF in corso

La LIF di gestione dei nodi, la LIF di gestione dei cluster e la LIF di intercluster saranno ancora presenti dopo lo spostamento dello storage dal vecchio controller. Se necessario, è necessario spostare i file LIF nelle porte appropriate.

Fasi
  1. Verificare se la LIF di gestione e la LIF di gestione del cluster si trovano già sulla porta desiderata:

    network interface show -service-policy default-management

    network interface show -service-policy default-intercluster

    Se le LIF si trovano sulle porte desiderate, è possibile saltare il resto delle fasi di questa attività e passare all'attività successiva.

  2. Per ogni nodo, gestione del cluster o LIF di intercluster che non si trovano sulla porta desiderata, modificare la porta home di una delle LIF di tale porta in un'altra porta.

    1. Cambiare destinazione della porta desiderata spostando i file LIF ospitati sulla porta desiderata su un'altra porta:

      vserver config override -command "network interface modify -lif lifname -vserver vservername -home-port new-datahomeport"

    2. Ripristinare le LIF modificate alla nuova porta home:

      vserver config override -command "network interface revert -lif lifname -vserver _vservername"

    3. Se la porta desiderata non si trova nel dominio IPSpace e broadcast corretto, rimuovere la porta dal dominio IPSpace e broadcast corrente:

      network port broadcast-domain remove-ports -ipspace current-ipspace -broadcast-domain current-broadcast-domain -ports controller-name:current-port

    4. Spostare la porta desiderata sul dominio IPSpace e broadcast di destra:

      network port broadcast-domain add-ports -ipspace new-ipspace -broadcast-domain new-broadcast-domain -ports controller-name:new-port

    5. Verificare che il ruolo della porta sia stato modificato:

      network port show

    6. Ripetere questi passaggi secondari per ciascuna porta.

  3. Spostare nodi, LIF di gestione cluster e LIF di intercluster sulla porta desiderata:

    1. Modificare la porta home di LIF:

      network interface modify -vserver vserver -lif node_mgmt -home-port port -home-node homenode

    2. Ripristinare la nuova porta home di LIF:

      network interface revert -lif node_mgmt -vserver vservername

    3. Modificare la porta home della LIF di gestione del cluster:

      network interface modify -vserver vserver -lif cluster-mgmt-LIF-name -home-port port -home-node homenode

    4. Riportare la LIF di gestione del cluster alla nuova porta home:

      network interface revert -lif cluster-mgmt-LIF-name -vserver vservername

    5. Modificare la porta home della LIF dell'intercluster:

      network interface modify -vserver vserver -lif intercluster-lif-name -home-node nodename -home-port port

    6. Riportare la LIF dell'intercluster alla nuova porta home:

      network interface revert -lif intercluster-lif-name -vserver vservername

Portando Node_A_2-IP e Node_B_2-IP

È necessario attivare e configurare il nuovo nodo IP MetroCluster in ogni sito, creando una coppia ha in ogni sito.

Portando Node_A_2-IP e Node_B_2-IP

È necessario avviare i nuovi moduli controller uno alla volta utilizzando l'opzione corretta nel menu di avvio.

A proposito di questa attività

In questi passaggi, si avviano i due nuovi nodi, espandendo quella che era stata una configurazione a due nodi in una configurazione a quattro nodi.

Questi passaggi vengono eseguiti sui seguenti nodi:

  • Node_A_2-IP

  • Node_B_2-IP

transizione 2n avvio di 2 e b 2
Fasi
  1. Avviare i nuovi nodi usando l'opzione di boot “9c”.

    Please choose one of the following:
    (1) Normal Boot.
    (2) Boot without /etc/rc.
    (3) Change password.
    (4) Clean configuration and initialize all disks.
    (5) Maintenance mode boot.
    (6) Update flash from backup config.
    (7) Install new software first.
    (8) Reboot node.
    (9) Configure Advanced Drive Partitioning. Selection (1-9)? 9c

    Il nodo viene inizializzato e avviato con l'installazione guidata del nodo, come descritto di seguito.

    Welcome to node setup
    You can enter the following commands at any time:
    "help" or "?" - if you want to have a question clarified,
    "back" - if you want to change previously answered questions, and
    "exit" or "quit" - if you want to quit the setup wizard.
    Any changes you made before quitting will be saved.
    To accept a default or omit a question, do not enter a value. .
    .
    .

    Se l'opzione “9c” non riesce, attenersi alla seguente procedura per evitare la possibile perdita di dati:

  2. Attivare lo strumento AutoSupport seguendo le istruzioni fornite dalla procedura guidata.

  3. Rispondere alle richieste per configurare l'interfaccia di gestione dei nodi.

    Enter the node management interface port: [e0M]:
    Enter the node management interface IP address: 10.228.160.229
    Enter the node management interface netmask: 225.225.252.0
    Enter the node management interface default gateway: 10.228.160.1
  4. Verificare che la modalità di failover dello storage sia impostata su ha:

    storage failover show -fields mode

    Se la modalità non è ha, impostarla:

    storage failover modify -mode ha -node localhost

    Riavviare il nodo per rendere effettiva la modifica.

  5. Elencare le porte nel cluster:

    network port show

    Per la sintassi completa dei comandi, vedere la pagina man.

    L'esempio seguente mostra le porte di rete nel cluster01:

    cluster01::> network port show
                                                                 Speed (Mbps)
    Node   Port      IPspace      Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- ------------ ---------------- ----- ------- ------------
    cluster01-01
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
           e0e       Default      Default          up     1500   auto/1000
           e0f       Default      Default          up     1500   auto/1000
    cluster01-02
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
           e0e       Default      Default          up     1500   auto/1000
           e0f       Default      Default          up     1500   auto/1000
  6. Uscire dalla procedura guidata Node Setup (Configurazione nodo):

    exit

  7. Accedere all'account admin utilizzando il nome utente admin.

  8. Unirsi al cluster esistente utilizzando la procedura guidata di installazione del cluster.

    :> cluster setup
    Welcome to the cluster setup wizard.
    You can enter the following commands at any time:
    "help" or "?" - if you want to have a question clarified,
    "back" - if you want to change previously answered questions, and "exit" or "quit" - if you want to quit the cluster setup wizard.
    Any changes you made before quitting will be saved.
    You can return to cluster setup at any time by typing "cluster setup". To accept a default or omit a question, do not enter a value.
    Do you want to create a new cluster or join an existing cluster?
    {create, join}:
    join
  9. Dopo aver completato l'installazione guidata del cluster e averlo chiuso, verificare che il cluster sia attivo e che il nodo funzioni correttamente:

    cluster show

  10. Disattiva assegnazione automatica del disco:

    storage disk option modify -autoassign off -node node_A_2-IP

  11. Se viene utilizzata la crittografia, ripristinare le chiavi utilizzando il comando corretto per la configurazione di gestione delle chiavi.

    Se si utilizza…​

    Utilizzare questo comando…​

    Gestione delle chiavi integrata

    security key-manager onboard sync

    Gestione esterna delle chiavi

    security key-manager key query -node node-name

  12. Ripetere i passaggi precedenti sul secondo nuovo modulo controller (Node_B_2-IP).

Verifica delle impostazioni MTU in corso

Verificare che le impostazioni MTU siano impostate correttamente per le porte e il dominio di trasmissione e apportare modifiche.

Fasi
  1. Controllare le dimensioni MTU utilizzate nel dominio di trasmissione del cluster:

    network port broadcast-domain show

  2. Se necessario, aggiornare le dimensioni MTU in base alle necessità:

    network port broadcast-domain modify -broadcast-domain bcast-domain-name -mtu mtu-size

Configurazione delle LIF tra cluster

Configurare le LIF intercluster richieste per il peering del cluster.

Questa attività deve essere eseguita su entrambi i nuovi nodi, Node_A_2-IP e Node_B_2-IP.

Fase
  1. Configurare le LIF dell'intercluster. Vedere "Configurazione delle LIF tra cluster"

Verifica del peering del cluster

Verificare che cluster_A e cluster_B siano peering e che i nodi di ciascun cluster possano comunicare tra loro.

Fasi
  1. Verificare la relazione di peering del cluster:

    cluster peer health show

    cluster01::> cluster peer health show
    Node       cluster-Name                Node-Name
                 Ping-Status               RDB-Health Cluster-Health  Avail…
    ---------- --------------------------- ---------  --------------- --------
    node_A_1-IP
               cluster_B                   node_B_1-IP
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           node_B_2-IP
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
    node_A_2-IP
               cluster_B                   node_B_1-IP
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           node_B_2-IP
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
  2. Ping per verificare che gli indirizzi peer siano raggiungibili:

    cluster peer ping -originating-node local-node -destination-cluster remote-cluster-name