Skip to main content
ONTAP MetroCluster
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Espansione di una configurazione IP MetroCluster

Collaboratori

A seconda della versione di ONTAP, è possibile espandere la configurazione IP di MetroCluster aggiungendo quattro nuovi nodi come nuovo gruppo di DR.

A partire da ONTAP 9.13.1, puoi espandere temporaneamente una configurazione MetroCluster a otto nodi per fare un refresh dei controller e dello storage. Vedere "Aggiornamento di una configurazione MetroCluster IP a quattro o otto nodi (ONTAP 9.8 e versioni successive)" per ulteriori informazioni.

A partire da ONTAP 9.9.1, è possibile aggiungere quattro nuovi nodi alla configurazione IP di MetroCluster come secondo gruppo di DR. In questo modo viene creata una configurazione MetroCluster a otto nodi.

Prima di iniziare
  • I nodi vecchi e nuovi devono eseguire la stessa versione di ONTAP.

  • Questa procedura descrive i passaggi necessari per aggiungere un gruppo DR a quattro nodi a una configurazione IP MetroCluster esistente. Se si aggiorna una configurazione a otto nodi, è necessario ripetere l'intera procedura per ciascun gruppo di DR, aggiungendone uno alla volta.

  • Verificare che i modelli di piattaforma vecchi e nuovi siano supportati per la combinazione di piattaforme.

  • Verificare che i modelli di piattaforma vecchi e nuovi siano entrambi supportati dagli switch IP.

  • Se lo sei "Aggiornamento di una configurazione IP MetroCluster a quattro o otto nodi", i nuovi nodi devono disporre di spazio di archiviazione sufficiente per ospitare i dati dei vecchi nodi, insieme a dischi adeguati per gli aggregati root e i dischi di riserva.

  • Verificare di disporre di un dominio di broadcast predefinito creato sui vecchi nodi.

    Quando si aggiungono nuovi nodi a un cluster esistente senza un dominio di broadcast predefinito, le LIF di gestione nodi vengono create per i nuovi nodi utilizzando gli UUID (Universal Unique Identifier) e non i nomi previsti. Per ulteriori informazioni, consultare l'articolo della Knowledge base "LIF di gestione nodi su nodi appena aggiunti generati con nomi UUID".

Esempio di denominazione in questa procedura

Questa procedura utilizza nomi di esempio per identificare i gruppi DR, i nodi e gli switch coinvolti.

Gruppi DR

Cluster_A presso il sito_A.

Cluster_B nel sito_B.

dr_group_1-old

  • Node_A_1-old

  • Node_A_2-old

  • Node_B_1-old

  • Node_B_2-old

dr_group_2-new

  • Node_A_3-new

  • Node_A_4-new

  • Node_B_3-new

  • Node_B_4-new

Combinazioni di piattaforme supportate quando si aggiunge un secondo gruppo DR

La seguente tabella mostra le combinazioni di piattaforme supportate per le configurazioni IP a otto nodi.

Importante
  • Tutti i nodi della configurazione MetroCluster devono utilizzare la stessa versione di ONTAP. Ad esempio, se si dispone di una configurazione a otto nodi, tutti e otto i nodi devono utilizzare la stessa versione di ONTAP.

  • Le combinazioni di questa tabella si applicano solo alle configurazioni a 8 nodi regolari o permanenti.

  • Le combinazioni di piattaforme mostrate in questa tabella non si applicano se si utilizzano le procedure di transizione o aggiornamento.

  • Tutti i nodi di un gruppo di DR devono essere dello stesso tipo e configurazione.

Combinazioni di piattaforme per configurazioni a 8 nodi
  • Nota 1: Per queste combinazioni è necessario ONTAP 9.9.1 o versione successiva (o la versione minima di ONTAP supportata dalla piattaforma).

  • Nota 2: Per queste combinazioni è necessario ONTAP 9.13.1 o versione successiva (o la versione minima di ONTAP supportata dalla piattaforma).

Invio di un messaggio AutoSupport personalizzato prima della manutenzione

Prima di eseguire la manutenzione, devi inviare un messaggio AutoSupport per informare il supporto tecnico NetApp che la manutenzione è in corso. Informare il supporto tecnico che la manutenzione è in corso impedisce loro di aprire un caso partendo dal presupposto che si sia verificata un'interruzione.

A proposito di questa attività

Questa attività deve essere eseguita su ciascun sito MetroCluster.

Fasi
  1. Per impedire la generazione automatica del caso di supporto, inviare un messaggio AutoSupport per indicare che l'aggiornamento è in corso.

    1. Immettere il seguente comando:

      system node autosupport invoke -node * -type all -message "MAINT=10h Upgrading old-model to new-model"

      Questo esempio specifica una finestra di manutenzione di 10 ore. A seconda del piano, potrebbe essere necessario dedicare più tempo.

      Se la manutenzione viene completata prima che sia trascorso il tempo, è possibile richiamare un messaggio AutoSupport che indica la fine del periodo di manutenzione:

    system node autosupport invoke -node * -type all -message MAINT=end

    1. Ripetere il comando sul cluster partner.

Verifica dello stato della configurazione MetroCluster

Prima di eseguire la transizione, è necessario verificare lo stato e la connettività della configurazione di MetroCluster

Fasi
  1. Verificare il funzionamento della configurazione MetroCluster in ONTAP:

    1. Verificare che il sistema sia multipercorso:

      node run -node node-name sysconfig -a

    2. Verificare la presenza di eventuali avvisi sullo stato di salute su entrambi i cluster:

      system health alert show

    3. Verificare la configurazione MetroCluster e che la modalità operativa sia normale:

      metrocluster show

    4. Eseguire un controllo MetroCluster:

      metrocluster check run

    5. Visualizzare i risultati del controllo MetroCluster:

      metrocluster check show

    6. Eseguire Config Advisor.

    7. Dopo aver eseguito Config Advisor, esaminare l'output dello strumento e seguire le raccomandazioni nell'output per risolvere eventuali problemi rilevati.

  2. Verificare che il cluster funzioni correttamente:

    cluster show

    cluster_A::> cluster show
    Node           Health  Eligibility
    -------------- ------  -----------
    node_A_1       true    true
    node_A_2       true    true
    
    cluster_A::>
  3. Verificare che tutte le porte del cluster siano installate:

    network port show -ipspace Cluster

    cluster_A::> network port show -ipspace Cluster
    
    Node: node_A_1-old
    
                                                      Speed(Mbps) Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status
    --------- ------------ ---------------- ---- ---- ----------- --------
    e0a       Cluster      Cluster          up   9000  auto/10000 healthy
    e0b       Cluster      Cluster          up   9000  auto/10000 healthy
    
    Node: node_A_2-old
    
                                                      Speed(Mbps) Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status
    --------- ------------ ---------------- ---- ---- ----------- --------
    e0a       Cluster      Cluster          up   9000  auto/10000 healthy
    e0b       Cluster      Cluster          up   9000  auto/10000 healthy
    
    4 entries were displayed.
    
    cluster_A::>
  4. Verificare che tutte le LIF del cluster siano operative:

    network interface show -vserver Cluster

    Ogni LIF del cluster dovrebbe visualizzare true per is Home e avere uno stato Admin/Oper di up/up

    cluster_A::> network interface show -vserver cluster
    
                Logical      Status     Network          Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- -----
    Cluster
                node_A_1-old_clus1
                           up/up      169.254.209.69/16  node_A_1   e0a     true
                node_A_1-old_clus2
                           up/up      169.254.49.125/16  node_A_1   e0b     true
                node_A_2-old_clus1
                           up/up      169.254.47.194/16  node_A_2   e0a     true
                node_A_2-old_clus2
                           up/up      169.254.19.183/16  node_A_2   e0b     true
    
    4 entries were displayed.
    
    cluster_A::>
  5. Verificare che l'autorevert sia attivato su tutte le LIF del cluster:

    network interface show -vserver Cluster -fields auto-revert

    cluster_A::> network interface show -vserver Cluster -fields auto-revert
    
              Logical
    Vserver   Interface     Auto-revert
    --------- ------------- ------------
    Cluster
               node_A_1-old_clus1
                            true
               node_A_1-old_clus2
                            true
               node_A_2-old_clus1
                            true
               node_A_2-old_clus2
                            true
    
        4 entries were displayed.
    
    cluster_A::>

Rimozione della configurazione dalle applicazioni di monitoraggio

Se la configurazione esistente viene monitorata con il software MetroCluster Tiebreaker, il mediatore ONTAP o altre applicazioni di terze parti (ad esempio, ClusterLion) che possono avviare uno switchover, è necessario rimuovere la configurazione MetroCluster dal software di monitoraggio prima di eseguire l'aggiornamento.

Fasi
  1. Rimuovere la configurazione MetroCluster esistente da Tiebreaker, Mediator o altro software in grado di avviare lo switchover.

    Se si utilizza…​

    Utilizzare questa procedura…​

    Spareggio

    Mediatore

    Immettere il seguente comando dal prompt di ONTAP:

    metrocluster configuration-settings mediator remove

    Applicazioni di terze parti

    Consultare la documentazione del prodotto.

  2. Rimuovere la configurazione MetroCluster esistente da qualsiasi applicazione di terze parti in grado di avviare lo switchover.

    Consultare la documentazione dell'applicazione.

Preparazione dei nuovi moduli controller

È necessario preparare i quattro nuovi nodi MetroCluster e installare la versione corretta di ONTAP.

A proposito di questa attività

Questa attività deve essere eseguita su ciascuno dei nuovi nodi:

  • Node_A_3-new

  • Node_A_4-new

  • Node_B_3-new

  • Node_B_4-new

In questa procedura, si cancella la configurazione sui nodi e si cancella l'area della mailbox sui nuovi dischi.

Fasi
  1. Inserire in rack i nuovi controller.

  2. Collegare i nuovi nodi IP MetroCluster agli switch IP come illustrato nella sezione installazione e configurazione di MetroCluster.

  3. Configurare i nodi IP MetroCluster utilizzando le seguenti sezioni della sezione installazione e configurazione di MetroCluster.

  4. Dalla modalità Maintenance, eseguire il comando halt per uscire dalla modalità Maintenance, quindi eseguire il comando boot_ontap per avviare il sistema e accedere alla configurazione del cluster.

    Non completare la procedura guidata del cluster o del nodo.

Aggiornare i file RCF

Se si sta installando un nuovo firmware dello switch, è necessario installare il firmware dello switch prima di aggiornare il file RCF.

A proposito di questa attività

Questa procedura interrompe il traffico sullo switch in cui viene aggiornato il file RCF. Il traffico riprenderà una volta applicato il nuovo file RCF.

Fasi
  1. Verificare lo stato della configurazione.

    1. Verificare che i componenti di MetroCluster siano integri:

      metrocluster check run

      cluster_A::*> metrocluster check run

      L'operazione viene eseguita in background.

    2. Dopo il metrocluster check run operazione completata, eseguire metrocluster check show per visualizzare i risultati.

      Dopo circa cinque minuti, vengono visualizzati i seguenti risultati:

    -----------
    ::*> metrocluster check show
    
    Component           Result
    ------------------- ---------
    nodes               ok
    lifs                ok
    config-replication  ok
    aggregates          warning
    clusters            ok
    connections         not-applicable
    volumes             ok
    7 entries were displayed.
    1. Controllare lo stato dell'operazione di controllo MetroCluster in esecuzione:

      metrocluster operation history show -job-id 38

    2. Verificare che non siano presenti avvisi sullo stato di salute:

      system health alert show

  2. Preparare gli switch IP per l'applicazione dei nuovi file RCF.

    Seguire la procedura per il fornitore dello switch:

  3. Scaricare e installare il file RCF IP, a seconda del fornitore dello switch.

    Nota Aggiornare gli switch nel seguente ordine: Switch_A_1, Switch_B_1, Switch_A_2, Switch_B_2
    • "Download e installazione dei file Broadcom IP RCF"

    • "Download e installazione dei file Cisco IP RCF"

      Nota Se si dispone di una configurazione di rete L2 condivisa o L3, potrebbe essere necessario regolare le porte ISL sugli switch intermedi/clienti. La modalità switchport potrebbe passare dalla modalità 'access' alla modalità 'trunk'. Procedere all'aggiornamento della seconda coppia di switch (A_2, B_2) solo se la connettività di rete tra gli switch A_1 e B_1 è completamente operativa e la rete funziona correttamente.

Unire i nuovi nodi ai cluster

È necessario aggiungere i quattro nuovi nodi IP MetroCluster alla configurazione MetroCluster esistente.

A proposito di questa attività

È necessario eseguire questa attività su entrambi i cluster.

Fasi
  1. Aggiungere i nuovi nodi IP MetroCluster alla configurazione MetroCluster esistente.

    1. Collegare il primo nuovo nodo IP MetroCluster (Node_A_1-new) alla configurazione IP MetroCluster esistente.

      Welcome to the cluster setup wizard.
      
      You can enter the following commands at any time:
        "help" or "?" - if you want to have a question clarified,
        "back" - if you want to change previously answered questions, and
        "exit" or "quit" - if you want to quit the cluster setup wizard.
           Any changes you made before quitting will be saved.
      
      You can return to cluster setup at any time by typing "cluster setup".
      To accept a default or omit a question, do not enter a value.
      
      This system will send event messages and periodic reports to NetApp Technical
      Support. To disable this feature, enter
      autosupport modify -support disable
      within 24 hours.
      
      Enabling AutoSupport can significantly speed problem determination and
      resolution, should a problem occur on your system.
      For further information on AutoSupport, see:
      http://support.netapp.com/autosupport/
      
      Type yes to confirm and continue {yes}: yes
      
      Enter the node management interface port [e0M]: 172.17.8.93
      
      172.17.8.93 is not a valid port.
      
      The physical port that is connected to the node management network. Examples of
      node management ports are "e4a" or "e0M".
      
      You can type "back", "exit", or "help" at any question.
      
      
      Enter the node management interface port [e0M]:
      Enter the node management interface IP address: 172.17.8.93
      Enter the node management interface netmask: 255.255.254.0
      Enter the node management interface default gateway: 172.17.8.1
      A node management interface on port e0M with IP address 172.17.8.93 has been created.
      
      Use your web browser to complete cluster setup by accessing https://172.17.8.93
      
      Otherwise, press Enter to complete cluster setup using the command line
      interface:
      
      
      Do you want to create a new cluster or join an existing cluster? {create, join}:
      join
      
      
      Existing cluster interface configuration found:
      
      Port    MTU     IP              Netmask
      e0c     9000    169.254.148.217 255.255.0.0
      e0d     9000    169.254.144.238 255.255.0.0
      
      Do you want to use this configuration? {yes, no} [yes]: yes
      .
      .
      .
    2. Collegare il secondo nuovo nodo IP MetroCluster (Node_A_2-new) alla configurazione IP MetroCluster esistente.

  2. Ripetere questi passaggi per unire node_B_1-new e node_B_2-new a cluster_B.

Configurazione delle LIF tra cluster, creazione delle interfacce MetroCluster e mirroring degli aggregati root

È necessario creare le LIF di peering del cluster e le interfacce MetroCluster sui nuovi nodi IP MetroCluster.

A proposito di questa attività

La porta home utilizzata negli esempi è specifica per la piattaforma. Utilizzare la porta home appropriata specifica per la piattaforma del nodo IP MetroCluster.

Fasi
  1. Sui nuovi nodi IP di MetroCluster, configurare le LIF di intercluster seguendo le seguenti procedure:

  2. In ogni sito, verificare che il peering del cluster sia configurato:

    cluster peer show

    L'esempio seguente mostra la configurazione del peering del cluster su cluster_A:

    cluster_A:> cluster peer show
    Peer Cluster Name         Cluster Serial Number Availability   Authentication
    ------------------------- --------------------- -------------- --------------
    cluster_B                 1-80-000011           Available      ok

    L'esempio seguente mostra la configurazione del peering del cluster su cluster_B:

    cluster_B:> cluster peer show
    Peer Cluster Name         Cluster Serial Number Availability   Authentication
    ------------------------- --------------------- -------------- --------------
    cluster_A                 1-80-000011           Available      ok
    cluster_B::>
  3. Creare il gruppo DR per i nodi IP MetroCluster:

    metrocluster configuration-settings dr-group create -partner-cluster

    Per ulteriori informazioni sulle impostazioni di configurazione e sulle connessioni di MetroCluster, consultare quanto segue:

    cluster_A::> metrocluster configuration-settings dr-group create -partner-cluster
    cluster_B -local-node node_A_1-new -remote-node node_B_1-new
    [Job 259] Job succeeded: DR Group Create is successful.
    cluster_A::>
  4. Verificare che il gruppo DR sia stato creato.

    metrocluster configuration-settings dr-group show

    cluster_A::> metrocluster configuration-settings dr-group show
    
    DR Group ID Cluster                    Node               DR Partner Node
    ----------- -------------------------- ------------------ ------------------
    1           cluster_A
                                           node_A_1-old        node_B_1-old
                                           node_A_2-old        node_B_2-old
                cluster_B
                                           node_B_1-old        node_A_1-old
                                           node_B_2-old        node_A_2-old
    2           cluster_A
                                           node_A_1-new        node_B_1-new
                                           node_A_2-new        node_B_2-new
                cluster_B
                                           node_B_1-new        node_A_1-new
                                           node_B_2-new        node_A_2-new
    8 entries were displayed.
    
    cluster_A::>
  5. Configurare le interfacce IP MetroCluster per i nodi IP MetroCluster appena entrati:

    metrocluster configuration-settings interface create -cluster-name

    Nota
    • Alcune piattaforme utilizzano una VLAN per l'interfaccia IP di MetroCluster. Per impostazione predefinita, ciascuna delle due porte utilizza una VLAN diversa: 10 e 20. È inoltre possibile specificare una VLAN diversa (non predefinita) superiore a 100 (tra 101 e 4095) utilizzando -vlan-id parameter in metrocluster configuration-settings interface create comando.

    • A partire da ONTAP 9.9.1, se si utilizza una configurazione Layer 3, è necessario specificare anche -gateway Parametro durante la creazione di interfacce IP MetroCluster. Fare riferimento a. "Considerazioni per le reti wide-area di livello 3".

    I seguenti modelli di piattaforma possono essere aggiunti alla configurazione MetroCluster esistente se le VLAN utilizzate sono 10/20 o superiori a 100. Se si utilizzano altre VLAN, queste piattaforme non possono essere aggiunte alla configurazione esistente, in quanto l'interfaccia MetroCluster non può essere configurata. Se si utilizza un'altra piattaforma, la configurazione della VLAN non è rilevante in quanto non è richiesta in ONTAP.

    Piattaforme AFF

    Piattaforme FAS

    • AFF A220

    • AFF A250

    • AFF A400

    • FAS2750

    • FAS500f

    • FAS8300

    • FAS8700

    Nota È possibile configurare le interfacce IP di MetroCluster da entrambi i cluster.
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_1-new -home-port e1a -address 172.17.26.10 -netmask 255.255.255.0
    [Job 260] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_1-new -home-port e1b -address 172.17.27.10 -netmask 255.255.255.0
    [Job 261] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_2-new -home-port e1a -address 172.17.26.11 -netmask 255.255.255.0
    [Job 262] Job succeeded: Interface Create is successful.
    
    cluster_A::> :metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_2-new -home-port e1b -address 172.17.27.11 -netmask 255.255.255.0
    [Job 263] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_1-new -home-port e1a -address 172.17.26.12 -netmask 255.255.255.0
    [Job 264] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_1-new -home-port e1b -address 172.17.27.12 -netmask 255.255.255.0
    [Job 265] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_2-new -home-port e1a -address 172.17.26.13 -netmask 255.255.255.0
    [Job 266] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_2-new -home-port e1b -address 172.17.27.13 -netmask 255.255.255.0
    [Job 267] Job succeeded: Interface Create is successful.
  6. Verificare che le interfacce IP MetroCluster siano state create:

    metrocluster configuration-settings interface show

    cluster_A::>metrocluster configuration-settings interface show
    
    DR                                                                    Config
    Group Cluster Node    Network Address Netmask         Gateway         State
    ----- ------- ------- --------------- --------------- --------------- ---------
    1     cluster_A
                 node_A_1-old
                     Home Port: e1a
                          172.17.26.10    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.27.10    255.255.255.0   -               completed
                  node_A_2-old
                     Home Port: e1a
                          172.17.26.11    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.27.11    255.255.255.0   -               completed
          cluster_B
                 node_B_1-old
                     Home Port: e1a
                          172.17.26.13    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.27.13    255.255.255.0   -               completed
                  node_B_1-old
                     Home Port: e1a
                          172.17.26.12    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.27.12    255.255.255.0   -               completed
    2     cluster_A
                 node_A_3-new
                     Home Port: e1a
                          172.17.28.10    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.29.10    255.255.255.0   -               completed
                  node_A_3-new
                     Home Port: e1a
                          172.17.28.11    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.29.11    255.255.255.0   -               completed
          cluster_B
                 node_B_3-new
                     Home Port: e1a
                          172.17.28.13    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.29.13    255.255.255.0   -               completed
                  node_B_3-new
                     Home Port: e1a
                          172.17.28.12    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.29.12    255.255.255.0   -               completed
    8 entries were displayed.
    
    cluster_A>
  7. Collegare le interfacce IP di MetroCluster:

    metrocluster configuration-settings connection connect

    Nota Il completamento di questo comando potrebbe richiedere alcuni minuti.
    cluster_A::> metrocluster configuration-settings connection connect
    
    cluster_A::>
  8. Verificare che le connessioni siano state stabilite correttamente: metrocluster configuration-settings connection show

    cluster_A::> metrocluster configuration-settings connection show
    
    DR                    Source          Destination
    Group Cluster Node    Network Address Network Address Partner Type Config State
    ----- ------- ------- --------------- --------------- ------------ ------------
    1     cluster_A
                  node_A_1-old
                     Home Port: e1a
                          172.17.28.10    172.17.28.11    HA Partner   completed
                     Home Port: e1a
                          172.17.28.10    172.17.28.12    DR Partner   completed
                     Home Port: e1a
                          172.17.28.10    172.17.28.13    DR Auxiliary completed
                     Home Port: e1b
                          172.17.29.10    172.17.29.11    HA Partner   completed
                     Home Port: e1b
                          172.17.29.10    172.17.29.12    DR Partner   completed
                     Home Port: e1b
                          172.17.29.10    172.17.29.13    DR Auxiliary completed
                  node_A_2-old
                     Home Port: e1a
                          172.17.28.11    172.17.28.10    HA Partner   completed
                     Home Port: e1a
                          172.17.28.11    172.17.28.13    DR Partner   completed
                     Home Port: e1a
                          172.17.28.11    172.17.28.12    DR Auxiliary completed
                     Home Port: e1b
                          172.17.29.11    172.17.29.10    HA Partner   completed
                     Home Port: e1b
                          172.17.29.11    172.17.29.13    DR Partner   completed
                     Home Port: e1b
                          172.17.29.11    172.17.29.12    DR Auxiliary completed
    
    DR                    Source          Destination
    Group Cluster Node    Network Address Network Address Partner Type Config State
    ----- ------- ------- --------------- --------------- ------------ ------------
    1     cluster_B
                  node_B_2-old
                     Home Port: e1a
                          172.17.28.13    172.17.28.12    HA Partner   completed
                     Home Port: e1a
                          172.17.28.13    172.17.28.11    DR Partner   completed
                     Home Port: e1a
                          172.17.28.13    172.17.28.10    DR Auxiliary completed
                     Home Port: e1b
                          172.17.29.13    172.17.29.12    HA Partner   completed
                     Home Port: e1b
                          172.17.29.13    172.17.29.11    DR Partner   completed
                     Home Port: e1b
                          172.17.29.13    172.17.29.10    DR Auxiliary completed
                  node_B_1-old
                     Home Port: e1a
                          172.17.28.12    172.17.28.13    HA Partner   completed
                     Home Port: e1a
                          172.17.28.12    172.17.28.10    DR Partner   completed
                     Home Port: e1a
                          172.17.28.12    172.17.28.11    DR Auxiliary completed
                     Home Port: e1b
                          172.17.29.12    172.17.29.13    HA Partner   completed
                     Home Port: e1b
                          172.17.29.12    172.17.29.10    DR Partner   completed
                     Home Port: e1b
                          172.17.29.12    172.17.29.11    DR Auxiliary completed
    
    DR                    Source          Destination
    Group Cluster Node    Network Address Network Address Partner Type Config State
    ----- ------- ------- --------------- --------------- ------------ ------------
    2     cluster_A
                  node_A_1-new**
                     Home Port: e1a
                          172.17.26.10    172.17.26.11    HA Partner   completed
                     Home Port: e1a
                          172.17.26.10    172.17.26.12    DR Partner   completed
                     Home Port: e1a
                          172.17.26.10    172.17.26.13    DR Auxiliary completed
                     Home Port: e1b
                          172.17.27.10    172.17.27.11    HA Partner   completed
                     Home Port: e1b
                          172.17.27.10    172.17.27.12    DR Partner   completed
                     Home Port: e1b
                          172.17.27.10    172.17.27.13    DR Auxiliary completed
                  node_A_2-new
                     Home Port: e1a
                          172.17.26.11    172.17.26.10    HA Partner   completed
                     Home Port: e1a
                          172.17.26.11    172.17.26.13    DR Partner   completed
                     Home Port: e1a
                          172.17.26.11    172.17.26.12    DR Auxiliary completed
                     Home Port: e1b
                          172.17.27.11    172.17.27.10    HA Partner   completed
                     Home Port: e1b
                          172.17.27.11    172.17.27.13    DR Partner   completed
                     Home Port: e1b
                          172.17.27.11    172.17.27.12    DR Auxiliary completed
    
    DR                    Source          Destination
    Group Cluster Node    Network Address Network Address Partner Type Config State
    ----- ------- ------- --------------- --------------- ------------ ------------
    2     cluster_B
                  node_B_2-new
                     Home Port: e1a
                          172.17.26.13    172.17.26.12    HA Partner   completed
                     Home Port: e1a
                          172.17.26.13    172.17.26.11    DR Partner   completed
                     Home Port: e1a
                          172.17.26.13    172.17.26.10    DR Auxiliary completed
                     Home Port: e1b
                          172.17.27.13    172.17.27.12    HA Partner   completed
                     Home Port: e1b
                          172.17.27.13    172.17.27.11    DR Partner   completed
                     Home Port: e1b
                          172.17.27.13    172.17.27.10    DR Auxiliary completed
                  node_B_1-new
                     Home Port: e1a
                          172.17.26.12    172.17.26.13    HA Partner   completed
                     Home Port: e1a
                          172.17.26.12    172.17.26.10    DR Partner   completed
                     Home Port: e1a
                          172.17.26.12    172.17.26.11    DR Auxiliary completed
                     Home Port: e1b
                          172.17.27.12    172.17.27.13    HA Partner   completed
                     Home Port: e1b
                          172.17.27.12    172.17.27.10    DR Partner   completed
                     Home Port: e1b
                          172.17.27.12    172.17.27.11    DR Auxiliary completed
    48 entries were displayed.
    
    cluster_A::>
  9. Verificare l'assegnazione automatica e il partizionamento del disco:

    disk show -pool Pool1

    cluster_A::> disk show -pool Pool1
                         Usable           Disk    Container   Container
    Disk                   Size Shelf Bay Type    Type        Name      Owner
    ---------------- ---------- ----- --- ------- ----------- --------- --------
    1.10.4                    -    10   4 SAS     remote      -         node_B_2
    1.10.13                   -    10  13 SAS     remote      -         node_B_2
    1.10.14                   -    10  14 SAS     remote      -         node_B_1
    1.10.15                   -    10  15 SAS     remote      -         node_B_1
    1.10.16                   -    10  16 SAS     remote      -         node_B_1
    1.10.18                   -    10  18 SAS     remote      -         node_B_2
    ...
    2.20.0              546.9GB    20   0 SAS     aggregate   aggr0_rha1_a1 node_a_1
    2.20.3              546.9GB    20   3 SAS     aggregate   aggr0_rha1_a2 node_a_2
    2.20.5              546.9GB    20   5 SAS     aggregate   rha1_a1_aggr1 node_a_1
    2.20.6              546.9GB    20   6 SAS     aggregate   rha1_a1_aggr1 node_a_1
    2.20.7              546.9GB    20   7 SAS     aggregate   rha1_a2_aggr1 node_a_2
    2.20.10             546.9GB    20  10 SAS     aggregate   rha1_a1_aggr1 node_a_1
    ...
    43 entries were displayed.
    
    cluster_A::>
  10. Mirroring degli aggregati root:

    storage aggregate mirror -aggregate aggr0_node_A_1-new

    Nota È necessario completare questo passaggio su ciascun nodo IP MetroCluster.
    cluster_A::> aggr mirror -aggregate aggr0_node_A_1-new
    
    Info: Disks would be added to aggregate "aggr0_node_A_1-new"on node "node_A_1-new"
          in the following manner:
    
          Second Plex
    
            RAID Group rg0, 3 disks (block checksum, raid_dp)
                                                                Usable Physical
              Position   Disk                      Type           Size     Size
              ---------- ------------------------- ---------- -------- --------
              dparity    4.20.0                    SAS               -        -
              parity     4.20.3                    SAS               -        -
              data       4.20.1                    SAS         546.9GB  558.9GB
    
          Aggregate capacity available forvolume use would be 467.6GB.
    
    Do you want to continue? {y|n}: y
    
    cluster_A::>
  11. Verificare che gli aggregati root siano mirrorati:

    storage aggregate show

    cluster_A::> aggr show
    
    Aggregate     Size Available Used% State   #Vols  Nodes            RAID Status
    --------- -------- --------- ----- ------- ------ ---------------- ------------
    aggr0_node_A_1-old
               349.0GB   16.84GB   95% online       1 node_A_1-old      raid_dp,
                                                                       mirrored,
                                                                       normal
    aggr0_node_A_2-old
               349.0GB   16.84GB   95% online       1 node_A_2-old      raid_dp,
                                                                       mirrored,
                                                                       normal
    aggr0_node_A_1-new
               467.6GB   22.63GB   95% online       1 node_A_1-new      raid_dp,
                                                                       mirrored,
                                                                       normal
    aggr0_node_A_2-new
               467.6GB   22.62GB   95% online       1 node_A_2-new      raid_dp,
                                                                       mirrored,
                                                                       normal
    aggr_data_a1
                1.02TB    1.01TB    1% online       1 node_A_1-old      raid_dp,
                                                                       mirrored,
                                                                       normal
    aggr_data_a2
                1.02TB    1.01TB    1% online       1 node_A_2-old      raid_dp,
                                                                       mirrored,

Finalizzare l'aggiunta dei nuovi nodi

È necessario incorporare il nuovo gruppo DR nella configurazione MetroCluster e creare aggregati di dati mirrorati sui nuovi nodi.

Fasi
  1. Aggiornare la configurazione MetroCluster:

    1. Accedere alla modalità avanzata dei privilegi:

      set -privilege advanced

    2. Aggiornare la configurazione MetroCluster su uno dei nuovi nodi:

      metrocluster configure

      L'esempio seguente mostra la configurazione MetroCluster aggiornata su entrambi i gruppi di DR:

    cluster_A::*> metrocluster configure -refresh true
    
    [Job 726] Job succeeded: Configure is successful.
    1. Riavviare ciascuno dei nuovi nodi:

      node reboot -node <node_name> -inhibit-takeover true

    2. Tornare alla modalità privilegi di amministratore:

      set -privilege admin

  2. Creare aggregati di dati mirrorati su ciascuno dei nuovi nodi MetroCluster:

    storage aggregate create -aggregate aggregate-name -node node-name -diskcount no-of-disks -mirror true

    Nota È necessario creare almeno un aggregato di dati mirrorati per sito. Si consiglia di disporre di due aggregati di dati mirrorati per sito su nodi IP MetroCluster per ospitare i volumi MDV, tuttavia è supportato un singolo aggregato per sito (ma non consigliato). È possibile che un sito di MetroCluster disponga di un singolo aggregato di dati mirrorati e l'altro sito disponga di più aggregato di dati mirrorati.

    Nell'esempio seguente viene illustrata la creazione di un aggregato su Node_A_1-New.

    cluster_A::> storage aggregate create -aggregate data_a3 -node node_A_1-new -diskcount 10 -mirror t
    
    Info: The layout for aggregate "data_a3" on node "node_A_1-new" would be:
    
          First Plex
    
            RAID Group rg0, 5 disks (block checksum, raid_dp)
                                                                Usable Physical
              Position   Disk                      Type           Size     Size
              ---------- ------------------------- ---------- -------- --------
              dparity    5.10.15                   SAS               -        -
              parity     5.10.16                   SAS               -        -
              data       5.10.17                   SAS         546.9GB  547.1GB
              data       5.10.18                   SAS         546.9GB  558.9GB
              data       5.10.19                   SAS         546.9GB  558.9GB
    
          Second Plex
    
            RAID Group rg0, 5 disks (block checksum, raid_dp)
                                                                Usable Physical
              Position   Disk                      Type           Size     Size
              ---------- ------------------------- ---------- -------- --------
              dparity    4.20.17                   SAS               -        -
              parity     4.20.14                   SAS               -        -
              data       4.20.18                   SAS         546.9GB  547.1GB
              data       4.20.19                   SAS         546.9GB  547.1GB
              data       4.20.16                   SAS         546.9GB  547.1GB
    
          Aggregate capacity available for volume use would be 1.37TB.
    
    Do you want to continue? {y|n}: y
    [Job 440] Job succeeded: DONE
    
    cluster_A::>
  3. Verificare che i nodi siano aggiunti al gruppo di DR.

    cluster_A::*> metrocluster node show
    
    DR                               Configuration  DR
    Group Cluster Node               State          Mirroring Mode
    ----- ------- ------------------ -------------- --------- --------------------
    1     cluster_A
                  node_A_1-old        configured     enabled   normal
                  node_A_2-old        configured     enabled   normal
          cluster_B
                  node_B_1-old        configured     enabled   normal
                  node_B_2-old        configured     enabled   normal
    2     cluster_A
                  node_A_3-new        configured     enabled   normal
                  node_A_4-new        configured     enabled   normal
          cluster_B
                  node_B_3-new        configured     enabled   normal
                  node_B_4-new        configured     enabled   normal
    8 entries were displayed.
    
    cluster_A::*>
  4. Spostare i volumi MDV_CRS dai vecchi nodi ai nuovi nodi con privilegi avanzati.

    1. Visualizzare i volumi per identificare i volumi MDV:

      Nota Se si dispone di un singolo aggregato di dati mirrorati per sito, spostare entrambi i volumi MDV in questo singolo aggregato. Se si dispone di due o più aggregati di dati mirrorati, spostare ciascun volume MDV in un aggregato diverso.

      L'esempio seguente mostra i volumi MDV in volume show uscita:

      cluster_A::> volume show
      Vserver   Volume       Aggregate    State      Type       Size  Available Used%
      --------- ------------ ------------ ---------- ---- ---------- ---------- -----
      ...
      
      cluster_A   MDV_CRS_2c78e009ff5611e9b0f300a0985ef8c4_A
                             aggr_b1      -          RW            -          -     -
      cluster_A   MDV_CRS_2c78e009ff5611e9b0f300a0985ef8c4_B
                             aggr_b2      -          RW            -          -     -
      cluster_A   MDV_CRS_d6b0b313ff5611e9837100a098544e51_A
                             aggr_a1      online     RW         10GB     9.50GB    0%
      cluster_A   MDV_CRS_d6b0b313ff5611e9837100a098544e51_B
                             aggr_a2      online     RW         10GB     9.50GB    0%
      ...
      11 entries were displayed.mple
    2. Impostare il livello di privilegio avanzato:

      set -privilege advanced

    3. Spostare i volumi MDV uno alla volta:

      volume move start -volume mdv-volume -destination-aggregate aggr-on-new-node -vserver vserver-name

      L'esempio seguente mostra il comando e l'output per spostare "MDV_CRS_d6b0b313ff5611e9837100a098544e51_A" per aggregare "data_a3" su "Node_A_3".

      cluster_A::*> vol move start -volume MDV_CRS_d6b0b313ff5611e9837100a098544e51_A -destination-aggregate data_a3 -vserver cluster_A
      
      Warning: You are about to modify the system volume
               "MDV_CRS_d6b0b313ff5611e9837100a098544e51_A". This might cause severe
               performance or stability problems. Do not proceed unless directed to
               do so by support. Do you want to proceed? {y|n}: y
      [Job 494] Job is queued: Move "MDV_CRS_d6b0b313ff5611e9837100a098544e51_A" in Vserver "cluster_A" to aggregate "data_a3". Use the "volume move show -vserver cluster_A -volume MDV_CRS_d6b0b313ff5611e9837100a098544e51_A" command to view the status of this operation.
    4. Utilizzare il comando di visualizzazione del volume per verificare che il volume MDV sia stato spostato correttamente:

      volume show mdv-name

      Il seguente output indica che il volume MDV è stato spostato correttamente.

    cluster_A::*> vol show MDV_CRS_d6b0b313ff5611e9837100a098544e51_B
    Vserver     Volume       Aggregate    State      Type       Size  Available Used%
    ---------   ------------ ------------ ---------- ---- ---------- ---------- -----
    cluster_A   MDV_CRS_d6b0b313ff5611e9837100a098544e51_B
                           aggr_a2      online     RW         10GB     9.50GB    0%
  5. Spostare epsilon da un nodo vecchio a un nuovo nodo:

    1. Identificare il nodo attualmente dotato di epsilon:

      cluster show -fields epsilon

      cluster_B::*> cluster show -fields epsilon
      node             epsilon
      ---------------- -------
      node_A_1-old      true
      node_A_2-old      false
      node_A_3-new      false
      node_A_4-new      false
      4 entries were displayed.
    2. Impostare epsilon su false sul vecchio nodo (node_A_1-old):

      cluster modify -node old-node -epsilon false*

    3. Impostare epsilon su true sul nuovo nodo (node_A_3-new):

      cluster modify -node new-node -epsilon true

    4. Verificare che epsilon sia stato spostato nel nodo corretto:

      cluster show -fields epsilon

    cluster_A::*> cluster show -fields epsilon
    node             epsilon
    ---------------- -------
    node_A_1-old      false
    node_A_2-old      false
    node_A_3-new      true
    node_A_4-new      false
    4 entries were displayed.
  6. Se il sistema supporta la crittografia end-to-end, è possibile farlo "Attiva la crittografia end-to-end" Nel nuovo gruppo DR.