Skip to main content
日本語は機械翻訳による参考訳です。内容に矛盾や不一致があった場合には、英語の内容が優先されます。

MetroCluster を移行対象として設定する

共同作成者

移行に向けた構成を準備するには、既存の MetroCluster 構成に新しいノードを追加してから、新しいノードにデータを移動します。

カスタム AutoSupport メッセージをメンテナンス前に送信する

メンテナンスを実行する前に、 AutoSupport an 問題 message to notify NetApp technical support that maintenance is maintenancing (メンテナンスが進行中であることをネットアップテクニカルサポートに通知する)を実行システム停止が発生したとみなしてテクニカルサポートがケースをオープンしないように、メンテナンスが進行中であることを通知する必要があります。

このタスクについて

このタスクは MetroCluster サイトごとに実行する必要があります。

手順
  1. サポートケースが自動で生成されないようにするには、メンテナンスが進行中であることを示す AutoSupport メッセージを送信します。

    「 system node AutoSupport invoke -node * -type all -message MAINT= maintenance-window-in-hours 」というメッセージが表示されます

    「 maintenance-window-in-hours 」には、メンテナンス・ウィンドウの長さを 72 時間まで指定します。この時間が経過する前にメンテナンスが完了した場合は、メンテナンス期間が終了したことを通知する AutoSupport メッセージを起動できます。

    「 system node AutoSupport invoke -node * -type all -message MAINT= end 」というメッセージが表示されます

  2. パートナークラスタに対してこのコマンドを繰り返します。

移行モードを有効にしてクラスタ HA を無効にします

古いノードと新しいノードを MetroCluster 構成で一緒に動作できるようにし、クラスタ HA を無効にするには、 MetroCluster 移行モードを有効にする必要があります。

  1. 移行を有効にします。

    1. advanced 権限レベルに切り替えます。

      「 advanced 」の権限が必要です

    2. 移行モードを有効にします。

      MetroCluster transition enable-transition-mode non-disruptive

      メモ このコマンドは 1 つのクラスタでのみ実行してください。
    cluster_A::*> metrocluster transition enable -transition-mode non-disruptive
    
    Warning: This command enables the start of a "non-disruptive" MetroCluster
             FC-to-IP transition. It allows the addition of hardware for another DR
             group that uses IP fabrics, and the removal of a DR group that uses FC
             fabrics. Clients will continue to access their data during a
             non-disruptive transition.
    
             Automatic unplanned switchover will also be disabled by this command.
    Do you want to continue? {y|n}: y
    
    cluster_A::*>
    1. admin 権限レベルに戻ります。

      「特権管理者」

  2. 両方のクラスタで移行が有効になっていることを確認します。

    cluster_A::> metrocluster transition show-mode
    Transition Mode
    
    non-disruptive
    
    cluster_A::*>
    
    
    cluster_B::*> metrocluster transition show-mode
    Transition Mode
    
    non-disruptive
    
    Cluster_B::>
  3. クラスタ HA を無効にします。

    メモ このコマンドは両方のクラスタで実行する必要があります。
    cluster_A::*> cluster ha modify -configured false
    
    Warning: This operation will unconfigure cluster HA. Cluster HA must be
    configured on a two-node cluster to ensure data access availability in
    the event of storage failover.
    Do you want to continue? {y|n}: y
    Notice: HA is disabled.
    
    cluster_A::*>
    
    
    cluster_B::*> cluster ha modify -configured false
    
    Warning: This operation will unconfigure cluster HA. Cluster HA must be
    configured on a two-node cluster to ensure data access availability in
    the event of storage failover.
    Do you want to continue? {y|n}: y
    Notice: HA is disabled.
    
    cluster_B::*>
  4. クラスタ HA が無効になっていることを確認する。

    メモ このコマンドは両方のクラスタで実行する必要があります。
    cluster_A::> cluster ha show
    
    High Availability Configured: false
    Warning: Cluster HA has not been configured. Cluster HA must be configured
    on a two-node cluster to ensure data access availability in the
    event of storage failover. Use the "cluster ha modify -configured
    true" command to configure cluster HA.
    
    cluster_A::>
    
    cluster_B::> cluster ha show
    
    High Availability Configured: false
    Warning: Cluster HA has not been configured. Cluster HA must be configured
    on a two-node cluster to ensure data access availability in the
    event of storage failover. Use the "cluster ha modify -configured
    true" command to configure cluster HA.
    
    cluster_B::>

MetroCluster IP ノードのクラスタへの追加

4 つの新しい MetroCluster IP ノードを既存の MetroCluster 構成に追加する必要があります。

このタスクについて

このタスクは両方のクラスタで実行する必要があります。

手順
  1. 既存の MetroCluster 構成に MetroCluster IP ノードを追加

    1. 最初のMetroCluster IPノード(node_A_1のIP)を既存のMetroCluster FC構成に追加します。

      Welcome to the cluster setup wizard.
      
      You can enter the following commands at any time:
        "help" or "?" - if you want to have a question clarified,
        "back" - if you want to change previously answered questions, and
        "exit" or "quit" - if you want to quit the cluster setup wizard.
           Any changes you made before quitting will be saved.
      
      You can return to cluster setup at any time by typing "cluster setup".
      To accept a default or omit a question, do not enter a value.
      
      This system will send event messages and periodic reports to NetApp Technical
      Support. To disable this feature, enter autosupport modify -support disable
      within 24 hours.
      
      Enabling AutoSupport can significantly speed problem determination and
      resolution, should a problem occur on your system.
      For further information on AutoSupport, see:
      http://support.netapp.com/autosupport/
      
      Type yes to confirm and continue {yes}: yes
      
      Enter the node management interface port [e0M]:
      Enter the node management interface IP address: 172.17.8.93
      Enter the node management interface netmask: 255.255.254.0
      Enter the node management interface default gateway: 172.17.8.1
      A node management interface on port e0M with IP address 172.17.8.93 has been created.
      
      Use your web browser to complete cluster setup by accessing https://172.17.8.93
      
      Otherwise, press Enter to complete cluster setup using the command line
      interface:
      
      Do you want to create a new cluster or join an existing cluster? {create, join}:
      join
      
      
      Existing cluster interface configuration found:
      
      Port    MTU     IP              Netmask
      e0c     9000    169.254.148.217 255.255.0.0
      e0d     9000    169.254.144.238 255.255.0.0
      
      Do you want to use this configuration? {yes, no} [yes]: yes
      .
      .
      .
    2. 2つ目のMetroCluster IPノード(node_A_1の4つのIP)を既存のMetroCluster FC構成に追加します。

  2. 同じ手順を繰り返して、node_B_1のIPとnode_B_2のIPをcluster_Bに追加します

クラスタ間 LIF の設定、 MetroCluster インターフェイスの作成、およびルートアグリゲートのミラーリングを行います

クラスタピア LIF を作成し、新しい MetroCluster IP ノードに MetroCluster インターフェイスを作成する必要があります。

このタスクについて

例で使用しているホームポートはプラットフォーム固有です。MetroCluster IP ノードプラットフォームに固有の適切なホームポートを使用する必要があります。

手順
  1. 新しい MetroCluster IP ノードで、 "クラスタ間 LIF を設定"

  2. 各サイトで、クラスタピアリングが設定されていることを確認します。

    cluster peer show

    次の例は、 cluster_A のクラスタピアリング設定を示しています。

    cluster_A:> cluster peer show
    Peer Cluster Name         Cluster Serial Number Availability   Authentication
    ------------------------- --------------------- -------------- --------------
    cluster_B                 1-80-000011           Available      ok

    次の例は、 cluster_B でのクラスタピアリング設定を示しています。

    cluster_B:> cluster peer show
    Peer Cluster Name         Cluster Serial Number Availability   Authentication
    ------------------------- --------------------- -------------- --------------
    cluster_A 1-80-000011 Available ok
  3. MetroCluster IP ノードの DR グループを設定します。

    MetroCluster 構成設定 dr-group create -partner-cluster

    cluster_A::> metrocluster configuration-settings dr-group create -partner-cluster
    cluster_B -local-node node_A_3-IP -remote-node node_B_3-IP
    [Job 259] Job succeeded: DR Group Create is successful.
    cluster_A::>
  4. DR グループが作成されたことを確認します。

    「 MetroCluster configurion-settings dr-group show 」を参照してください

    cluster_A::> metrocluster configuration-settings dr-group show
    
    DR Group ID Cluster                    Node               DR Partner Node
    ----------- -------------------------- ------------------ ------------------
    2           cluster_A
                                           node_A_3-IP        node_B_3-IP
                                           node_A_4-IP        node_B_4-IP
                cluster_B
                                           node_B_3-IP        node_A_3-IP
                                           node_B_4-IP        node_A_4-IP
    
    4 entries were displayed.
    
    cluster_A::>

    「 MetroCluster configurion-settings dr-group show 」コマンドを実行した場合、古い MetroCluster FC ノード( DR グループ 1 )の DR グループは表示されません。

    両方のサイトで「 MetroCluster node show 」コマンドを使用すると、すべてのノードを一覧表示できます。

    cluster_A::> metrocluster node show
    
    DR                               Configuration  DR
    Group Cluster Node               State          Mirroring Mode
    ----- ------- ------------------ -------------- --------- --------------------
    1     cluster_A
                  node_A_1-FC         configured     enabled   normal
                  node_A_2-FC         configured     enabled   normal
          cluster_B
                  node_B_1-FC         configured     enabled   normal
                  node_B_2-FC         configured     enabled   normal
    2     cluster_A
                  node_A_3-IP      ready to configure
                                                    -         -
                  node_A_4-IP      ready to configure
                                                    -         -
    
    cluster_B::> metrocluster node show
    
    DR                               Configuration  DR
    Group Cluster Node               State          Mirroring Mode
    ----- ------- ------------------ -------------- --------- --------------------
    1     cluster_B
                  node_B_1-FC         configured     enabled   normal
                  node_B_2-FC         configured     enabled   normal
          cluster_A
                  node_A_1-FC         configured     enabled   normal
                  node_A_2-FC         configured     enabled   normal
    2     cluster_B
                  node_B_3-IP      ready to configure
                                                    -         -
                  node_B_4-IP      ready to configure
                                                    -         -
  5. 新しく参加した MetroCluster IP ノードの MetroCluster IP インターフェイスを設定します。

    MetroCluster 構成設定インターフェイス create-cluster-name

    を参照してください "MetroCluster IP インターフェイスの設定と接続" IP インターフェイスを設定する際の考慮事項については、を参照して

    メモ どちらのクラスタからも MetroCluster IP インターフェイスを設定できます。
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_3-IP -home-port e1a -address 172.17.26.10 -netmask 255.255.255.0
    [Job 260] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_3-IP -home-port e1b -address 172.17.27.10 -netmask 255.255.255.0
    [Job 261] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_4-IP -home-port e1a -address 172.17.26.11 -netmask 255.255.255.0
    [Job 262] Job succeeded: Interface Create is successful.
    
    cluster_A::> :metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_4-IP -home-port e1b -address 172.17.27.11 -netmask 255.255.255.0
    [Job 263] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_3-IP -home-port e1a -address 172.17.26.12 -netmask 255.255.255.0
    [Job 264] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_3-IP -home-port e1b -address 172.17.27.12 -netmask 255.255.255.0
    [Job 265] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_4-IP -home-port e1a -address 172.17.26.13 -netmask 255.255.255.0
    [Job 266] Job succeeded: Interface Create is successful.
    
    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_4-IP -home-port e1b -address 172.17.27.13 -netmask 255.255.255.0
    [Job 267] Job succeeded: Interface Create is successful.
  6. MetroCluster IP インターフェイスが作成されたことを確認します。

    「 MetroCluster configurion-settings interface show 」を参照してください

    cluster_A::>metrocluster configuration-settings interface show
    
    DR                                                                    Config
    Group Cluster Node    Network Address Netmask         Gateway         State
    ----- ------- ------- --------------- --------------- --------------- ---------
    2     cluster_A
                 node_A_3-IP
                     Home Port: e1a
                          172.17.26.10    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.27.10    255.255.255.0   -               completed
                  node_A_4-IP
                     Home Port: e1a
                          172.17.26.11    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.27.11    255.255.255.0   -               completed
          cluster_B
                 node_B_3-IP
                     Home Port: e1a
                          172.17.26.13    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.27.13    255.255.255.0   -               completed
                  node_B_3-IP
                     Home Port: e1a
                          172.17.26.12    255.255.255.0   -               completed
                     Home Port: e1b
                          172.17.27.12    255.255.255.0   -               completed
    8 entries were displayed.
    
    cluster_A>
  7. MetroCluster IP インターフェイスを接続します。

    MetroCluster 構成設定接続接続

    メモ このコマンドの実行には数分かかることがあります。
    cluster_A::> metrocluster configuration-settings connection connect
    
    cluster_A::>
  8. 接続が正しく確立されたことを確認します。

    「 MetroCluster configurion-settings connection show 」を参照してください

    cluster_A::> metrocluster configuration-settings connection show
    
    DR                    Source          Destination
    Group Cluster Node    Network Address Network Address Partner Type Config State
    ----- ------- ------- --------------- --------------- ------------ ------------
    2     cluster_A
                  node_A_3-IP**
                     Home Port: e1a
                          172.17.26.10    172.17.26.11    HA Partner   completed
                     Home Port: e1a
                          172.17.26.10    172.17.26.12    DR Partner   completed
                     Home Port: e1a
                          172.17.26.10    172.17.26.13    DR Auxiliary completed
                     Home Port: e1b
                          172.17.27.10    172.17.27.11    HA Partner   completed
                     Home Port: e1b
                          172.17.27.10    172.17.27.12    DR Partner   completed
                     Home Port: e1b
                          172.17.27.10    172.17.27.13    DR Auxiliary completed
                  node_A_4-IP
                     Home Port: e1a
                          172.17.26.11    172.17.26.10    HA Partner   completed
                     Home Port: e1a
                          172.17.26.11    172.17.26.13    DR Partner   completed
                     Home Port: e1a
                          172.17.26.11    172.17.26.12    DR Auxiliary completed
                     Home Port: e1b
                          172.17.27.11    172.17.27.10    HA Partner   completed
                     Home Port: e1b
                          172.17.27.11    172.17.27.13    DR Partner   completed
                     Home Port: e1b
                          172.17.27.11    172.17.27.12    DR Auxiliary completed
    
    DR                    Source          Destination
    Group Cluster Node    Network Address Network Address Partner Type Config State
    ----- ------- ------- --------------- --------------- ------------ ------------
    2     cluster_B
                  node_B_4-IP
                     Home Port: e1a
                          172.17.26.13    172.17.26.12    HA Partner   completed
                     Home Port: e1a
                          172.17.26.13    172.17.26.11    DR Partner   completed
                     Home Port: e1a
                          172.17.26.13    172.17.26.10    DR Auxiliary completed
                     Home Port: e1b
                          172.17.27.13    172.17.27.12    HA Partner   completed
                     Home Port: e1b
                          172.17.27.13    172.17.27.11    DR Partner   completed
                     Home Port: e1b
                          172.17.27.13    172.17.27.10    DR Auxiliary completed
                  node_B_3-IP
                     Home Port: e1a
                          172.17.26.12    172.17.26.13    HA Partner   completed
                     Home Port: e1a
                          172.17.26.12    172.17.26.10    DR Partner   completed
                     Home Port: e1a
                          172.17.26.12    172.17.26.11    DR Auxiliary completed
                     Home Port: e1b
                          172.17.27.12    172.17.27.13    HA Partner   completed
                     Home Port: e1b
                          172.17.27.12    172.17.27.10    DR Partner   completed
                     Home Port: e1b
                          172.17.27.12    172.17.27.11    DR Auxiliary completed
    24 entries were displayed.
    
    cluster_A::>
  9. ディスクの自動割り当てとパーティショニングを確認します。

    「 Disk show -pool Pool1 」

    cluster_A::> disk show -pool Pool1
                         Usable           Disk    Container   Container
    Disk                   Size Shelf Bay Type    Type        Name      Owner
    ---------------- ---------- ----- --- ------- ----------- --------- --------
    1.10.4                    -    10   4 SAS     remote      -         node_B_2
    1.10.13                   -    10  13 SAS     remote      -         node_B_2
    1.10.14                   -    10  14 SAS     remote      -         node_B_1
    1.10.15                   -    10  15 SAS     remote      -         node_B_1
    1.10.16                   -    10  16 SAS     remote      -         node_B_1
    1.10.18                   -    10  18 SAS     remote      -         node_B_2
    ...
    2.20.0              546.9GB    20   0 SAS     aggregate   aggr0_rha1_a1 node_a_1
    2.20.3              546.9GB    20   3 SAS     aggregate   aggr0_rha1_a2 node_a_2
    2.20.5              546.9GB    20   5 SAS     aggregate   rha1_a1_aggr1 node_a_1
    2.20.6              546.9GB    20   6 SAS     aggregate   rha1_a1_aggr1 node_a_1
    2.20.7              546.9GB    20   7 SAS     aggregate   rha1_a2_aggr1 node_a_2
    2.20.10             546.9GB    20  10 SAS     aggregate   rha1_a1_aggr1 node_a_1
    ...
    43 entries were displayed.
    cluster_A::>
    メモ アドバンストドライブパーティショニング(ADP)用に構成されたシステムでは、次の出力例のようにコンテナタイプが「remote」ではなく「shared」になっています。
  10. ルートアグリゲートをミラーします。

    storage aggregate mirror -aggregate aggr0_node_A_3_IP

    メモ この手順は MetroCluster IP ノードごとに実行する必要があります。
    cluster_A::> aggr mirror -aggregate aggr0_node_A_3_IP
    
    Info: Disks would be added to aggregate "aggr0_node_A_3_IP"on node "node_A_3-IP"
          in the following manner:
    
          Second Plex
    
            RAID Group rg0, 3 disks (block checksum, raid_dp)
                                                                Usable Physical
              Position   Disk                      Type           Size     Size
              ---------- ------------------------- ---------- -------- --------
              dparity    4.20.0                    SAS               -        -
              parity     4.20.3                    SAS               -        -
              data       4.20.1                    SAS         546.9GB  558.9GB
    
          Aggregate capacity available for volume use would be 467.6GB.
    
    Do you want to continue? {y|n}: y
    
    cluster_A::>
  11. ルートアグリゲートがミラーされたことを確認します。

    「 storage aggregate show

    cluster_A::> aggr show
    
    Aggregate     Size Available Used% State   #Vols  Nodes            RAID Status
    --------- -------- --------- ----- ------- ------ ---------------- ------------
    aggr0_node_A_1_FC
               349.0GB   16.84GB   95% online       1 node_A_1-FC      raid_dp,
                                                                       mirrored,
                                                                       normal
    aggr0_node_A_2_FC
               349.0GB   16.84GB   95% online       1 node_A_2-FC      raid_dp,
                                                                       mirrored,
                                                                       normal
    aggr0_node_A_3_IP
               467.6GB   22.63GB   95% online       1 node_A_3-IP      raid_dp,
                                                                       mirrored,
                                                                       normal
    aggr0_node_A_4_IP
               467.6GB   22.62GB   95% online       1 node_A_4-IP      raid_dp,
                                                                       mirrored,
                                                                       normal
    aggr_data_a1
                1.02TB    1.01TB    1% online       1 node_A_1-FC      raid_dp,
                                                                       mirrored,
                                                                       normal
    aggr_data_a2
                1.02TB    1.01TB    1% online       1 node_A_2-FC      raid_dp,
                                                                       mirrored,

MetroCluster IP ノードの追加を完了しています

新しい DR グループを MetroCluster 構成に組み込み、新しいノードにミラーされたデータアグリゲートを作成する必要があります。

手順
  1. MetroCluster は、データアグリゲートが1つであるか複数であるかに応じて設定します。

    MetroCluster 構成の内容

    操作

    複数のデータアグリゲート

    いずれかのノードのプロンプトで、 MetroCluster を設定します。

    metrocluster configure <node-name>

    メモ 「 MetroCluster configure 」と「 MetroCluster configure -refresh true 」ではなく「 * 」を実行する必要があります

    ミラーされた 1 つのデータアグリゲート

    1. いずれかのノードのプロンプトで、 advanced 権限レベルに切り替えます。

      「 advanced 」の権限が必要です

      と応答する必要があります y advancedモードで続けるかどうかを尋ねられたら、advancedモードのプロンプト(*)が表示されます。

    2. MetroCluster に -allow-with-one-aggregate true パラメータを設定します。

      metrocluster configure -allow-with-one-aggregate true -node-name <node-name>

    3. admin 権限レベルに戻ります。

      「特権管理者」

    メモ ミラーされたデータアグリゲートを複数使用することを推奨します。ミラーされたアグリゲートが1つしかない場合、メタデータボリュームは別 々 のアグリゲートではなく同じアグリゲートに配置されるため、保護レベルは低くなります。
  2. ノードが対応する DR グループに追加されたことを確認します。

    MetroCluster node show

    cluster_A::> metrocluster node show
    
    DR                               Configuration  DR
    Group Cluster Node               State          Mirroring Mode
    ----- ------- ------------------ -------------- --------- --------------------
    1     cluster_A
                  node-A-1-FC        configured     enabled   normal
                  node-A-2-FC        configured     enabled   normal
          Cluster-B
                  node-B-1-FC        configured     enabled   normal
                  node-B-2-FC        configured     enabled   normal
    2     cluster_A
                  node-A-3-IP        configured     enabled   normal
                  node-A-4-IP        configured     enabled   normal
          Cluster-B
                  node-B-3-IP        configured     enabled   normal
                  node-B-4-IP        configured     enabled   normal
    8 entries were displayed.
    
    cluster_A::>
  3. 新しい MetroCluster ノードのそれぞれで、ミラーされたデータアグリゲートを作成します。

    「 storage aggregate create -aggregate aggregate-name -node node-name -diskcount no-disks-mirror true 」のように指定します

    メモ 各サイトに少なくとも 1 つのミラーされたデータアグリゲートを作成する必要があります。MetroCluster IP ノード上のサイトごとに 2 つのミラーされたデータアグリゲートを配置して MDV ボリュームをホストすることを推奨しますが、サイトごとに 1 つのアグリゲートをサポートできます(ただし推奨しません)。MetroCluster の一方のサイトにはミラーされたデータアグリゲートが 1 つあり、もう一方のサイトにはミラーされたデータアグリゲートが複数あることがサポートされます。

    次の例は、node_A_1のIP上にアグリゲートを作成します。

    cluster_A::> storage aggregate create -aggregate data_a3 -node node_A_3-IP -diskcount 10 -mirror t
    
    Info: The layout for aggregate "data_a3" on node "node_A_3-IP" would be:
    
          First Plex
    
            RAID Group rg0, 5 disks (block checksum, raid_dp)
                                                                Usable Physical
              Position   Disk                      Type           Size     Size
              ---------- ------------------------- ---------- -------- --------
              dparity    5.10.15                   SAS               -        -
              parity     5.10.16                   SAS               -        -
              data       5.10.17                   SAS         546.9GB  547.1GB
              data       5.10.18                   SAS         546.9GB  558.9GB
              data       5.10.19                   SAS         546.9GB  558.9GB
    
          Second Plex
    
            RAID Group rg0, 5 disks (block checksum, raid_dp)
                                                                Usable Physical
              Position   Disk                      Type           Size     Size
              ---------- ------------------------- ---------- -------- --------
              dparity    4.20.17                   SAS               -        -
              parity     4.20.14                   SAS               -        -
              data       4.20.18                   SAS         546.9GB  547.1GB
              data       4.20.19                   SAS         546.9GB  547.1GB
              data       4.20.16                   SAS         546.9GB  547.1GB
    
          Aggregate capacity available for volume use would be 1.37TB.
    
    Do you want to continue? {y|n}: y
    [Job 440] Job succeeded: DONE
    
    cluster_A::>
  4. クラスタ内のすべてのノードが正常であることを確認します。

    「 cluster show 」を参照してください

    出力に true をクリックします health すべてのノードのフィールド。

  5. 両方のクラスタで次のコマンドを実行して、テイクオーバーが可能で、ノードが接続されていることを確認します。

    「 storage failover show 」をクリックします

    cluster_A::> storage failover show
                                        Takeover
    Node           Partner              Possible    State Description
    -------------- -------------------- ---------   ------------------
    Node_FC_1      Node_FC_2              true      Connected to Node_FC_2
    Node_FC_2      Node_FC_1              true      Connected to Node_FC_1
    Node_IP_1      Node_IP_2              true      Connected to Node_IP_2
    Node_IP_2      Node_IP_1              true      Connected to Node_IP_1
  6. 新しく追加したMetroCluster IPノードに接続されているすべてのディスクがあることを確認します。

    「ディスクショー」

  7. 次のコマンドを実行して、MetroCluster構成の健全性を確認します。

    1. 「 MetroCluster check run 」のようになります

    2. MetroCluster チェックショー

    3. MetroCluster interconnect mirror show

    4. MetroCluster インターコネクト・アダプタ・ショー

  8. advanced 権限で、 MDV_CRS ボリュームを古いノードから新しいノードに移動します。

    1. ボリュームを表示して MDV ボリュームを特定します。

      メモ 各サイトにミラーされたデータアグリゲートが 1 つある場合、両方の MDV ボリュームをこの 1 つのアグリゲートに移動します。ミラーされたデータアグリゲートが 2 つ以上ある場合、各 MDV ボリュームを別々のアグリゲートに移動します。

      次の例は、 volume show の出力にある MDV ボリュームを示しています。

      cluster_A::> volume show
      Vserver   Volume       Aggregate    State      Type       Size  Available Used%
      --------- ------------ ------------ ---------- ---- ---------- ---------- -----
      ...
      
      cluster_A   MDV_CRS_2c78e009ff5611e9b0f300a0985ef8c4_A
                             aggr_b1      -          RW            -          -     -
      cluster_A   MDV_CRS_2c78e009ff5611e9b0f300a0985ef8c4_B
                             aggr_b2      -          RW            -          -     -
      cluster_A   MDV_CRS_d6b0b313ff5611e9837100a098544e51_A
                             aggr_a1      online     RW         10GB     9.50GB    0%
      cluster_A   MDV_CRS_d6b0b313ff5611e9837100a098544e51_B
                             aggr_a2      online     RW         10GB     9.50GB    0%
      ...
      11 entries were displayed.mple
    2. advanced 権限レベルを設定します。

      「 advanced 」の権限が必要です

    3. MDV ボリュームを 1 つずつ移動します。

      'volume move start -volume MDV_volume-destination-aggregate aggr-on -new-node-vserver -name

      次の例は、 MDV_CRS_d6b0b313ff5611e9837100a098544e51_a を node_A_1 のアグリゲートに移動するコマンドと出力を示しています。

      cluster_A::*> vol move start -volume MDV_CRS_d6b0b313ff5611e9837100a098544e51_A -destination-aggregate data_a3 -vserver cluster_A
      
      Warning: You are about to modify the system volume
               "MDV_CRS_d6b0b313ff5611e9837100a098544e51_A". This might cause severe
               performance or stability problems. Do not proceed unless directed to
               do so by support. Do you want to proceed? {y|n}: y
      [Job 494] Job is queued: Move "MDV_CRS_d6b0b313ff5611e9837100a098544e51_A" in Vserver "cluster_A" to aggregate "data_a3". Use the "volume move show -vserver cluster_A -volume MDV_CRS_d6b0b313ff5611e9837100a098544e51_A" command to view the status of this operation.
    4. volume show コマンドを使用して、 MDV ボリュームが正常に移動されたことを確認します。

      volume show MDV_name

      次の出力は、 MDV ボリュームが移動されたことを示しています。

    cluster_A::*> vol show MDV_CRS_d6b0b313ff5611e9837100a098544e51_B
    Vserver     Volume       Aggregate    State      Type       Size  Available Used%
    ---------   ------------ ------------ ---------- ---- ---------- ---------- -----
    cluster_A   MDV_CRS_d6b0b313ff5611e9837100a098544e51_B
                           aggr_a2      online     RW         10GB     9.50GB    0%
    1. admin モードに戻ります。

      「特権管理者」