Skip to main content
ONTAP MetroCluster
本繁體中文版使用機器翻譯,譯文僅供參考,若與英文版本牴觸,應以英文版本為準。

將叢集設定成MetroCluster 一個不只是一個的組態

貢獻者

您必須對等處理叢集、鏡射根Aggregate、建立鏡射資料Aggregate、然後發出命令來實作MetroCluster 該等作業系統。

關於這項工作

在您執行之前 metrocluster configure、HA模式和DR鏡像未啟用、您可能會看到與此預期行為相關的錯誤訊息。您稍後執行命令時、會啟用HA模式和DR鏡像 metrocluster configure 以實作組態。

停用自動磁碟機指派(如果在ONTAP 功能更新9.4中進行手動指派)

在支援率9.4的情況ONTAP 下、如果MetroCluster 您的支援率IP組態每個站台的外部儲存磁碟櫃少於四個、您就必須停用所有節點上的自動磁碟指派功能、並手動指派磁碟機。

關於這項工作

不需要ONTAP 在更新版本的版本中執行此工作。

此工作不適用於AFF 內部機櫃且無外部機櫃的不適用。

步驟
  1. 停用自動磁碟指派:

    storage disk option modify -node <node_name> -autoassign off

  2. 您需要在MetroCluster 所有節點上發出此命令、以供使用。

驗證集區0磁碟機的磁碟機指派

您必須確認遠端磁碟機對節點可見且已正確指派。

關於這項工作

自動指派取決於儲存系統平台模式和磁碟機櫃配置。

步驟
  1. 確認已自動指派集區0磁碟機:

    「尖碑秀」

    以下範例顯示AFF 沒有外部磁碟櫃的Shelfa800系統的「叢集A」輸出。

    四分之一(8個磁碟機)會自動指派給「node_a_1」、而四分之一則會自動指派給「node_a_2」。其餘磁碟機將是遠端(Pool 1)磁碟機、適用於「node_B_1」和「node_B_2」。

    cluster_A::*> disk show
                     Usable     Disk      Container           Container
    Disk             Size       Shelf Bay Type    Type        Name      Owner
    ---------------- ---------- ----- --- ------- ----------- --------- --------
    node_A_1:0n.12   1.75TB     0     12  SSD-NVM shared      aggr0     node_A_1
    node_A_1:0n.13   1.75TB     0     13  SSD-NVM shared      aggr0     node_A_1
    node_A_1:0n.14   1.75TB     0     14  SSD-NVM shared      aggr0     node_A_1
    node_A_1:0n.15   1.75TB     0     15  SSD-NVM shared      aggr0     node_A_1
    node_A_1:0n.16   1.75TB     0     16  SSD-NVM shared      aggr0     node_A_1
    node_A_1:0n.17   1.75TB     0     17  SSD-NVM shared      aggr0     node_A_1
    node_A_1:0n.18   1.75TB     0     18  SSD-NVM shared      aggr0     node_A_1
    node_A_1:0n.19   1.75TB     0     19  SSD-NVM shared      -         node_A_1
    node_A_2:0n.0    1.75TB     0     0   SSD-NVM shared      aggr0_node_A_2_0 node_A_2
    node_A_2:0n.1    1.75TB     0     1   SSD-NVM shared      aggr0_node_A_2_0 node_A_2
    node_A_2:0n.2    1.75TB     0     2   SSD-NVM shared      aggr0_node_A_2_0 node_A_2
    node_A_2:0n.3    1.75TB     0     3   SSD-NVM shared      aggr0_node_A_2_0 node_A_2
    node_A_2:0n.4    1.75TB     0     4   SSD-NVM shared      aggr0_node_A_2_0 node_A_2
    node_A_2:0n.5    1.75TB     0     5   SSD-NVM shared      aggr0_node_A_2_0 node_A_2
    node_A_2:0n.6    1.75TB     0     6   SSD-NVM shared      aggr0_node_A_2_0 node_A_2
    node_A_2:0n.7    1.75TB     0     7   SSD-NVM shared      -         node_A_2
    node_A_2:0n.24   -          0     24  SSD-NVM unassigned  -         -
    node_A_2:0n.25   -          0     25  SSD-NVM unassigned  -         -
    node_A_2:0n.26   -          0     26  SSD-NVM unassigned  -         -
    node_A_2:0n.27   -          0     27  SSD-NVM unassigned  -         -
    node_A_2:0n.28   -          0     28  SSD-NVM unassigned  -         -
    node_A_2:0n.29   -          0     29  SSD-NVM unassigned  -         -
    node_A_2:0n.30   -          0     30  SSD-NVM unassigned  -         -
    node_A_2:0n.31   -          0     31  SSD-NVM unassigned  -         -
    node_A_2:0n.36   -          0     36  SSD-NVM unassigned  -         -
    node_A_2:0n.37   -          0     37  SSD-NVM unassigned  -         -
    node_A_2:0n.38   -          0     38  SSD-NVM unassigned  -         -
    node_A_2:0n.39   -          0     39  SSD-NVM unassigned  -         -
    node_A_2:0n.40   -          0     40  SSD-NVM unassigned  -         -
    node_A_2:0n.41   -          0     41  SSD-NVM unassigned  -         -
    node_A_2:0n.42   -          0     42  SSD-NVM unassigned  -         -
    node_A_2:0n.43   -          0     43  SSD-NVM unassigned  -         -
    32 entries were displayed.

    下列範例顯示「叢集B」輸出:

    cluster_B::> disk show
                     Usable     Disk              Container   Container
    Disk             Size       Shelf Bay Type    Type        Name      Owner
    ---------------- ---------- ----- --- ------- ----------- --------- --------
    
    Info: This cluster has partitioned disks. To get a complete list of spare disk
    capacity use "storage aggregate show-spare-disks".
    node_B_1:0n.12   1.75TB     0     12  SSD-NVM shared      aggr0     node_B_1
    node_B_1:0n.13   1.75TB     0     13  SSD-NVM shared      aggr0     node_B_1
    node_B_1:0n.14   1.75TB     0     14  SSD-NVM shared      aggr0     node_B_1
    node_B_1:0n.15   1.75TB     0     15  SSD-NVM shared      aggr0     node_B_1
    node_B_1:0n.16   1.75TB     0     16  SSD-NVM shared      aggr0     node_B_1
    node_B_1:0n.17   1.75TB     0     17  SSD-NVM shared      aggr0     node_B_1
    node_B_1:0n.18   1.75TB     0     18  SSD-NVM shared      aggr0     node_B_1
    node_B_1:0n.19   1.75TB     0     19  SSD-NVM shared      -         node_B_1
    node_B_2:0n.0    1.75TB     0     0   SSD-NVM shared      aggr0_node_B_1_0 node_B_2
    node_B_2:0n.1    1.75TB     0     1   SSD-NVM shared      aggr0_node_B_1_0 node_B_2
    node_B_2:0n.2    1.75TB     0     2   SSD-NVM shared      aggr0_node_B_1_0 node_B_2
    node_B_2:0n.3    1.75TB     0     3   SSD-NVM shared      aggr0_node_B_1_0 node_B_2
    node_B_2:0n.4    1.75TB     0     4   SSD-NVM shared      aggr0_node_B_1_0 node_B_2
    node_B_2:0n.5    1.75TB     0     5   SSD-NVM shared      aggr0_node_B_1_0 node_B_2
    node_B_2:0n.6    1.75TB     0     6   SSD-NVM shared      aggr0_node_B_1_0 node_B_2
    node_B_2:0n.7    1.75TB     0     7   SSD-NVM shared      -         node_B_2
    node_B_2:0n.24   -          0     24  SSD-NVM unassigned  -         -
    node_B_2:0n.25   -          0     25  SSD-NVM unassigned  -         -
    node_B_2:0n.26   -          0     26  SSD-NVM unassigned  -         -
    node_B_2:0n.27   -          0     27  SSD-NVM unassigned  -         -
    node_B_2:0n.28   -          0     28  SSD-NVM unassigned  -         -
    node_B_2:0n.29   -          0     29  SSD-NVM unassigned  -         -
    node_B_2:0n.30   -          0     30  SSD-NVM unassigned  -         -
    node_B_2:0n.31   -          0     31  SSD-NVM unassigned  -         -
    node_B_2:0n.36   -          0     36  SSD-NVM unassigned  -         -
    node_B_2:0n.37   -          0     37  SSD-NVM unassigned  -         -
    node_B_2:0n.38   -          0     38  SSD-NVM unassigned  -         -
    node_B_2:0n.39   -          0     39  SSD-NVM unassigned  -         -
    node_B_2:0n.40   -          0     40  SSD-NVM unassigned  -         -
    node_B_2:0n.41   -          0     41  SSD-NVM unassigned  -         -
    node_B_2:0n.42   -          0     42  SSD-NVM unassigned  -         -
    node_B_2:0n.43   -          0     43  SSD-NVM unassigned  -         -
    32 entries were displayed.
    
    cluster_B::>

對等連接叢集

在不支援的組態中、叢集MetroCluster 必須處於對等關係中、以便彼此通訊、並執行MetroCluster 對恢復災難至關重要的資料鏡射。

設定叢集間生命體以進行叢集對等

您必須在MetroCluster 連接埠上建立叢集間的LIF、以便在各個連接埠之間進行通訊。您可以使用也有資料流量的專用連接埠或連接埠。

在專用連接埠上設定叢集間LIF

您可以在專用連接埠上設定叢集間的LIF。這樣做通常會增加複寫流量的可用頻寬。

步驟
  1. 列出叢集中的連接埠:

    「網路連接埠展示」

    如需完整的命令語法、請參閱手冊頁。

    以下範例顯示「cluster01」中的網路連接埠:

    cluster01::> network port show
                                                                 Speed (Mbps)
    Node   Port      IPspace      Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- ------------ ---------------- ----- ------- ------------
    cluster01-01
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
           e0e       Default      Default          up     1500   auto/1000
           e0f       Default      Default          up     1500   auto/1000
    cluster01-02
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
           e0e       Default      Default          up     1500   auto/1000
           e0f       Default      Default          up     1500   auto/1000
  2. 判斷哪些連接埠可用於叢集間通訊:

    「網路介面show -field home-port、curr-port」

    如需完整的命令語法、請參閱手冊頁。

    下列範例顯示連接埠「e0e」和「e0f」尚未指派生命區:

    cluster01::> network interface show -fields home-port,curr-port
    vserver lif                  home-port curr-port
    ------- -------------------- --------- ---------
    Cluster cluster01-01_clus1   e0a       e0a
    Cluster cluster01-01_clus2   e0b       e0b
    Cluster cluster01-02_clus1   e0a       e0a
    Cluster cluster01-02_clus2   e0b       e0b
    cluster01
            cluster_mgmt         e0c       e0c
    cluster01
            cluster01-01_mgmt1   e0c       e0c
    cluster01
            cluster01-02_mgmt1   e0c       e0c
  3. 為專用連接埠建立容錯移轉群組:

    network interface failover-groups create -vserver <system_svm> -failover-group <failover_group> -targets <physical_or_logical_ports>

    下列範例將連接埠「e0e」和「e0f」指派給系統「SVMcluster01」上的容錯移轉群組「intercluster01」:

    cluster01::> network interface failover-groups create -vserver cluster01 -failover-group
    intercluster01 -targets
    cluster01-01:e0e,cluster01-01:e0f,cluster01-02:e0e,cluster01-02:e0f
  4. 確認已建立容錯移轉群組:

    「網路介面容錯移轉群組顯示」

    如需完整的命令語法、請參閱手冊頁。

    cluster01::> network interface failover-groups show
                                      Failover
    Vserver          Group            Targets
    ---------------- ---------------- --------------------------------------------
    Cluster
                     Cluster
                                      cluster01-01:e0a, cluster01-01:e0b,
                                      cluster01-02:e0a, cluster01-02:e0b
    cluster01
                     Default
                                      cluster01-01:e0c, cluster01-01:e0d,
                                      cluster01-02:e0c, cluster01-02:e0d,
                                      cluster01-01:e0e, cluster01-01:e0f
                                      cluster01-02:e0e, cluster01-02:e0f
                     intercluster01
                                      cluster01-01:e0e, cluster01-01:e0f
                                      cluster01-02:e0e, cluster01-02:e0f
  5. 在系統SVM上建立叢集間LIF、並將它們指派給容錯移轉群組。

    在 ONTAP 9.6 及更新版本中、執行:

    network interface create -vserver <system_svm> -lif <lif_name> -service-policy default-intercluster -home-node <node_name> -home-port <port_name> -address <port_ip_address> -netmask <netmask_address> -failover-group <failover_group>

    在 ONTAP 9.5 或更早版本中、執行:

    network interface create -vserver <system_svm> -lif <lif_name> -role intercluster -home-node <node_name> -home-port <port_name> -address <port_ip_address> -netmask <netmask_address> -failover-group <failover_group>

    如需完整的命令語法、請參閱手冊頁。

    下列範例會在容錯移轉群組「intercluster01」中建立叢集間LIF「cluster01_icl01」和「cluster01_icl02」:

    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl01 -service-
    policy default-intercluster -home-node cluster01-01 -home-port e0e -address 192.168.1.201
    -netmask 255.255.255.0 -failover-group intercluster01
    
    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl02 -service-
    policy default-intercluster -home-node cluster01-02 -home-port e0e -address 192.168.1.202
    -netmask 255.255.255.0 -failover-group intercluster01
  6. 驗證是否已建立叢集間的LIF:

    在 ONTAP 9.6 及更新版本中、執行:

    「網路介面show -service-policy default-intercluster」

    在 ONTAP 9.5 或更早版本中、執行:

    「網路介面show -role intercluster」

    如需完整的命令語法、請參閱手冊頁。

    cluster01::> network interface show -service-policy default-intercluster
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    cluster01
                cluster01_icl01
                           up/up      192.168.1.201/24   cluster01-01  e0e     true
                cluster01_icl02
                           up/up      192.168.1.202/24   cluster01-02  e0f     true
  7. 驗證叢集間的LIF是否為備援:

    在 ONTAP 9.6 及更新版本中、執行:

    「網路介面show -service-policy default-intercluster -容 錯移轉」

    在 ONTAP 9.5 或更早版本中、執行:

    「網路介面show -role intercluster -容 錯移轉」

    如需完整的命令語法、請參閱手冊頁。

    下列範例顯示、「SVMe0e」連接埠上的叢集間lifs「cluster01_icl01」和「cluster01_icl02」將容錯移轉至「e0f」連接埠。

    cluster01::> network interface show -service-policy default-intercluster –failover
             Logical         Home                  Failover        Failover
    Vserver  Interface       Node:Port             Policy          Group
    -------- --------------- --------------------- --------------- --------
    cluster01
             cluster01_icl01 cluster01-01:e0e   local-only      intercluster01
                                Failover Targets:  cluster01-01:e0e,
                                                   cluster01-01:e0f
             cluster01_icl02 cluster01-02:e0e   local-only      intercluster01
                                Failover Targets:  cluster01-02:e0e,
                                                   cluster01-02:e0f

在共享的資料連接埠上設定叢集間LIF

您可以在與資料網路共用的連接埠上設定叢集間的LIF。如此可減少叢集間網路所需的連接埠數量。

步驟
  1. 列出叢集中的連接埠:

    「網路連接埠展示」

    如需完整的命令語法、請參閱手冊頁。

    以下範例顯示「cluster01」中的網路連接埠:

    cluster01::> network port show
                                                                 Speed (Mbps)
    Node   Port      IPspace      Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- ------------ ---------------- ----- ------- ------------
    cluster01-01
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
    cluster01-02
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
  2. 在系統SVM上建立叢集間LIF:

    在 ONTAP 9.6 及更新版本中、執行:

    network interface create -vserver <system_svm> -lif <lif_name> -service-policy default-intercluster -home-node <node_name> -home-port <port_name> -address <port_ip_address> -netmask <netmask>

    在 ONTAP 9.5 或更早版本中、執行:

    network interface create -vserver <system_svm> -lif <lif_name> -role intercluster -home-node <node_name> -home-port <port_name> -address <port_ip_address> -netmask <netmask>

    如需完整的命令語法、請參閱手冊頁。

    下列範例會建立叢集間LIF「cluster01_icl01」和「cluster01_icl02」:

    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl01 -service-
    policy default-intercluster -home-node cluster01-01 -home-port e0c -address 192.168.1.201
    -netmask 255.255.255.0
    
    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl02 -service-
    policy default-intercluster -home-node cluster01-02 -home-port e0c -address 192.168.1.202
    -netmask 255.255.255.0
  3. 驗證是否已建立叢集間的LIF:

    在 ONTAP 9.6 及更新版本中、執行:

    「網路介面show -service-policy default-intercluster」

    在 ONTAP 9.5 或更早版本中、執行:

    「網路介面show -role intercluster」

    如需完整的命令語法、請參閱手冊頁。

    cluster01::> network interface show -service-policy default-intercluster
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    cluster01
                cluster01_icl01
                           up/up      192.168.1.201/24   cluster01-01  e0c     true
                cluster01_icl02
                           up/up      192.168.1.202/24   cluster01-02  e0c     true
  4. 驗證叢集間的LIF是否為備援:

    在 ONTAP 9.6 及更新版本中、執行:

    「網路介面show–service-policy default-intercluster -faulty」

    在 ONTAP 9.5 或更早版本中、執行:

    「網路介面show -role intercluster -容 錯移轉」

    如需完整的命令語法、請參閱手冊頁。

    下列範例顯示、「e0c」連接埠上的叢集間LIF「cluster01_icl01」和「cluster01_icl02」將會容錯移轉至「e0d」連接埠。

    cluster01::> network interface show -service-policy default-intercluster –failover
             Logical         Home                  Failover        Failover
    Vserver  Interface       Node:Port             Policy          Group
    -------- --------------- --------------------- --------------- --------
    cluster01
             cluster01_icl01 cluster01-01:e0c   local-only      192.168.1.201/24
                                Failover Targets: cluster01-01:e0c,
                                                  cluster01-01:e0d
             cluster01_icl02 cluster01-02:e0c   local-only      192.168.1.201/24
                                Failover Targets: cluster01-02:e0c,
                                                  cluster01-02:e0d

建立叢集對等關係

您可以使用叢集對等項create命令、在本機與遠端叢集之間建立對等關係。建立對等關係之後、您可以在遠端叢集上執行叢集對等建立、將其驗證至本機叢集。

關於這項工作
  • 您必須在叢集中每個要處理的節點上建立叢集間生命體。

  • 叢集必須執行ONTAP 的是不含更新版本的版本。

步驟
  1. 在目的地叢集上、建立與來源叢集的對等關係:

    cluster peer create -generate-passphrase -offer-expiration <MM/DD/YYYY HH:MM:SS|1…​7days|1…​168hours> -peer-addrs <peer_lif_ip_addresses> -ipspace <ipspace>

    如果您同時指定「-genere-phrase」和「-peer-addrs」、則只有在「-per-addrs」中指定叢集間生命體的叢集才能使用所產生的密碼。

    如果不使用自訂IPspace、您可以忽略「-IPSpace」選項。如需完整的命令語法、請參閱手冊頁。

    下列範例會在未指定的遠端叢集上建立叢集對等關係:

    cluster02::> cluster peer create -generate-passphrase -offer-expiration 2days
    
                         Passphrase: UCa+6lRVICXeL/gq1WrK7ShR
                    Expiration Time: 6/7/2017 08:16:10 EST
      Initial Allowed Vserver Peers: -
                Intercluster LIF IP: 192.140.112.101
                  Peer Cluster Name: Clus_7ShR (temporary generated)
    
    Warning: make a note of the passphrase - it cannot be displayed again.
  2. 在來源叢集上、驗證來源叢集到目的地叢集的驗證:

    cluster peer create -peer-addrs <peer_lif_ip_addresses> -ipspace <ipspace>

    如需完整的命令語法、請參閱手冊頁。

    下列範例驗證本機叢集到叢集間LIF IP位址「192.140.112.101」和「192.140.112.102」的遠端叢集:

    cluster01::> cluster peer create -peer-addrs 192.140.112.101,192.140.112.102
    
    Notice: Use a generated passphrase or choose a passphrase of 8 or more characters.
            To ensure the authenticity of the peering relationship, use a phrase or sequence of characters that would be hard to guess.
    
    Enter the passphrase:
    Confirm the passphrase:
    
    Clusters cluster02 and cluster01 are peered.

    出現提示時、請輸入對等關係的通關密碼。

  3. 確認已建立叢集對等關係:

    「叢集對等端點顯示-instance」

    cluster01::> cluster peer show -instance
    
                                   Peer Cluster Name: cluster02
                       Remote Intercluster Addresses: 192.140.112.101, 192.140.112.102
                  Availability of the Remote Cluster: Available
                                 Remote Cluster Name: cluster2
                                 Active IP Addresses: 192.140.112.101, 192.140.112.102
                               Cluster Serial Number: 1-80-123456
                      Address Family of Relationship: ipv4
                Authentication Status Administrative: no-authentication
                   Authentication Status Operational: absent
                                    Last Update Time: 02/05 21:05:41
                        IPspace for the Relationship: Default
  4. 檢查對等關係中節點的連線能力和狀態:

    「叢集同儕健康展」

    cluster01::> cluster peer health show
    Node       cluster-Name                Node-Name
                 Ping-Status               RDB-Health Cluster-Health  Avail…
    ---------- --------------------------- ---------  --------------- --------
    cluster01-01
               cluster02                   cluster02-01
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           cluster02-02
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
    cluster01-02
               cluster02                   cluster02-01
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           cluster02-02
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true

建立DR群組

您必須在叢集之間建立災難恢復(DR)群組關係。

關於這項工作

您可以在MetroCluster 支援此功能的叢集上執行此程序、以在兩個叢集的節點之間建立DR關係。

註 建立DR群組之後、就無法變更DR關係。
MCC DR群組4個節點
步驟
  1. 在每個節點上輸入下列命令、確認節點已準備好建立DR群組:

    「組態設定顯示狀態」MetroCluster

    命令輸出應顯示節點已就緒:

    cluster_A::> metrocluster configuration-settings show-status
    Cluster                    Node          Configuration Settings Status
    -------------------------- ------------- --------------------------------
    cluster_A                  node_A_1      ready for DR group create
                               node_A_2      ready for DR group create
    2 entries were displayed.
    cluster_B::> metrocluster configuration-settings show-status
    Cluster                    Node          Configuration Settings Status
    -------------------------- ------------- --------------------------------
    cluster_B                  node_B_1      ready for DR group create
                               node_B_2      ready for DR group create
    2 entries were displayed.
  2. 建立DR群組:

    metrocluster configuration-settings dr-group create -partner-cluster <partner_cluster_name> -local-node <local_node_name> -remote-node <remote_node_name>

    此命令只發出一次。不需要在合作夥伴叢集上重複執行。在命令中、您可以指定遠端叢集的名稱、以及合作夥伴叢集上的一個本機節點和一個節點的名稱。

    您指定的兩個節點已設定為DR合作夥伴、其他兩個節點(未在命令中指定)則設定為DR群組中的第二個DR配對。輸入此命令後、這些關係便無法變更。

    下列命令會建立這些DR配對:

    • node_a_1和node_b_1

    • node_a_2和node_b_2

    Cluster_A::> metrocluster configuration-settings dr-group create -partner-cluster cluster_B -local-node node_A_1 -remote-node node_B_1
    [Job 27] Job succeeded: DR Group Create is successful.

設定及連線MetroCluster 功能

您必須設定MetroCluster 用於複寫每個節點儲存和非揮發性快取的Eshow IP介面。然後、您就可以使用MetroCluster 靜態IP介面建立連線。這會建立用於儲存複寫的iSCSI連線。

註 建立 MetroCluster IP 介面之後、 MetroCluster IP 和連接的交換器連接埠才會上線。
關於這項工作
  • 您必須為每個節點建立兩個介面。這些介面必須與MetroCluster 在RESRCF檔案中定義的VLAN相關聯。

  • 根據您的 ONTAP 版本、您可以在初始設定後變更某些 MetroCluster IP 介面內容。如需支援項目的詳細資訊、請參閱 "修改 MetroCluster IP 介面的內容"

  • 您必須在MetroCluster 同一個VLAN中建立所有的SID IP介面「A」連接埠、並在MetroCluster 另一個VLAN中建立所有的SID IP介面「B」連接埠。請參閱 "關於靜態IP組態的考量MetroCluster"

  • 從ONTAP 《支援範圍》9.9.1開始、如果您使用的是第3層組態、則在建立MetroCluster 支援範圍介面時、也必須指定「閘道」參數。請參閱 "第3層廣域網路的考量"

    某些平台會使用VLAN作為MetroCluster 支援靜態IP介面。根據預設、這兩個連接埠各自使用不同的VLAN:10和20。

    如果支援、您也可以使用命令中的參數、指定大於 100 (介於 101 和 4095 之間)的不同(非預設) VLAN -vlan-id metrocluster configuration-settings interface create

    下列平台 * 不 * 支援此 -vlan-id 參數:

    • FAS8200與AFF FASA300

    • 解答320 AFF

    • FAS9000 和 AFF A700

    • AFF C800 、 ASA C800 、 AFF A800 和 ASA A800

      所有其他平台都支援此 -vlan-id 參數。

      預設和有效的 VLAN 指派取決於平台是否支援此 -vlan-id 參數:

    支援 <code> 的平台 - VLAN - </code>

    預設 VLAN :

    • 如果 -vlan-id 未指定參數、則會使用 VLAN 10 建立介面、用於「 A 」連接埠、而 VLAN 20 則用於「 B 」連接埠。

    • 指定的 VLAN 必須符合 RCF 中選取的 VLAN 。

    有效 VLAN 範圍:

    • 預設 VLAN 10 和 20

    • VLAN 101 及更高版本(介於 101 和 4095 之間)

    不支援 <code> 的平台 -vlan—​卻 不支援 </code>

    預設 VLAN :

    • 不適用。介面不需要在 MetroCluster 介面上指定 VLAN 。交換器連接埠會定義所使用的 VLAN 。

    有效 VLAN 範圍:

    • 產生 RCF 時未明確排除所有 VLAN 。RCF 會在 VLAN 無效時發出警示。

  • MetroCluster IP 介面使用的實體連接埠取決於平台模式。如需系統的連接埠使用情形、請參閱 "連接MetroCluster 至靜態IP交換器"

  • 範例中使用下列IP位址和子網路:

    節點

    介面

    IP 位址

    子網路

    node_a_1

    支援的IP介面1. MetroCluster

    10.1.1.1

    10.1.1/24

    IP介面2. MetroCluster

    10.1.2.1

    10.1.2/24

    節點_a_2

    支援的IP介面1. MetroCluster

    10.1.1.2

    10.1.1/24

    IP介面2. MetroCluster

    10.1.2.2

    10.1.2/24

    節點_B_1

    支援的IP介面1. MetroCluster

    10.1.1.3

    10.1.1/24

    IP介面2. MetroCluster

    10.1.2.3

    10.1.2/24

    節點_B_2

    支援的IP介面1. MetroCluster

    10.1.1.4

    10.1.1/24

    IP介面2. MetroCluster

    10.1.2.4

    10.1.2/24

  • 本程序使用下列範例:

    AFF A700 或 FAS9000 系統( e5a 和 e5b )的連接埠。

    AFF A220 系統的連接埠、顯示如何在支援的平台上使用 -vlan-id 參數。

    針對您的平台機型、在正確的連接埠上設定介面。

步驟
  1. 確認每個節點都已啟用磁碟自動指派:

    「顯示磁碟選項」

    磁碟自動指派將會依機櫃指派集區0和集區1磁碟。

    「自動指派」欄會指出是否已啟用磁碟自動指派。

    Node        BKg. FW. Upd.  Auto Copy   Auto Assign  Auto Assign Policy
    ----------  -------------  ----------  -----------  ------------------
    node_A_1             on           on           on           default
    node_A_2             on           on           on           default
    2 entries were displayed.
  2. 確認MetroCluster 您可以在節點上建立靜態IP介面:

    「組態設定顯示狀態」MetroCluster

    所有節點均應就緒:

    Cluster       Node         Configuration Settings Status
    ----------    -----------  ---------------------------------
    cluster_A
                  node_A_1     ready for interface create
                  node_A_2     ready for interface create
    cluster_B
                  node_B_1     ready for interface create
                  node_B_2     ready for interface create
    4 entries were displayed.
  3. 在node_a_1上建立介面。

    1. 在「node_a_1」的連接埠「e5a」上設定介面:

      metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5a -address <ip_address> -netmask <netmask>

      下列範例顯示在IP位址為「10.1.1.1」的「node_a_1」上、在連接埠「e5a」上建立介面:

      cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_1 -home-port e5a -address 10.1.1.1 -netmask 255.255.255.0
      [Job 28] Job succeeded: Interface Create is successful.
      cluster_A::>

      如果您MetroCluster 不想使用預設的VLAN ID、則可在支援VLAN for the Suse IP介面的平台機型上、加入「-vlan-id」參數。以下範例顯示AFF 適用於VLAN ID為120的32位元組系統的命令:

      cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_2 -home-port e0a -address 10.1.1.2 -netmask 255.255.255.0 -vlan-id 120
      [Job 28] Job succeeded: Interface Create is successful.
      cluster_A::>
    2. 在「node_a_1」的連接埠「e5b」上設定介面:

      metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5b -address <ip_address> -netmask <netmask>

      下列範例顯示在IP位址為「10.1.2.1」的「node_a_1」上、在連接埠「e5b」上建立介面:

      cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_1 -home-port e5b -address 10.1.2.1 -netmask 255.255.255.0
      [Job 28] Job succeeded: Interface Create is successful.
      cluster_A::>
    註 您可以使用「MetroCluster flex-configuration interface show」命令來驗證這些介面是否存在。
  4. 在node_a_2上建立介面。

    1. 在「node_a_2」的連接埠「e5a」上設定介面:

      metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5a -address <ip_address> -netmask <netmask>

      下列範例顯示在IP位址為「10.1.1.2」的「node_a_2」上、在連接埠「e5a」上建立介面:

      cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_2 -home-port e5a -address 10.1.1.2 -netmask 255.255.255.0
      [Job 28] Job succeeded: Interface Create is successful.
      cluster_A::>
    2. 在「node_a_2」的連接埠「e5b」上設定介面:

      metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5b -address <ip_address> -netmask <netmask>

      下列範例顯示在IP位址為「10.1.2.2」的「node_a_2」上、在連接埠「e5b」上建立介面:

      cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_2 -home-port e5b -address 10.1.2.2 -netmask 255.255.255.0
      [Job 28] Job succeeded: Interface Create is successful.
      cluster_A::>

      如果您MetroCluster 不想使用預設的VLAN ID、則可在支援VLAN for the Suse IP介面的平台機型上、加入「-vlan-id」參數。以下範例顯示AFF 適用於VLAN ID為220的Arfe A220系統的命令:

    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_2 -home-port e0b -address 10.1.2.2 -netmask 255.255.255.0 -vlan-id 220
    [Job 28] Job succeeded: Interface Create is successful.
    cluster_A::>
  5. 在「node_B_1」上建立介面。

    1. 在「node_B_1」上的連接埠「e5a」上設定介面:

      metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5a -address <ip_address> -netmask <netmask>

      下列範例顯示在IP位址為「10.1.1.3」的「node_B_1」上、在連接埠「e5a」上建立介面:

      cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_1 -home-port e5a -address 10.1.1.3 -netmask 255.255.255.0
      [Job 28] Job succeeded: Interface Create is successful.cluster_B::>
    2. 在「node_B_1」上的連接埠「e5b」上設定介面:

      metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5b -address <ip_address> -netmask <netmask>

      下列範例顯示在IP位址為「10.1.2.3」的「node_B_1」上、在連接埠「e5b」上建立介面:

    cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_1 -home-port e5b -address 10.1.2.3 -netmask 255.255.255.0
    [Job 28] Job succeeded: Interface Create is successful.cluster_B::>
  6. 在「node_B_2」上建立介面。

    1. 在node_B_2上的連接埠e5a上設定介面:

      metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5a -address <ip_address> -netmask <netmask>

      下列範例顯示在IP位址為「10.1.1.4」的「node_B_2」上、在連接埠「e5a」上建立介面:

      cluster_B::>metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_2 -home-port e5a -address 10.1.1.4 -netmask 255.255.255.0
      [Job 28] Job succeeded: Interface Create is successful.cluster_A::>
    2. 在「node_B_2」的連接埠「e5b」上設定介面:

      metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5b -address <ip_address> -netmask <netmask>

      下列範例顯示在IP位址為「10.1.2.4」的「node_b_2」上、在連接埠「e5b」上建立介面:

    cluster_B::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_2 -home-port e5b -address 10.1.2.4 -netmask 255.255.255.0
    [Job 28] Job succeeded: Interface Create is successful.
    cluster_A::>
  7. 確認介面已設定:

    「顯示組態設定介面」MetroCluster

    以下範例顯示每個介面的組態狀態均已完成。

    cluster_A::> metrocluster configuration-settings interface show
    DR                                                              Config
    Group Cluster Node    Network Address Netmask         Gateway   State
    ----- ------- ------- --------------- --------------- --------- ----------
    1     cluster_A  node_A_1
                     Home Port: e5a
                          10.1.1.1     255.255.255.0   -         completed
                     Home Port: e5b
                          10.1.2.1     255.255.255.0   -         completed
                     node_A_2
                     Home Port: e5a
                          10.1.1.2     255.255.255.0   -         completed
                     Home Port: e5b
                          10.1.2.2     255.255.255.0   -         completed
          cluster_B  node_B_1
                     Home Port: e5a
                          10.1.1.3     255.255.255.0   -         completed
                     Home Port: e5b
                          10.1.2.3     255.255.255.0   -         completed
                     node_B_2
                     Home Port: e5a
                          10.1.1.4     255.255.255.0   -         completed
                     Home Port: e5b
                          10.1.2.4     255.255.255.0   -         completed
    8 entries were displayed.
    cluster_A::>
  8. 確認節點已準備好連接MetroCluster 支援中心介面:

    「組態設定顯示狀態」MetroCluster

    下列範例顯示「準備好連線」狀態的所有節點:

    Cluster       Node         Configuration Settings Status
    ----------    -----------  ---------------------------------
    cluster_A
                  node_A_1     ready for connection connect
                  node_A_2     ready for connection connect
    cluster_B
                  node_B_1     ready for connection connect
                  node_B_2     ready for connection connect
    4 entries were displayed.
  9. 建立連線:MetroCluster 「不中斷組態設定連線」

    如果您執行的版本早於 ONTAP 9.10.1 、則在您發出此命令之後、就無法變更 IP 位址。

    以下範例顯示叢集A已成功連線:

    cluster_A::> metrocluster configuration-settings connection connect
    [Job 53] Job succeeded: Connect is successful.
    cluster_A::>
  10. 確認已建立連線:

    「組態設定顯示狀態」MetroCluster

    應完成所有節點的組態設定狀態:

    Cluster       Node         Configuration Settings Status
    ----------    -----------  ---------------------------------
    cluster_A
                  node_A_1     completed
                  node_A_2     completed
    cluster_B
                  node_B_1     completed
                  node_B_2     completed
    4 entries were displayed.
  11. 確認iSCSI連線已建立:

    1. 變更為進階權限層級:

      "進階權限"

      當系統提示您繼續進入進階模式時、您需要用「y」回應、並看到進階模式提示('*>')。

    2. 顯示連線:

      「iSCSI啟動器展示」

      在執行ONTAP Se9.5的系統上MetroCluster 、每個叢集上應有八個應出現在輸出中的EID IP啟動器。

      在執行ONTAP 部分為9.4及更早版本的系統上、MetroCluster 每個叢集上應有四個應出現在輸出中的「不知道IP啟動器」。

      以下範例顯示MetroCluster 執行ONTAP S25 9.5的叢集上的八個SIP啟動器:

    cluster_A::*> storage iscsi-initiator show
    Node Type Label    Target Portal           Target Name                      Admin/Op
    ---- ---- -------- ------------------      -------------------------------- --------
    
    cluster_A-01
         dr_auxiliary
                  mccip-aux-a-initiator
                       10.227.16.113:65200     prod506.com.company:abab44       up/up
                  mccip-aux-a-initiator2
                       10.227.16.113:65200     prod507.com.company:abab44       up/up
                  mccip-aux-b-initiator
                       10.227.95.166:65200     prod506.com.company:abab44       up/up
                  mccip-aux-b-initiator2
                       10.227.95.166:65200     prod507.com.company:abab44       up/up
         dr_partner
                  mccip-pri-a-initiator
                       10.227.16.112:65200     prod506.com.company:cdcd88       up/up
                  mccip-pri-a-initiator2
                       10.227.16.112:65200     prod507.com.company:cdcd88       up/up
                  mccip-pri-b-initiator
                       10.227.95.165:65200     prod506.com.company:cdcd88       up/up
                  mccip-pri-b-initiator2
                       10.227.95.165:65200     prod507.com.company:cdcd88       up/up
    cluster_A-02
         dr_auxiliary
                  mccip-aux-a-initiator
                       10.227.16.112:65200     prod506.com.company:cdcd88       up/up
                  mccip-aux-a-initiator2
                       10.227.16.112:65200     prod507.com.company:cdcd88       up/up
                  mccip-aux-b-initiator
                       10.227.95.165:65200     prod506.com.company:cdcd88       up/up
                  mccip-aux-b-initiator2
                       10.227.95.165:65200     prod507.com.company:cdcd88       up/up
         dr_partner
                  mccip-pri-a-initiator
                       10.227.16.113:65200     prod506.com.company:abab44       up/up
                  mccip-pri-a-initiator2
                       10.227.16.113:65200     prod507.com.company:abab44       up/up
                  mccip-pri-b-initiator
                       10.227.95.166:65200     prod506.com.company:abab44       up/up
                  mccip-pri-b-initiator2
                       10.227.95.166:65200     prod507.com.company:abab44       up/up
    16 entries were displayed.
    1. 返回管理權限層級:

      「et -priv. admin」

  12. 確認節點已準備好最終實作MetroCluster 支援的功能:

    「不一樣的秀」MetroCluster

    cluster_A::> metrocluster node show
    DR                               Configuration  DR
    Group Cluster Node               State          Mirroring Mode
    ----- ------- ------------------ -------------- --------- ----
    -     cluster_A
                  node_A_1           ready to configure -     -
                  node_A_2           ready to configure -     -
    2 entries were displayed.
    cluster_A::>
    cluster_B::> metrocluster node show
    DR                               Configuration  DR
    Group Cluster Node               State          Mirroring Mode
    ----- ------- ------------------ -------------- --------- ----
    -     cluster_B
                  node_B_1           ready to configure -     -
                  node_B_2           ready to configure -     -
    2 entries were displayed.
    cluster_B::>

驗證或手動執行Pool 1磁碟機指派

視儲存組態而定、您必須驗證資源池1磁碟機指派、或針對MetroCluster 各個節點手動指派磁碟機至資源池1、以利進行支援。您使用的程序取決於ONTAP 您所使用的版本。

組態類型

程序

系統符合自動指派磁碟機的要求、如果執行ONTAP 的是還原9.3、則會從原廠收到。

此組態包括三個磁碟櫃、或如果其中包含四個以上的磁碟櫃、則四個磁碟櫃的倍數(例如七個磁碟櫃)不均、且執行ONTAP 的是S29.5。

此組態不包括每個站台四個儲存櫃、而且執行ONTAP 的是NetApp 9.4

系統未從原廠接收、且執行ONTAP 原廠提供的還原9.3系統已預先設定指派的磁碟機。

驗證集區1磁碟的磁碟指派

您必須確認遠端磁碟對節點可見且已正確指派。

開始之前

使用「支援組態設定的連線」命令建立完整套的支援IP介面和連線之後、您必須至少等待十分鐘、才能完成磁碟自動指派MetroCluster 。MetroCluster

命令輸出會以節點名稱:0m.i1.0L1的形式顯示磁碟名稱

步驟
  1. 確認已自動指派資源池1磁碟:

    「尖碑秀」

    下列輸出顯示AFF 沒有外部機櫃的不含A800系統輸出。

    磁碟機自動指派已將第一季(8個磁碟機)指派給「node_a_1」、第一季指派給「node_a_2」。其餘磁碟機將是遠端(集區1)磁碟、適用於「node_B_1」和「node_B_2」。

    cluster_B::> disk show -host-adapter 0m -owner node_B_2
                        Usable     Disk              Container   Container
    Disk                Size       Shelf Bay Type    Type        Name      Owner
    ----------------    ---------- ----- --- ------- ----------- --------- --------
    node_B_2:0m.i0.2L4  894.0GB    0     29  SSD-NVM shared      -         node_B_2
    node_B_2:0m.i0.2L10 894.0GB    0     25  SSD-NVM shared      -         node_B_2
    node_B_2:0m.i0.3L3  894.0GB    0     28  SSD-NVM shared      -         node_B_2
    node_B_2:0m.i0.3L9  894.0GB    0     24  SSD-NVM shared      -         node_B_2
    node_B_2:0m.i0.3L11 894.0GB    0     26  SSD-NVM shared      -         node_B_2
    node_B_2:0m.i0.3L12 894.0GB    0     27  SSD-NVM shared      -         node_B_2
    node_B_2:0m.i0.3L15 894.0GB    0     30  SSD-NVM shared      -         node_B_2
    node_B_2:0m.i0.3L16 894.0GB    0     31  SSD-NVM shared      -         node_B_2
    8 entries were displayed.
    
    cluster_B::> disk show -host-adapter 0m -owner node_B_1
                        Usable     Disk              Container   Container
    Disk                Size       Shelf Bay Type    Type        Name      Owner
    ----------------    ---------- ----- --- ------- ----------- --------- --------
    node_B_1:0m.i2.3L19 1.75TB     0     42  SSD-NVM shared      -         node_B_1
    node_B_1:0m.i2.3L20 1.75TB     0     43  SSD-NVM spare       Pool1     node_B_1
    node_B_1:0m.i2.3L23 1.75TB     0     40  SSD-NVM shared       -        node_B_1
    node_B_1:0m.i2.3L24 1.75TB     0     41  SSD-NVM spare       Pool1     node_B_1
    node_B_1:0m.i2.3L29 1.75TB     0     36  SSD-NVM shared       -        node_B_1
    node_B_1:0m.i2.3L30 1.75TB     0     37  SSD-NVM shared       -        node_B_1
    node_B_1:0m.i2.3L31 1.75TB     0     38  SSD-NVM shared       -        node_B_1
    node_B_1:0m.i2.3L32 1.75TB     0     39  SSD-NVM shared       -        node_B_1
    8 entries were displayed.
    
    cluster_B::> disk show
                        Usable     Disk              Container   Container
    Disk                Size       Shelf Bay Type    Type        Name      Owner
    ----------------    ---------- ----- --- ------- ----------- --------- --------
    node_B_1:0m.i1.0L6  1.75TB     0     1   SSD-NVM shared      -         node_A_2
    node_B_1:0m.i1.0L8  1.75TB     0     3   SSD-NVM shared      -         node_A_2
    node_B_1:0m.i1.0L17 1.75TB     0     18  SSD-NVM shared      -         node_A_1
    node_B_1:0m.i1.0L22 1.75TB     0     17 SSD-NVM shared - node_A_1
    node_B_1:0m.i1.0L25 1.75TB     0     12 SSD-NVM shared - node_A_1
    node_B_1:0m.i1.2L2  1.75TB     0     5 SSD-NVM shared - node_A_2
    node_B_1:0m.i1.2L7  1.75TB     0     2 SSD-NVM shared - node_A_2
    node_B_1:0m.i1.2L14 1.75TB     0     7 SSD-NVM shared - node_A_2
    node_B_1:0m.i1.2L21 1.75TB     0     16 SSD-NVM shared - node_A_1
    node_B_1:0m.i1.2L27 1.75TB     0     14 SSD-NVM shared - node_A_1
    node_B_1:0m.i1.2L28 1.75TB     0     15 SSD-NVM shared - node_A_1
    node_B_1:0m.i2.1L1  1.75TB     0     4 SSD-NVM shared - node_A_2
    node_B_1:0m.i2.1L5  1.75TB     0     0 SSD-NVM shared - node_A_2
    node_B_1:0m.i2.1L13 1.75TB     0     6 SSD-NVM shared - node_A_2
    node_B_1:0m.i2.1L18 1.75TB     0     19 SSD-NVM shared - node_A_1
    node_B_1:0m.i2.1L26 1.75TB     0     13 SSD-NVM shared - node_A_1
    node_B_1:0m.i2.3L19 1.75TB     0 42 SSD-NVM shared - node_B_1
    node_B_1:0m.i2.3L20 1.75TB     0 43 SSD-NVM shared - node_B_1
    node_B_1:0m.i2.3L23 1.75TB     0 40 SSD-NVM shared - node_B_1
    node_B_1:0m.i2.3L24 1.75TB     0 41 SSD-NVM shared - node_B_1
    node_B_1:0m.i2.3L29 1.75TB     0 36 SSD-NVM shared - node_B_1
    node_B_1:0m.i2.3L30 1.75TB     0 37 SSD-NVM shared - node_B_1
    node_B_1:0m.i2.3L31 1.75TB     0 38 SSD-NVM shared - node_B_1
    node_B_1:0m.i2.3L32 1.75TB     0 39 SSD-NVM shared - node_B_1
    node_B_1:0n.12      1.75TB     0 12 SSD-NVM shared aggr0 node_B_1
    node_B_1:0n.13      1.75TB     0 13 SSD-NVM shared aggr0 node_B_1
    node_B_1:0n.14      1.75TB     0 14 SSD-NVM shared aggr0 node_B_1
    node_B_1:0n.15      1.75TB 0 15 SSD-NVM shared aggr0 node_B_1
    node_B_1:0n.16      1.75TB 0 16 SSD-NVM shared aggr0 node_B_1
    node_B_1:0n.17      1.75TB 0 17 SSD-NVM shared aggr0 node_B_1
    node_B_1:0n.18      1.75TB 0 18 SSD-NVM shared aggr0 node_B_1
    node_B_1:0n.19      1.75TB 0 19 SSD-NVM shared - node_B_1
    node_B_1:0n.24      894.0GB 0 24 SSD-NVM shared - node_A_2
    node_B_1:0n.25      894.0GB 0 25 SSD-NVM shared - node_A_2
    node_B_1:0n.26      894.0GB 0 26 SSD-NVM shared - node_A_2
    node_B_1:0n.27      894.0GB 0 27 SSD-NVM shared - node_A_2
    node_B_1:0n.28      894.0GB 0 28 SSD-NVM shared - node_A_2
    node_B_1:0n.29      894.0GB 0 29 SSD-NVM shared - node_A_2
    node_B_1:0n.30      894.0GB 0 30 SSD-NVM shared - node_A_2
    node_B_1:0n.31      894.0GB 0 31 SSD-NVM shared - node_A_2
    node_B_1:0n.36      1.75TB 0 36 SSD-NVM shared - node_A_1
    node_B_1:0n.37      1.75TB 0 37 SSD-NVM shared - node_A_1
    node_B_1:0n.38      1.75TB 0 38 SSD-NVM shared - node_A_1
    node_B_1:0n.39      1.75TB 0 39 SSD-NVM shared - node_A_1
    node_B_1:0n.40      1.75TB 0 40 SSD-NVM shared - node_A_1
    node_B_1:0n.41      1.75TB 0 41 SSD-NVM shared - node_A_1
    node_B_1:0n.42      1.75TB 0 42 SSD-NVM shared - node_A_1
    node_B_1:0n.43      1.75TB 0 43 SSD-NVM shared - node_A_1
    node_B_2:0m.i0.2L4  894.0GB 0 29 SSD-NVM shared - node_B_2
    node_B_2:0m.i0.2L10 894.0GB 0 25 SSD-NVM shared - node_B_2
    node_B_2:0m.i0.3L3  894.0GB 0 28 SSD-NVM shared - node_B_2
    node_B_2:0m.i0.3L9  894.0GB 0 24 SSD-NVM shared - node_B_2
    node_B_2:0m.i0.3L11 894.0GB 0 26 SSD-NVM shared - node_B_2
    node_B_2:0m.i0.3L12 894.0GB 0 27 SSD-NVM shared - node_B_2
    node_B_2:0m.i0.3L15 894.0GB 0 30 SSD-NVM shared - node_B_2
    node_B_2:0m.i0.3L16 894.0GB 0 31 SSD-NVM shared - node_B_2
    node_B_2:0n.0       1.75TB 0 0 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2
    node_B_2:0n.1 1.75TB 0 1 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2
    node_B_2:0n.2 1.75TB 0 2 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2
    node_B_2:0n.3 1.75TB 0 3 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2
    node_B_2:0n.4 1.75TB 0 4 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2
    node_B_2:0n.5 1.75TB 0 5 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2
    node_B_2:0n.6 1.75TB 0 6 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2
    node_B_2:0n.7 1.75TB 0 7 SSD-NVM shared - node_B_2
    64 entries were displayed.
    
    cluster_B::>
    
    
    cluster_A::> disk show
    Usable Disk Container Container
    Disk Size Shelf Bay Type Type Name Owner
    ---------------- ---------- ----- --- ------- ----------- --------- --------
    node_A_1:0m.i1.0L2 1.75TB 0 5 SSD-NVM shared - node_B_2
    node_A_1:0m.i1.0L8 1.75TB 0 3 SSD-NVM shared - node_B_2
    node_A_1:0m.i1.0L18 1.75TB 0 19 SSD-NVM shared - node_B_1
    node_A_1:0m.i1.0L25 1.75TB 0 12 SSD-NVM shared - node_B_1
    node_A_1:0m.i1.0L27 1.75TB 0 14 SSD-NVM shared - node_B_1
    node_A_1:0m.i1.2L1 1.75TB 0 4 SSD-NVM shared - node_B_2
    node_A_1:0m.i1.2L6 1.75TB 0 1 SSD-NVM shared - node_B_2
    node_A_1:0m.i1.2L7 1.75TB 0 2 SSD-NVM shared - node_B_2
    node_A_1:0m.i1.2L14 1.75TB 0 7 SSD-NVM shared - node_B_2
    node_A_1:0m.i1.2L17 1.75TB 0 18 SSD-NVM shared - node_B_1
    node_A_1:0m.i1.2L22 1.75TB 0 17 SSD-NVM shared - node_B_1
    node_A_1:0m.i2.1L5 1.75TB 0 0 SSD-NVM shared - node_B_2
    node_A_1:0m.i2.1L13 1.75TB 0 6 SSD-NVM shared - node_B_2
    node_A_1:0m.i2.1L21 1.75TB 0 16 SSD-NVM shared - node_B_1
    node_A_1:0m.i2.1L26 1.75TB 0 13 SSD-NVM shared - node_B_1
    node_A_1:0m.i2.1L28 1.75TB 0 15 SSD-NVM shared - node_B_1
    node_A_1:0m.i2.3L19 1.75TB 0 42 SSD-NVM shared - node_A_1
    node_A_1:0m.i2.3L20 1.75TB 0 43 SSD-NVM shared - node_A_1
    node_A_1:0m.i2.3L23 1.75TB 0 40 SSD-NVM shared - node_A_1
    node_A_1:0m.i2.3L24 1.75TB 0 41 SSD-NVM shared - node_A_1
    node_A_1:0m.i2.3L29 1.75TB 0 36 SSD-NVM shared - node_A_1
    node_A_1:0m.i2.3L30 1.75TB 0 37 SSD-NVM shared - node_A_1
    node_A_1:0m.i2.3L31 1.75TB 0 38 SSD-NVM shared - node_A_1
    node_A_1:0m.i2.3L32 1.75TB 0 39 SSD-NVM shared - node_A_1
    node_A_1:0n.12 1.75TB 0 12 SSD-NVM shared aggr0 node_A_1
    node_A_1:0n.13 1.75TB 0 13 SSD-NVM shared aggr0 node_A_1
    node_A_1:0n.14 1.75TB 0 14 SSD-NVM shared aggr0 node_A_1
    node_A_1:0n.15 1.75TB 0 15 SSD-NVM shared aggr0 node_A_1
    node_A_1:0n.16 1.75TB 0 16 SSD-NVM shared aggr0 node_A_1
    node_A_1:0n.17 1.75TB 0 17 SSD-NVM shared aggr0 node_A_1
    node_A_1:0n.18 1.75TB 0 18 SSD-NVM shared aggr0 node_A_1
    node_A_1:0n.19 1.75TB 0 19 SSD-NVM shared - node_A_1
    node_A_1:0n.24 894.0GB 0 24 SSD-NVM shared - node_B_2
    node_A_1:0n.25 894.0GB 0 25 SSD-NVM shared - node_B_2
    node_A_1:0n.26 894.0GB 0 26 SSD-NVM shared - node_B_2
    node_A_1:0n.27 894.0GB 0 27 SSD-NVM shared - node_B_2
    node_A_1:0n.28 894.0GB 0 28 SSD-NVM shared - node_B_2
    node_A_1:0n.29 894.0GB 0 29 SSD-NVM shared - node_B_2
    node_A_1:0n.30 894.0GB 0 30 SSD-NVM shared - node_B_2
    node_A_1:0n.31 894.0GB 0 31 SSD-NVM shared - node_B_2
    node_A_1:0n.36 1.75TB 0 36 SSD-NVM shared - node_B_1
    node_A_1:0n.37 1.75TB 0 37 SSD-NVM shared - node_B_1
    node_A_1:0n.38 1.75TB 0 38 SSD-NVM shared - node_B_1
    node_A_1:0n.39 1.75TB 0 39 SSD-NVM shared - node_B_1
    node_A_1:0n.40 1.75TB 0 40 SSD-NVM shared - node_B_1
    node_A_1:0n.41 1.75TB 0 41 SSD-NVM shared - node_B_1
    node_A_1:0n.42 1.75TB 0 42 SSD-NVM shared - node_B_1
    node_A_1:0n.43 1.75TB 0 43 SSD-NVM shared - node_B_1
    node_A_2:0m.i2.3L3 894.0GB 0 28 SSD-NVM shared - node_A_2
    node_A_2:0m.i2.3L4 894.0GB 0 29 SSD-NVM shared - node_A_2
    node_A_2:0m.i2.3L9 894.0GB 0 24 SSD-NVM shared - node_A_2
    node_A_2:0m.i2.3L10 894.0GB 0 25 SSD-NVM shared - node_A_2
    node_A_2:0m.i2.3L11 894.0GB 0 26 SSD-NVM shared - node_A_2
    node_A_2:0m.i2.3L12 894.0GB 0 27 SSD-NVM shared - node_A_2
    node_A_2:0m.i2.3L15 894.0GB 0 30 SSD-NVM shared - node_A_2
    node_A_2:0m.i2.3L16 894.0GB 0 31 SSD-NVM shared - node_A_2
    node_A_2:0n.0 1.75TB 0 0 SSD-NVM shared aggr0_node_A_2_0 node_A_2
    node_A_2:0n.1 1.75TB 0 1 SSD-NVM shared aggr0_node_A_2_0 node_A_2
    node_A_2:0n.2 1.75TB 0 2 SSD-NVM shared aggr0_node_A_2_0 node_A_2
    node_A_2:0n.3 1.75TB 0 3 SSD-NVM shared aggr0_node_A_2_0 node_A_2
    node_A_2:0n.4 1.75TB 0 4 SSD-NVM shared aggr0_node_A_2_0 node_A_2
    node_A_2:0n.5 1.75TB 0 5 SSD-NVM shared aggr0_node_A_2_0 node_A_2
    node_A_2:0n.6 1.75TB 0 6 SSD-NVM shared aggr0_node_A_2_0 node_A_2
    node_A_2:0n.7 1.75TB 0 7 SSD-NVM shared - node_A_2
    64 entries were displayed.
    
    cluster_A::>

手動指派集區1的磁碟機(ONTAP 發揮作用9.4或更新版本)

如果系統未在原廠預先設定、且不符合自動磁碟指派的要求、您必須手動指派遠端集區1磁碟機。

關於這項工作

此程序適用於執行ONTAP 版本為4、9.4或更新版本的組態。

有關判斷系統是否需要手動指派磁碟的詳細資料、請參閱 "自動指派磁碟機和ONTAP ADP系統的考量事項、位於更新版本的更新版本"

如果每個站台的組態僅包含兩個外部磁碟櫃、則每個站台的集區1個磁碟機應從同一個磁碟櫃共用、如下列範例所示:

  • 節點A_1是在site_B-b櫃_2(遠端)的托架0-11中指派磁碟機

  • 節點_a_2在磁碟槽12-23中指派磁碟機、位於site_B-bid櫃_2(遠端)

步驟
  1. 在「支援IP」組態的每個節點中MetroCluster 、將遠端磁碟機指派給資源池1。

    1. 顯示未指派磁碟機的清單:

      「顯示主機介面卡0m -container類型未指派」

      cluster_A::> disk show -host-adapter 0m -container-type unassigned
                           Usable           Disk    Container   Container
      Disk                   Size Shelf Bay Type    Type        Name      Owner
      ---------------- ---------- ----- --- ------- ----------- --------- --------
      6.23.0                    -    23   0 SSD     unassigned  -         -
      6.23.1                    -    23   1 SSD     unassigned  -         -
      .
      .
      .
      node_A_2:0m.i1.2L51       -    21  14 SSD     unassigned  -         -
      node_A_2:0m.i1.2L64       -    21  10 SSD     unassigned  -         -
      .
      .
      .
      48 entries were displayed.
      
      cluster_A::>
    2. 將遠端磁碟機的擁有權(0m)指派給第一個節點的集區1(例如node_a_1):

      disk assign -disk <disk-id> -pool 1 -owner <owner_node_name>

      disk-id 必須在的遠端機櫃上識別磁碟機 owner_node_name

    3. 確認磁碟機已指派給資源池1:

      「顯示主機介面卡0m -container類型未指派」

      註 用於存取遠端磁碟機的iSCSI連線顯示為0m裝置。

      下列輸出顯示已指派磁碟機23、因為磁碟機不再出現在未指派的磁碟機清單中:

    cluster_A::> disk show -host-adapter 0m -container-type unassigned
                         Usable           Disk    Container   Container
    Disk                   Size Shelf Bay Type    Type        Name      Owner
    ---------------- ---------- ----- --- ------- ----------- --------- --------
    node_A_2:0m.i1.2L51       -    21  14 SSD     unassigned  -         -
    node_A_2:0m.i1.2L64       -    21  10 SSD     unassigned  -         -
    .
    .
    .
    node_A_2:0m.i2.1L90       -    21  19 SSD     unassigned  -         -
    24 entries were displayed.
    
    cluster_A::>
    1. 重複這些步驟、將集區1磁碟機指派給站台A的第二個節點(例如「node_a_2」)。

    2. 在站台B上重複這些步驟

手動指派集區1的磁碟(ONTAP 發揮作用)(發揮作用9.3)

如果每個節點至少有兩個磁碟櫃、您可以使用ONTAP的自動指派功能來自動指派遠端(Pool1)磁碟。

開始之前

您必須先將機櫃上的磁碟指派給集區1。然後、將機櫃上的其餘磁碟自動指派給同一個資源池。ONTAP

關於這項工作

本程序適用於執行ONTAP 不符合功能的組態。

此程序僅適用於每個節點至少有兩個磁碟櫃的情況、這可讓磁碟在磁碟櫃層級自動指派。

如果您無法使用機櫃層級的自動指派、則必須手動指派遠端磁碟、讓每個節點都有遠端磁碟集區(Pool 1)。

「自動磁碟指派」功能可依機櫃指派磁碟。ONTAP例如:

  • site_B-b櫃_2上的所有磁碟都會自動指派給node_a_1的資源池1

  • site_B-b櫃_4上的所有磁碟都會自動指派給node_a_2的資源池1

  • site_A-bally_2上的所有磁碟都會自動指派給node_B_1的Pool1

  • site_A-bally_4上的所有磁碟都會自動指派給node_B_2的Pool1

您必須在每個磁碟櫃上指定一個磁碟、以「種子」自動指派。

步驟
  1. 在「支援IP」組態的每個節點中MetroCluster 、將遠端磁碟指派給資源池1。

    1. 顯示未指派磁碟的清單:

      「顯示主機介面卡0m -container類型未指派」

      cluster_A::> disk show -host-adapter 0m -container-type unassigned
                           Usable           Disk    Container   Container
      Disk                   Size Shelf Bay Type    Type        Name      Owner
      ---------------- ---------- ----- --- ------- ----------- --------- --------
      6.23.0                    -    23   0 SSD     unassigned  -         -
      6.23.1                    -    23   1 SSD     unassigned  -         -
      .
      .
      .
      node_A_2:0m.i1.2L51       -    21  14 SSD     unassigned  -         -
      node_A_2:0m.i1.2L64       -    21  10 SSD     unassigned  -         -
      .
      .
      .
      48 entries were displayed.
      
      cluster_A::>
    2. 選取遠端磁碟(0m)、然後將磁碟的擁有權指派給第一個節點的集區1(例如「node_a_1」):

      disk assign -disk <disk_id> -pool 1 -owner <owner_node_name>

      `disk-id`必須在的遠端機櫃上識別磁碟 `owner_node_name`。

      此功能可自動指派包含指定磁碟之遠端機櫃上的所有磁碟。ONTAP

    3. 等待至少60秒後、磁碟自動指派才會進行、然後確認磁碟櫃上的遠端磁碟已自動指派給資源池1:

      「顯示主機介面卡0m -container類型未指派」

      註 用於存取遠端磁碟的iSCSI連線顯示為設備0m。

      下列輸出顯示、磁碟櫃23上的磁碟現在已指派、不再顯示:

    cluster_A::> disk show -host-adapter 0m -container-type unassigned
                         Usable           Disk    Container   Container
    Disk                   Size Shelf Bay Type    Type        Name      Owner
    ---------------- ---------- ----- --- ------- ----------- --------- --------
    node_A_2:0m.i1.2L51       -    21  14 SSD     unassigned  -         -
    node_A_2:0m.i1.2L64       -    21  10 SSD     unassigned  -         -
    node_A_2:0m.i1.2L72       -    21  23 SSD     unassigned  -         -
    node_A_2:0m.i1.2L74       -    21   1 SSD     unassigned  -         -
    node_A_2:0m.i1.2L83       -    21  22 SSD     unassigned  -         -
    node_A_2:0m.i1.2L90       -    21   7 SSD     unassigned  -         -
    node_A_2:0m.i1.3L52       -    21   6 SSD     unassigned  -         -
    node_A_2:0m.i1.3L59       -    21  13 SSD     unassigned  -         -
    node_A_2:0m.i1.3L66       -    21  17 SSD     unassigned  -         -
    node_A_2:0m.i1.3L73       -    21  12 SSD     unassigned  -         -
    node_A_2:0m.i1.3L80       -    21   5 SSD     unassigned  -         -
    node_A_2:0m.i1.3L81       -    21   2 SSD     unassigned  -         -
    node_A_2:0m.i1.3L82       -    21  16 SSD     unassigned  -         -
    node_A_2:0m.i1.3L91       -    21   3 SSD     unassigned  -         -
    node_A_2:0m.i2.0L49       -    21  15 SSD     unassigned  -         -
    node_A_2:0m.i2.0L50       -    21   4 SSD     unassigned  -         -
    node_A_2:0m.i2.1L57       -    21  18 SSD     unassigned  -         -
    node_A_2:0m.i2.1L58       -    21  11 SSD     unassigned  -         -
    node_A_2:0m.i2.1L59       -    21  21 SSD     unassigned  -         -
    node_A_2:0m.i2.1L65       -    21  20 SSD     unassigned  -         -
    node_A_2:0m.i2.1L72       -    21   9 SSD     unassigned  -         -
    node_A_2:0m.i2.1L80       -    21   0 SSD     unassigned  -         -
    node_A_2:0m.i2.1L88       -    21   8 SSD     unassigned  -         -
    node_A_2:0m.i2.1L90       -    21  19 SSD     unassigned  -         -
    24 entries were displayed.
    
    cluster_A::>
    1. 重複這些步驟、將集區1磁碟指派給站台A上的第二個節點(例如「node_a_2」)。

    2. 在站台B上重複這些步驟

啟用ONTAP 在支援功能方面的自動指派磁碟機9.4

關於這項工作

在本程序先前所述的程序中、如果停用自動磁碟機指派、則必須在所有節點上重新啟用。ONTAP

步驟
  1. 啟用自動磁碟指派:

    storage disk option modify -node <node_name> -autoassign on

    您必須在MetroCluster 所有節點上發出此命令、以供使用。

鏡射根Aggregate

您必須鏡射根Aggregate以提供資料保護。

關於這項工作

根據預設、根Aggregate會建立為RAID-DP類型Aggregate。您可以將根Aggregate從RAID-DP變更為RAID4類型Aggregate。下列命令會修改RAID4類型Aggregate的根Aggregate:

storage aggregate modify –aggregate <aggr_name> -raidtype raid4

註 在非ADP系統上、可在鏡射Aggregate之前或之後、將Aggregate的RAID類型從預設RAID-DP修改為RAID4。
步驟
  1. 鏡射根Aggregate:

    storage aggregate mirror <aggr_name>

    下列命令會鏡射「控制器_a_1」的根Aggregate:

    controller_A_1::> storage aggregate mirror aggr0_controller_A_1

    這會鏡射Aggregate、因此它由位於遠端MetroCluster 站台的本機叢和遠端叢組成。

  2. 針對MetroCluster 「資訊功能」組態中的每個節點、重複上述步驟。

相關資訊

"邏輯儲存管理"

在每個節點上建立鏡射資料Aggregate

您必須在DR群組中的每個節點上建立鏡射資料Aggregate。

關於這項工作
  • 您應該知道新的Aggregate將使用哪些磁碟機。

  • 如果您的系統中有多種磁碟機類型(異質儲存設備)、您應該瞭解如何確保選取正確的磁碟機類型。

  • 磁碟機由特定節點擁有;當您建立Aggregate時、該Aggregate中的所有磁碟機都必須由同一個節點擁有、此節點會成為該Aggregate的主節點。

    在使用ADP的系統中、會使用分割區來建立集合體、將每個磁碟機分割至P1、P2和P3分割區。

  • Aggregate名稱應符合您在規劃MetroCluster 時所決定的名稱配置。

步驟
  1. 顯示可用備援磁碟機清單:

    storage disk show -spare -owner <node_name>

  2. 建立Aggregate:

    "集合體建立-鏡射真"

    如果您已登入叢集管理介面上的叢集、則可以在叢集中的任何節點上建立集合體。若要確保在特定節點上建立Aggregate、請使用「-node-」參數或指定該節點擁有的磁碟機。

    您可以指定下列選項:

    • Aggregate的主節點(也就是在正常作業中擁有Aggregate的節點)

    • 要新增至集合體的特定磁碟機清單

    • 要納入的磁碟機數量

      註 在可用磁碟機數量有限的最低支援組態中、您必須使用force-min-Aggregate選項來建立三個磁碟RAID-DP Aggregate。
    • 用於Aggregate的Checksum樣式

    • 要使用的磁碟機類型

    • 要使用的磁碟機大小

    • 使用的磁碟機速度

    • 集合體上RAID群組的RAID類型

    • RAID群組中可包含的磁碟機數目上限

    • 是否允許使用不同RPM的磁碟機取得這些選項的詳細資訊、請參閱儲存Aggregate create手冊頁。

      下列命令會建立10個磁碟的鏡射Aggregate:

    cluster_A::> storage aggregate create aggr1_node_A_1 -diskcount 10 -node node_A_1 -mirror true
    [Job 15] Job is queued: Create aggr1_node_A_1.
    [Job 15] The job is starting.
    [Job 15] Job succeeded: DONE
  3. 驗證新Aggregate的RAID群組和磁碟機:

    storage aggregate show-status -aggregate <aggregate-name>

實作MetroCluster 此功能組態

您必須執行「MetroCluster flexfconfigure」命令、才能以MetroCluster 一套功能完善的功能來啟動資料保護功能。

關於這項工作
  • 每個叢集至少應有兩個非根鏡射資料集合體。

    您可以使用「shorage Aggregate show」命令來驗證。

    註 如果您要使用單一鏡射資料Aggregate、請參閱 步驟1. 以取得相關指示。
  • 控制器和機箱的ha-config狀態必須為「mcip」。

您可以在MetroCluster 任何節點上發出「flexconfigure」命令一次、以啟用MetroCluster 該組態。您不需要在每個站台或節點上發出命令、也不需要在哪個節點或站台上發出命令。

「Sof the flexconfigure」命令會自動配對兩個節點、使兩個叢集的系統ID最低、成為災難恢復(DR)合作夥伴。MetroCluster在四節點MetroCluster 的不全功能組態中、有兩個DR合作夥伴配對。第二個DR配對是從兩個具有較高系統ID的節點建立。

註 您必須*不*設定Onboard Key Manager(OKM)或外部金鑰管理、才能執行「MetroCluster 靜態組態」命令。
步驟
  1. [step1_sone_mirror ]設定MetroCluster 下列格式的支援功能:

    如果MetroCluster 您的組態有…​

    然後執行此動作…​

    多個資料集合體

    在任何節點的提示下、設定MetroCluster 下列項目:

    metrocluster configure <node_name>

    單一鏡射資料Aggregate

    1. 在任何節點的提示下、變更為進階權限層級:

      "進階權限"

      當系統提示您繼續進入進階模式時、您需要用「y」回應、並看到進階模式提示(*>)。

    2. 使用MetroCluster 「-allow-with e-gregate true]參數設定此功能:

      metrocluster configure -allow-with-one-aggregate true <node_name>

    3. 返回管理權限層級:

      「et -priv. admin」

    註 最佳實務做法是擁有多個資料集合體。如果第一個DR群組只有一個Aggregate、而您想要新增一個具有單一Aggregate的DR群組、則必須將中繼資料磁碟區從單一資料Aggregate中移出。如需此程序的詳細資訊、請參閱 "在MetroCluster 不完整的組態中移動中繼資料磁碟區"

    下列命令可在MetroCluster DR群組中包含「控制器_a_1」的所有節點上啟用「支援」組態:

    cluster_A::*> metrocluster configure -node-name controller_A_1
    
    [Job 121] Job succeeded: Configure is successful.
  2. 驗證站台A的網路狀態:

    「網路連接埠展示」

    以下範例顯示四節點MetroCluster 的列舉使用網路連接埠:

    cluster_A::> network port show
                                                              Speed (Mbps)
    Node   Port      IPspace   Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- --------- ---------------- ----- ------- ------------
    controller_A_1
           e0a       Cluster   Cluster          up     9000  auto/1000
           e0b       Cluster   Cluster          up     9000  auto/1000
           e0c       Default   Default          up     1500  auto/1000
           e0d       Default   Default          up     1500  auto/1000
           e0e       Default   Default          up     1500  auto/1000
           e0f       Default   Default          up     1500  auto/1000
           e0g       Default   Default          up     1500  auto/1000
    controller_A_2
           e0a       Cluster   Cluster          up     9000  auto/1000
           e0b       Cluster   Cluster          up     9000  auto/1000
           e0c       Default   Default          up     1500  auto/1000
           e0d       Default   Default          up     1500  auto/1000
           e0e       Default   Default          up     1500  auto/1000
           e0f       Default   Default          up     1500  auto/1000
           e0g       Default   Default          up     1500  auto/1000
    14 entries were displayed.
  3. 驗MetroCluster 證MetroCluster 以支援功能驗證的兩個站台的支援功能組態。

    1. 從站台A驗證組態:

      《不看》MetroCluster

      cluster_A::> metrocluster show
      
      Configuration: IP fabric
      
      Cluster                   Entry Name          State
      ------------------------- ------------------- -----------
       Local: cluster_A         Configuration state configured
                                Mode                normal
      Remote: cluster_B         Configuration state configured
                                Mode                normal
    2. 從站台B驗證組態:

      《不看》MetroCluster

    cluster_B::> metrocluster show
    
    Configuration: IP fabric
    
    Cluster                   Entry Name          State
    ------------------------- ------------------- -----------
     Local: cluster_B         Configuration state configured
                              Mode                normal
    Remote: cluster_A         Configuration state configured
                              Mode                normal
  4. 為了避免非揮發性記憶體鏡射可能發生的問題、請重新啟動四個節點中的每個節點:

    node reboot -node <node_name> -inhibit-takeover true

  5. 在MetroCluster 兩個叢集上發出「show」命令、以再次驗證組態。

在八節點組態中設定第二個DR群組

重複先前的工作、以設定第二個DR群組中的節點。

建立無鏡射的資料集合體

您也可以針對MetroCluster 不需要由支援的組態所提供的備援鏡像的資料、建立無鏡射的資料集合體。

關於這項工作
  • 您應該知道新的Aggregate將使用哪些磁碟機或陣列LUN。

  • 如果您的系統中有多種磁碟機類型(異質儲存設備)、您應該瞭解如何驗證選取的磁碟機類型是否正確。

重要 在S不明IP組態中、切換後無法存取遠端無鏡射集合體MetroCluster
註 無鏡射的Aggregate必須是擁有它們的節點的本機集合體。
  • 磁碟機和陣列LUN由特定節點擁有;當您建立Aggregate時、該Aggregate中的所有磁碟機都必須由同一個節點擁有、而該節點會成為該Aggregate的主節點。

  • Aggregate名稱應符合您在規劃MetroCluster 時所決定的名稱配置。

  • _磁碟與Aggregate管理_包含更多有關鏡射Aggregate的資訊。

步驟
  1. 啟用無鏡射的Aggregate部署:

    「MetroCluster 支援無鏡射的Aggr-deployment true」

  2. 確認磁碟自動指派已停用:

    顯示「磁碟選項」

  3. 安裝並連接將包含無鏡射集合體的磁碟櫃。

    您可以使用平台和磁碟櫃安裝與設定文件中的程序。

  4. 手動將新機櫃上的所有磁碟指派給適當的節點:

    disk assign -disk <disk_id> -owner <owner_node_name>

  5. 建立Aggregate:

    《torage aggregate create》

    如果您已登入叢集管理介面上的叢集、則可以在叢集中的任何節點上建立集合體。若要驗證是否已在特定節點上建立Aggregate、您應該使用-nodes參數或指定該節點擁有的磁碟機。

    您也必須確保只將未鏡射磁碟櫃上的磁碟機納入到集合體中。

    您可以指定下列選項:

    • Aggregate的主節點(也就是在正常作業中擁有Aggregate的節點)

    • 要新增至集合體的特定磁碟機或陣列LUN清單

    • 要納入的磁碟機數量

    • 用於Aggregate的Checksum樣式

    • 要使用的磁碟機類型

    • 要使用的磁碟機大小

    • 使用的磁碟機速度

    • 集合體上RAID群組的RAID類型

    • RAID群組中可包含的磁碟機或陣列LUN數目上限

    • 是否允許使用不同RPM的磁碟機

      如需這些選項的詳細資訊、請參閱儲存Aggregate create手冊頁。

      下列命令會建立10個磁碟的無鏡射Aggregate:

    controller_A_1::> storage aggregate create aggr1_controller_A_1 -diskcount 10 -node controller_A_1
    [Job 15] Job is queued: Create aggr1_controller_A_1.
    [Job 15] The job is starting.
    [Job 15] Job succeeded: DONE
  6. 驗證新Aggregate的RAID群組和磁碟機:

    storage aggregate show-status -aggregate <aggregate_name>

  7. 停用無鏡射Aggregate部署:

    「MetroCluster 支援-無鏡射- aggr-deployment假」

  8. 確認磁碟自動指派已啟用:

    顯示「磁碟選項」

正在檢查MetroCluster 功能組態

您可以檢查MetroCluster 功能組態中的元件和關係是否正常運作。

關於這項工作

您應該在初始組態設定後、以及MetroCluster 變更任何的功能後進行檢查。

您也應該在協商(計畫性)切換或切換作業之前進行檢查。

如果在MetroCluster 兩個叢集上的短時間內發出兩次「支援驗證執行」命令、可能會發生衝突、而且命令可能無法收集所有資料。後續的「MetroCluster 示例檢查show」命令不會顯示預期的輸出。

步驟
  1. 檢查組態:

    《不一樣的跑程》MetroCluster

    命令會以背景工作的形式執行、而且可能不會立即完成。

    cluster_A::> metrocluster check run
    The operation has been started and is running in the background. Wait for
    it to complete and run "metrocluster check show" to view the results. To
    check the status of the running metrocluster check operation, use the command,
    "metrocluster operation history show -job-id 2245"
    cluster_A::> metrocluster check show
    
    Component           Result
    ------------------- ---------
    nodes               ok
    lifs                ok
    config-replication  ok
    aggregates          ok
    clusters            ok
    connections         ok
    volumes             ok
    7 entries were displayed.
  2. 顯示最新MetroCluster 的執行版本資訊功能指令所產生的更詳細結果:

    《不看集合體表演》MetroCluster

    「觀看叢集節目」MetroCluster

    《不執行組態複寫的展示》MetroCluster

    《不看利夫秀》MetroCluster

    「不需要節點顯示」MetroCluster

    註 「示例檢查show」命令顯示最近執行的「示例檢查run」命令的結果。MetroCluster MetroCluster在MetroCluster 使用「MetroCluster show」命令之前、請務必先執行「支援檢查執行」命令、以便顯示最新的資訊。

    以下範例顯示MetroCluster 「用作『用作檢查集合式show’命令輸出、以確保四節點MetroCluster 的效能正常運作:

    cluster_A::> metrocluster check aggregate show
    
    
    
    Node                  Aggregate                  Check                      Result
    ---------------       --------------------       ---------------------      ---------
    controller_A_1        controller_A_1_aggr0
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_1_aggr1
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_1_aggr2
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
    
    
    controller_A_2        controller_A_2_aggr0
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_2_aggr1
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_2_aggr2
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
    
    18 entries were displayed.

    以下範例顯示MetroCluster 效能良好的四節點MetroCluster 功能組態的畫面檢查叢集show命令輸出。這表示叢集已準備好在必要時執行協調式切換。

    Cluster               Check                           Result
    --------------------- ------------------------------- ---------
    mccint-fas9000-0102
                          negotiated-switchover-ready     not-applicable
                          switchback-ready                not-applicable
                          job-schedules                   ok
                          licenses                        ok
                          periodic-check-enabled          ok
    mccint-fas9000-0304
                          negotiated-switchover-ready     not-applicable
                          switchback-ready                not-applicable
                          job-schedules                   ok
                          licenses                        ok
                          periodic-check-enabled          ok
    10 entries were displayed.

正在完成ONTAP 功能組態設定

設定、啟用及檢查MetroCluster 完整套組態後、您可以視ONTAP 需要新增額外的SVM、網路介面及其他功能、以繼續完成叢集組態。