將叢集設定成MetroCluster 一個不只是一個的組態
您必須對等處理叢集、鏡射根Aggregate、建立鏡射資料Aggregate、然後發出命令來實作MetroCluster 該等作業系統。
在您執行之前 metrocluster configure
、HA模式和DR鏡像未啟用、您可能會看到與此預期行為相關的錯誤訊息。您稍後執行命令時、會啟用HA模式和DR鏡像 metrocluster configure
以實作組態。
停用自動磁碟機指派(如果在ONTAP 功能更新9.4中進行手動指派)
在支援率9.4的情況ONTAP 下、如果MetroCluster 您的支援率IP組態每個站台的外部儲存磁碟櫃少於四個、您就必須停用所有節點上的自動磁碟指派功能、並手動指派磁碟機。
不需要ONTAP 在更新版本的版本中執行此工作。
此工作不適用於AFF 內部機櫃且無外部機櫃的不適用。
-
停用自動磁碟指派:
storage disk option modify -node <node_name> -autoassign off
-
您需要在MetroCluster 所有節點上發出此命令、以供使用。
驗證集區0磁碟機的磁碟機指派
您必須確認遠端磁碟機對節點可見且已正確指派。
自動指派取決於儲存系統平台模式和磁碟機櫃配置。
-
確認已自動指派集區0磁碟機:
「尖碑秀」
以下範例顯示AFF 沒有外部磁碟櫃的Shelfa800系統的「叢集A」輸出。
四分之一(8個磁碟機)會自動指派給「node_a_1」、而四分之一則會自動指派給「node_a_2」。其餘磁碟機將是遠端(Pool 1)磁碟機、適用於「node_B_1」和「node_B_2」。
cluster_A::*> disk show Usable Disk Container Container Disk Size Shelf Bay Type Type Name Owner ---------------- ---------- ----- --- ------- ----------- --------- -------- node_A_1:0n.12 1.75TB 0 12 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.13 1.75TB 0 13 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.14 1.75TB 0 14 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.15 1.75TB 0 15 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.16 1.75TB 0 16 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.17 1.75TB 0 17 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.18 1.75TB 0 18 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.19 1.75TB 0 19 SSD-NVM shared - node_A_1 node_A_2:0n.0 1.75TB 0 0 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.1 1.75TB 0 1 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.2 1.75TB 0 2 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.3 1.75TB 0 3 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.4 1.75TB 0 4 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.5 1.75TB 0 5 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.6 1.75TB 0 6 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.7 1.75TB 0 7 SSD-NVM shared - node_A_2 node_A_2:0n.24 - 0 24 SSD-NVM unassigned - - node_A_2:0n.25 - 0 25 SSD-NVM unassigned - - node_A_2:0n.26 - 0 26 SSD-NVM unassigned - - node_A_2:0n.27 - 0 27 SSD-NVM unassigned - - node_A_2:0n.28 - 0 28 SSD-NVM unassigned - - node_A_2:0n.29 - 0 29 SSD-NVM unassigned - - node_A_2:0n.30 - 0 30 SSD-NVM unassigned - - node_A_2:0n.31 - 0 31 SSD-NVM unassigned - - node_A_2:0n.36 - 0 36 SSD-NVM unassigned - - node_A_2:0n.37 - 0 37 SSD-NVM unassigned - - node_A_2:0n.38 - 0 38 SSD-NVM unassigned - - node_A_2:0n.39 - 0 39 SSD-NVM unassigned - - node_A_2:0n.40 - 0 40 SSD-NVM unassigned - - node_A_2:0n.41 - 0 41 SSD-NVM unassigned - - node_A_2:0n.42 - 0 42 SSD-NVM unassigned - - node_A_2:0n.43 - 0 43 SSD-NVM unassigned - - 32 entries were displayed.
下列範例顯示「叢集B」輸出:
cluster_B::> disk show Usable Disk Container Container Disk Size Shelf Bay Type Type Name Owner ---------------- ---------- ----- --- ------- ----------- --------- -------- Info: This cluster has partitioned disks. To get a complete list of spare disk capacity use "storage aggregate show-spare-disks". node_B_1:0n.12 1.75TB 0 12 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.13 1.75TB 0 13 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.14 1.75TB 0 14 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.15 1.75TB 0 15 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.16 1.75TB 0 16 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.17 1.75TB 0 17 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.18 1.75TB 0 18 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.19 1.75TB 0 19 SSD-NVM shared - node_B_1 node_B_2:0n.0 1.75TB 0 0 SSD-NVM shared aggr0_node_B_1_0 node_B_2 node_B_2:0n.1 1.75TB 0 1 SSD-NVM shared aggr0_node_B_1_0 node_B_2 node_B_2:0n.2 1.75TB 0 2 SSD-NVM shared aggr0_node_B_1_0 node_B_2 node_B_2:0n.3 1.75TB 0 3 SSD-NVM shared aggr0_node_B_1_0 node_B_2 node_B_2:0n.4 1.75TB 0 4 SSD-NVM shared aggr0_node_B_1_0 node_B_2 node_B_2:0n.5 1.75TB 0 5 SSD-NVM shared aggr0_node_B_1_0 node_B_2 node_B_2:0n.6 1.75TB 0 6 SSD-NVM shared aggr0_node_B_1_0 node_B_2 node_B_2:0n.7 1.75TB 0 7 SSD-NVM shared - node_B_2 node_B_2:0n.24 - 0 24 SSD-NVM unassigned - - node_B_2:0n.25 - 0 25 SSD-NVM unassigned - - node_B_2:0n.26 - 0 26 SSD-NVM unassigned - - node_B_2:0n.27 - 0 27 SSD-NVM unassigned - - node_B_2:0n.28 - 0 28 SSD-NVM unassigned - - node_B_2:0n.29 - 0 29 SSD-NVM unassigned - - node_B_2:0n.30 - 0 30 SSD-NVM unassigned - - node_B_2:0n.31 - 0 31 SSD-NVM unassigned - - node_B_2:0n.36 - 0 36 SSD-NVM unassigned - - node_B_2:0n.37 - 0 37 SSD-NVM unassigned - - node_B_2:0n.38 - 0 38 SSD-NVM unassigned - - node_B_2:0n.39 - 0 39 SSD-NVM unassigned - - node_B_2:0n.40 - 0 40 SSD-NVM unassigned - - node_B_2:0n.41 - 0 41 SSD-NVM unassigned - - node_B_2:0n.42 - 0 42 SSD-NVM unassigned - - node_B_2:0n.43 - 0 43 SSD-NVM unassigned - - 32 entries were displayed. cluster_B::>
對等連接叢集
在不支援的組態中、叢集MetroCluster 必須處於對等關係中、以便彼此通訊、並執行MetroCluster 對恢復災難至關重要的資料鏡射。
設定叢集間生命體以進行叢集對等
您必須在MetroCluster 連接埠上建立叢集間的LIF、以便在各個連接埠之間進行通訊。您可以使用也有資料流量的專用連接埠或連接埠。
在專用連接埠上設定叢集間LIF
您可以在專用連接埠上設定叢集間的LIF。這樣做通常會增加複寫流量的可用頻寬。
-
列出叢集中的連接埠:
「網路連接埠展示」
如需完整的命令語法、請參閱手冊頁。
以下範例顯示「cluster01」中的網路連接埠:
cluster01::> network port show Speed (Mbps) Node Port IPspace Broadcast Domain Link MTU Admin/Oper ------ --------- ------------ ---------------- ----- ------- ------------ cluster01-01 e0a Cluster Cluster up 1500 auto/1000 e0b Cluster Cluster up 1500 auto/1000 e0c Default Default up 1500 auto/1000 e0d Default Default up 1500 auto/1000 e0e Default Default up 1500 auto/1000 e0f Default Default up 1500 auto/1000 cluster01-02 e0a Cluster Cluster up 1500 auto/1000 e0b Cluster Cluster up 1500 auto/1000 e0c Default Default up 1500 auto/1000 e0d Default Default up 1500 auto/1000 e0e Default Default up 1500 auto/1000 e0f Default Default up 1500 auto/1000
-
判斷哪些連接埠可用於叢集間通訊:
「網路介面show -field home-port、curr-port」
如需完整的命令語法、請參閱手冊頁。
下列範例顯示連接埠「e0e」和「e0f」尚未指派生命區:
cluster01::> network interface show -fields home-port,curr-port vserver lif home-port curr-port ------- -------------------- --------- --------- Cluster cluster01-01_clus1 e0a e0a Cluster cluster01-01_clus2 e0b e0b Cluster cluster01-02_clus1 e0a e0a Cluster cluster01-02_clus2 e0b e0b cluster01 cluster_mgmt e0c e0c cluster01 cluster01-01_mgmt1 e0c e0c cluster01 cluster01-02_mgmt1 e0c e0c
-
為專用連接埠建立容錯移轉群組:
network interface failover-groups create -vserver <system_svm> -failover-group <failover_group> -targets <physical_or_logical_ports>
下列範例將連接埠「e0e」和「e0f」指派給系統「SVMcluster01」上的容錯移轉群組「intercluster01」:
cluster01::> network interface failover-groups create -vserver cluster01 -failover-group intercluster01 -targets cluster01-01:e0e,cluster01-01:e0f,cluster01-02:e0e,cluster01-02:e0f
-
確認已建立容錯移轉群組:
「網路介面容錯移轉群組顯示」
如需完整的命令語法、請參閱手冊頁。
cluster01::> network interface failover-groups show Failover Vserver Group Targets ---------------- ---------------- -------------------------------------------- Cluster Cluster cluster01-01:e0a, cluster01-01:e0b, cluster01-02:e0a, cluster01-02:e0b cluster01 Default cluster01-01:e0c, cluster01-01:e0d, cluster01-02:e0c, cluster01-02:e0d, cluster01-01:e0e, cluster01-01:e0f cluster01-02:e0e, cluster01-02:e0f intercluster01 cluster01-01:e0e, cluster01-01:e0f cluster01-02:e0e, cluster01-02:e0f
-
在系統SVM上建立叢集間LIF、並將它們指派給容錯移轉群組。
在 ONTAP 9.6 及更新版本中、執行:network interface create -vserver <system_svm> -lif <lif_name> -service-policy default-intercluster -home-node <node_name> -home-port <port_name> -address <port_ip_address> -netmask <netmask_address> -failover-group <failover_group>
在 ONTAP 9.5 或更早版本中、執行:network interface create -vserver <system_svm> -lif <lif_name> -role intercluster -home-node <node_name> -home-port <port_name> -address <port_ip_address> -netmask <netmask_address> -failover-group <failover_group>
如需完整的命令語法、請參閱手冊頁。
下列範例會在容錯移轉群組「intercluster01」中建立叢集間LIF「cluster01_icl01」和「cluster01_icl02」:
cluster01::> network interface create -vserver cluster01 -lif cluster01_icl01 -service- policy default-intercluster -home-node cluster01-01 -home-port e0e -address 192.168.1.201 -netmask 255.255.255.0 -failover-group intercluster01 cluster01::> network interface create -vserver cluster01 -lif cluster01_icl02 -service- policy default-intercluster -home-node cluster01-02 -home-port e0e -address 192.168.1.202 -netmask 255.255.255.0 -failover-group intercluster01
-
驗證是否已建立叢集間的LIF:
在 ONTAP 9.6 及更新版本中、執行:「網路介面show -service-policy default-intercluster」
在 ONTAP 9.5 或更早版本中、執行:「網路介面show -role intercluster」
如需完整的命令語法、請參閱手冊頁。
cluster01::> network interface show -service-policy default-intercluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- cluster01 cluster01_icl01 up/up 192.168.1.201/24 cluster01-01 e0e true cluster01_icl02 up/up 192.168.1.202/24 cluster01-02 e0f true
-
驗證叢集間的LIF是否為備援:
在 ONTAP 9.6 及更新版本中、執行:「網路介面show -service-policy default-intercluster -容 錯移轉」
在 ONTAP 9.5 或更早版本中、執行:「網路介面show -role intercluster -容 錯移轉」
如需完整的命令語法、請參閱手冊頁。
下列範例顯示、「SVMe0e」連接埠上的叢集間lifs「cluster01_icl01」和「cluster01_icl02」將容錯移轉至「e0f」連接埠。
cluster01::> network interface show -service-policy default-intercluster –failover Logical Home Failover Failover Vserver Interface Node:Port Policy Group -------- --------------- --------------------- --------------- -------- cluster01 cluster01_icl01 cluster01-01:e0e local-only intercluster01 Failover Targets: cluster01-01:e0e, cluster01-01:e0f cluster01_icl02 cluster01-02:e0e local-only intercluster01 Failover Targets: cluster01-02:e0e, cluster01-02:e0f
在共享的資料連接埠上設定叢集間LIF
您可以在與資料網路共用的連接埠上設定叢集間的LIF。如此可減少叢集間網路所需的連接埠數量。
-
列出叢集中的連接埠:
「網路連接埠展示」
如需完整的命令語法、請參閱手冊頁。
以下範例顯示「cluster01」中的網路連接埠:
cluster01::> network port show Speed (Mbps) Node Port IPspace Broadcast Domain Link MTU Admin/Oper ------ --------- ------------ ---------------- ----- ------- ------------ cluster01-01 e0a Cluster Cluster up 1500 auto/1000 e0b Cluster Cluster up 1500 auto/1000 e0c Default Default up 1500 auto/1000 e0d Default Default up 1500 auto/1000 cluster01-02 e0a Cluster Cluster up 1500 auto/1000 e0b Cluster Cluster up 1500 auto/1000 e0c Default Default up 1500 auto/1000 e0d Default Default up 1500 auto/1000
-
在系統SVM上建立叢集間LIF:
在 ONTAP 9.6 及更新版本中、執行:network interface create -vserver <system_svm> -lif <lif_name> -service-policy default-intercluster -home-node <node_name> -home-port <port_name> -address <port_ip_address> -netmask <netmask>
在 ONTAP 9.5 或更早版本中、執行:network interface create -vserver <system_svm> -lif <lif_name> -role intercluster -home-node <node_name> -home-port <port_name> -address <port_ip_address> -netmask <netmask>
如需完整的命令語法、請參閱手冊頁。
下列範例會建立叢集間LIF「cluster01_icl01」和「cluster01_icl02」:
cluster01::> network interface create -vserver cluster01 -lif cluster01_icl01 -service- policy default-intercluster -home-node cluster01-01 -home-port e0c -address 192.168.1.201 -netmask 255.255.255.0 cluster01::> network interface create -vserver cluster01 -lif cluster01_icl02 -service- policy default-intercluster -home-node cluster01-02 -home-port e0c -address 192.168.1.202 -netmask 255.255.255.0
-
驗證是否已建立叢集間的LIF:
在 ONTAP 9.6 及更新版本中、執行:「網路介面show -service-policy default-intercluster」
在 ONTAP 9.5 或更早版本中、執行:「網路介面show -role intercluster」
如需完整的命令語法、請參閱手冊頁。
cluster01::> network interface show -service-policy default-intercluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- cluster01 cluster01_icl01 up/up 192.168.1.201/24 cluster01-01 e0c true cluster01_icl02 up/up 192.168.1.202/24 cluster01-02 e0c true
-
驗證叢集間的LIF是否為備援:
在 ONTAP 9.6 及更新版本中、執行:「網路介面show–service-policy default-intercluster -faulty」
在 ONTAP 9.5 或更早版本中、執行:「網路介面show -role intercluster -容 錯移轉」
如需完整的命令語法、請參閱手冊頁。
下列範例顯示、「e0c」連接埠上的叢集間LIF「cluster01_icl01」和「cluster01_icl02」將會容錯移轉至「e0d」連接埠。
cluster01::> network interface show -service-policy default-intercluster –failover Logical Home Failover Failover Vserver Interface Node:Port Policy Group -------- --------------- --------------------- --------------- -------- cluster01 cluster01_icl01 cluster01-01:e0c local-only 192.168.1.201/24 Failover Targets: cluster01-01:e0c, cluster01-01:e0d cluster01_icl02 cluster01-02:e0c local-only 192.168.1.201/24 Failover Targets: cluster01-02:e0c, cluster01-02:e0d
建立叢集對等關係
您可以使用叢集對等項create命令、在本機與遠端叢集之間建立對等關係。建立對等關係之後、您可以在遠端叢集上執行叢集對等建立、將其驗證至本機叢集。
-
您必須在叢集中每個要處理的節點上建立叢集間生命體。
-
叢集必須執行ONTAP 的是不含更新版本的版本。
-
在目的地叢集上、建立與來源叢集的對等關係:
cluster peer create -generate-passphrase -offer-expiration <MM/DD/YYYY HH:MM:SS|1…7days|1…168hours> -peer-addrs <peer_lif_ip_addresses> -ipspace <ipspace>
如果您同時指定「-genere-phrase」和「-peer-addrs」、則只有在「-per-addrs」中指定叢集間生命體的叢集才能使用所產生的密碼。
如果不使用自訂IPspace、您可以忽略「-IPSpace」選項。如需完整的命令語法、請參閱手冊頁。
下列範例會在未指定的遠端叢集上建立叢集對等關係:
cluster02::> cluster peer create -generate-passphrase -offer-expiration 2days Passphrase: UCa+6lRVICXeL/gq1WrK7ShR Expiration Time: 6/7/2017 08:16:10 EST Initial Allowed Vserver Peers: - Intercluster LIF IP: 192.140.112.101 Peer Cluster Name: Clus_7ShR (temporary generated) Warning: make a note of the passphrase - it cannot be displayed again.
-
在來源叢集上、驗證來源叢集到目的地叢集的驗證:
cluster peer create -peer-addrs <peer_lif_ip_addresses> -ipspace <ipspace>
如需完整的命令語法、請參閱手冊頁。
下列範例驗證本機叢集到叢集間LIF IP位址「192.140.112.101」和「192.140.112.102」的遠端叢集:
cluster01::> cluster peer create -peer-addrs 192.140.112.101,192.140.112.102 Notice: Use a generated passphrase or choose a passphrase of 8 or more characters. To ensure the authenticity of the peering relationship, use a phrase or sequence of characters that would be hard to guess. Enter the passphrase: Confirm the passphrase: Clusters cluster02 and cluster01 are peered.
出現提示時、請輸入對等關係的通關密碼。
-
確認已建立叢集對等關係:
「叢集對等端點顯示-instance」
cluster01::> cluster peer show -instance Peer Cluster Name: cluster02 Remote Intercluster Addresses: 192.140.112.101, 192.140.112.102 Availability of the Remote Cluster: Available Remote Cluster Name: cluster2 Active IP Addresses: 192.140.112.101, 192.140.112.102 Cluster Serial Number: 1-80-123456 Address Family of Relationship: ipv4 Authentication Status Administrative: no-authentication Authentication Status Operational: absent Last Update Time: 02/05 21:05:41 IPspace for the Relationship: Default
-
檢查對等關係中節點的連線能力和狀態:
「叢集同儕健康展」
cluster01::> cluster peer health show Node cluster-Name Node-Name Ping-Status RDB-Health Cluster-Health Avail… ---------- --------------------------- --------- --------------- -------- cluster01-01 cluster02 cluster02-01 Data: interface_reachable ICMP: interface_reachable true true true cluster02-02 Data: interface_reachable ICMP: interface_reachable true true true cluster01-02 cluster02 cluster02-01 Data: interface_reachable ICMP: interface_reachable true true true cluster02-02 Data: interface_reachable ICMP: interface_reachable true true true
建立DR群組
您必須在叢集之間建立災難恢復(DR)群組關係。
您可以在MetroCluster 支援此功能的叢集上執行此程序、以在兩個叢集的節點之間建立DR關係。
建立DR群組之後、就無法變更DR關係。 |
-
在每個節點上輸入下列命令、確認節點已準備好建立DR群組:
「組態設定顯示狀態」MetroCluster
命令輸出應顯示節點已就緒:
cluster_A::> metrocluster configuration-settings show-status Cluster Node Configuration Settings Status -------------------------- ------------- -------------------------------- cluster_A node_A_1 ready for DR group create node_A_2 ready for DR group create 2 entries were displayed.
cluster_B::> metrocluster configuration-settings show-status Cluster Node Configuration Settings Status -------------------------- ------------- -------------------------------- cluster_B node_B_1 ready for DR group create node_B_2 ready for DR group create 2 entries were displayed.
-
建立DR群組:
metrocluster configuration-settings dr-group create -partner-cluster <partner_cluster_name> -local-node <local_node_name> -remote-node <remote_node_name>
此命令只發出一次。不需要在合作夥伴叢集上重複執行。在命令中、您可以指定遠端叢集的名稱、以及合作夥伴叢集上的一個本機節點和一個節點的名稱。
您指定的兩個節點已設定為DR合作夥伴、其他兩個節點(未在命令中指定)則設定為DR群組中的第二個DR配對。輸入此命令後、這些關係便無法變更。
下列命令會建立這些DR配對:
-
node_a_1和node_b_1
-
node_a_2和node_b_2
Cluster_A::> metrocluster configuration-settings dr-group create -partner-cluster cluster_B -local-node node_A_1 -remote-node node_B_1 [Job 27] Job succeeded: DR Group Create is successful.
-
設定及連線MetroCluster 功能
您必須設定MetroCluster 用於複寫每個節點儲存和非揮發性快取的Eshow IP介面。然後、您就可以使用MetroCluster 靜態IP介面建立連線。這會建立用於儲存複寫的iSCSI連線。
建立 MetroCluster IP 介面之後、 MetroCluster IP 和連接的交換器連接埠才會上線。 |
-
您必須為每個節點建立兩個介面。這些介面必須與MetroCluster 在RESRCF檔案中定義的VLAN相關聯。
-
根據您的 ONTAP 版本、您可以在初始設定後變更某些 MetroCluster IP 介面內容。如需支援項目的詳細資訊、請參閱 "修改 MetroCluster IP 介面的內容" 。
-
您必須在MetroCluster 同一個VLAN中建立所有的SID IP介面「A」連接埠、並在MetroCluster 另一個VLAN中建立所有的SID IP介面「B」連接埠。請參閱 "關於靜態IP組態的考量MetroCluster"。
-
從ONTAP 《支援範圍》9.9.1開始、如果您使用的是第3層組態、則在建立MetroCluster 支援範圍介面時、也必須指定「閘道」參數。請參閱 "第3層廣域網路的考量"。
某些平台會使用VLAN作為MetroCluster 支援靜態IP介面。根據預設、這兩個連接埠各自使用不同的VLAN:10和20。
如果支援、您也可以使用命令中的參數、指定大於 100 (介於 101 和 4095 之間)的不同(非預設) VLAN
-vlan-id
metrocluster configuration-settings interface create
。下列平台 * 不 * 支援此
-vlan-id
參數:-
FAS8200與AFF FASA300
-
解答320 AFF
-
FAS9000 和 AFF A700
-
AFF C800 、 ASA C800 、 AFF A800 和 ASA A800
所有其他平台都支援此
-vlan-id
參數。預設和有效的 VLAN 指派取決於平台是否支援此
-vlan-id
參數:
支援 <code> 的平台 - VLAN - </code>預設 VLAN :
-
如果
-vlan-id
未指定參數、則會使用 VLAN 10 建立介面、用於「 A 」連接埠、而 VLAN 20 則用於「 B 」連接埠。 -
指定的 VLAN 必須符合 RCF 中選取的 VLAN 。
有效 VLAN 範圍:
-
預設 VLAN 10 和 20
-
VLAN 101 及更高版本(介於 101 和 4095 之間)
不支援 <code> 的平台 -vlan—卻 不支援 </code>預設 VLAN :
-
不適用。介面不需要在 MetroCluster 介面上指定 VLAN 。交換器連接埠會定義所使用的 VLAN 。
有效 VLAN 範圍:
-
產生 RCF 時未明確排除所有 VLAN 。RCF 會在 VLAN 無效時發出警示。
-
-
MetroCluster IP 介面使用的實體連接埠取決於平台模式。如需系統的連接埠使用情形、請參閱 "連接MetroCluster 至靜態IP交換器" 。
-
範例中使用下列IP位址和子網路:
節點
介面
IP 位址
子網路
node_a_1
支援的IP介面1. MetroCluster
10.1.1.1
10.1.1/24
IP介面2. MetroCluster
10.1.2.1
10.1.2/24
節點_a_2
支援的IP介面1. MetroCluster
10.1.1.2
10.1.1/24
IP介面2. MetroCluster
10.1.2.2
10.1.2/24
節點_B_1
支援的IP介面1. MetroCluster
10.1.1.3
10.1.1/24
IP介面2. MetroCluster
10.1.2.3
10.1.2/24
節點_B_2
支援的IP介面1. MetroCluster
10.1.1.4
10.1.1/24
IP介面2. MetroCluster
10.1.2.4
10.1.2/24
-
本程序使用下列範例:
AFF A700 或 FAS9000 系統( e5a 和 e5b )的連接埠。
AFF A220 系統的連接埠、顯示如何在支援的平台上使用
-vlan-id
參數。針對您的平台機型、在正確的連接埠上設定介面。
-
確認每個節點都已啟用磁碟自動指派:
「顯示磁碟選項」
磁碟自動指派將會依機櫃指派集區0和集區1磁碟。
「自動指派」欄會指出是否已啟用磁碟自動指派。
Node BKg. FW. Upd. Auto Copy Auto Assign Auto Assign Policy ---------- ------------- ---------- ----------- ------------------ node_A_1 on on on default node_A_2 on on on default 2 entries were displayed.
-
確認MetroCluster 您可以在節點上建立靜態IP介面:
「組態設定顯示狀態」MetroCluster
所有節點均應就緒:
Cluster Node Configuration Settings Status ---------- ----------- --------------------------------- cluster_A node_A_1 ready for interface create node_A_2 ready for interface create cluster_B node_B_1 ready for interface create node_B_2 ready for interface create 4 entries were displayed.
-
在node_a_1上建立介面。
-
在「node_a_1」的連接埠「e5a」上設定介面:
metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5a -address <ip_address> -netmask <netmask>
下列範例顯示在IP位址為「10.1.1.1」的「node_a_1」上、在連接埠「e5a」上建立介面:
cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_1 -home-port e5a -address 10.1.1.1 -netmask 255.255.255.0 [Job 28] Job succeeded: Interface Create is successful. cluster_A::>
如果您MetroCluster 不想使用預設的VLAN ID、則可在支援VLAN for the Suse IP介面的平台機型上、加入「-vlan-id」參數。以下範例顯示AFF 適用於VLAN ID為120的32位元組系統的命令:
cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_2 -home-port e0a -address 10.1.1.2 -netmask 255.255.255.0 -vlan-id 120 [Job 28] Job succeeded: Interface Create is successful. cluster_A::>
-
在「node_a_1」的連接埠「e5b」上設定介面:
metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5b -address <ip_address> -netmask <netmask>
下列範例顯示在IP位址為「10.1.2.1」的「node_a_1」上、在連接埠「e5b」上建立介面:
cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_1 -home-port e5b -address 10.1.2.1 -netmask 255.255.255.0 [Job 28] Job succeeded: Interface Create is successful. cluster_A::>
您可以使用「MetroCluster flex-configuration interface show」命令來驗證這些介面是否存在。 -
-
在node_a_2上建立介面。
-
在「node_a_2」的連接埠「e5a」上設定介面:
metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5a -address <ip_address> -netmask <netmask>
下列範例顯示在IP位址為「10.1.1.2」的「node_a_2」上、在連接埠「e5a」上建立介面:
cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_2 -home-port e5a -address 10.1.1.2 -netmask 255.255.255.0 [Job 28] Job succeeded: Interface Create is successful. cluster_A::>
-
在「node_a_2」的連接埠「e5b」上設定介面:
metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5b -address <ip_address> -netmask <netmask>
下列範例顯示在IP位址為「10.1.2.2」的「node_a_2」上、在連接埠「e5b」上建立介面:
cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_2 -home-port e5b -address 10.1.2.2 -netmask 255.255.255.0 [Job 28] Job succeeded: Interface Create is successful. cluster_A::>
如果您MetroCluster 不想使用預設的VLAN ID、則可在支援VLAN for the Suse IP介面的平台機型上、加入「-vlan-id」參數。以下範例顯示AFF 適用於VLAN ID為220的Arfe A220系統的命令:
cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_A -home-node node_A_2 -home-port e0b -address 10.1.2.2 -netmask 255.255.255.0 -vlan-id 220 [Job 28] Job succeeded: Interface Create is successful. cluster_A::>
-
-
在「node_B_1」上建立介面。
-
在「node_B_1」上的連接埠「e5a」上設定介面:
metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5a -address <ip_address> -netmask <netmask>
下列範例顯示在IP位址為「10.1.1.3」的「node_B_1」上、在連接埠「e5a」上建立介面:
cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_1 -home-port e5a -address 10.1.1.3 -netmask 255.255.255.0 [Job 28] Job succeeded: Interface Create is successful.cluster_B::>
-
在「node_B_1」上的連接埠「e5b」上設定介面:
metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5b -address <ip_address> -netmask <netmask>
下列範例顯示在IP位址為「10.1.2.3」的「node_B_1」上、在連接埠「e5b」上建立介面:
cluster_A::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_1 -home-port e5b -address 10.1.2.3 -netmask 255.255.255.0 [Job 28] Job succeeded: Interface Create is successful.cluster_B::>
-
-
在「node_B_2」上建立介面。
-
在node_B_2上的連接埠e5a上設定介面:
metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5a -address <ip_address> -netmask <netmask>
下列範例顯示在IP位址為「10.1.1.4」的「node_B_2」上、在連接埠「e5a」上建立介面:
cluster_B::>metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_2 -home-port e5a -address 10.1.1.4 -netmask 255.255.255.0 [Job 28] Job succeeded: Interface Create is successful.cluster_A::>
-
在「node_B_2」的連接埠「e5b」上設定介面:
metrocluster configuration-settings interface create -cluster-name <cluster_name> -home-node <node_name> -home-port e5b -address <ip_address> -netmask <netmask>
下列範例顯示在IP位址為「10.1.2.4」的「node_b_2」上、在連接埠「e5b」上建立介面:
cluster_B::> metrocluster configuration-settings interface create -cluster-name cluster_B -home-node node_B_2 -home-port e5b -address 10.1.2.4 -netmask 255.255.255.0 [Job 28] Job succeeded: Interface Create is successful. cluster_A::>
-
-
確認介面已設定:
「顯示組態設定介面」MetroCluster
以下範例顯示每個介面的組態狀態均已完成。
cluster_A::> metrocluster configuration-settings interface show DR Config Group Cluster Node Network Address Netmask Gateway State ----- ------- ------- --------------- --------------- --------- ---------- 1 cluster_A node_A_1 Home Port: e5a 10.1.1.1 255.255.255.0 - completed Home Port: e5b 10.1.2.1 255.255.255.0 - completed node_A_2 Home Port: e5a 10.1.1.2 255.255.255.0 - completed Home Port: e5b 10.1.2.2 255.255.255.0 - completed cluster_B node_B_1 Home Port: e5a 10.1.1.3 255.255.255.0 - completed Home Port: e5b 10.1.2.3 255.255.255.0 - completed node_B_2 Home Port: e5a 10.1.1.4 255.255.255.0 - completed Home Port: e5b 10.1.2.4 255.255.255.0 - completed 8 entries were displayed. cluster_A::>
-
確認節點已準備好連接MetroCluster 支援中心介面:
「組態設定顯示狀態」MetroCluster
下列範例顯示「準備好連線」狀態的所有節點:
Cluster Node Configuration Settings Status ---------- ----------- --------------------------------- cluster_A node_A_1 ready for connection connect node_A_2 ready for connection connect cluster_B node_B_1 ready for connection connect node_B_2 ready for connection connect 4 entries were displayed.
-
建立連線:MetroCluster 「不中斷組態設定連線」
如果您執行的版本早於 ONTAP 9.10.1 、則在您發出此命令之後、就無法變更 IP 位址。
以下範例顯示叢集A已成功連線:
cluster_A::> metrocluster configuration-settings connection connect [Job 53] Job succeeded: Connect is successful. cluster_A::>
-
確認已建立連線:
「組態設定顯示狀態」MetroCluster
應完成所有節點的組態設定狀態:
Cluster Node Configuration Settings Status ---------- ----------- --------------------------------- cluster_A node_A_1 completed node_A_2 completed cluster_B node_B_1 completed node_B_2 completed 4 entries were displayed.
-
確認iSCSI連線已建立:
-
變更為進階權限層級:
"進階權限"
當系統提示您繼續進入進階模式時、您需要用「y」回應、並看到進階模式提示('*>')。
-
顯示連線:
「iSCSI啟動器展示」
在執行ONTAP Se9.5的系統上MetroCluster 、每個叢集上應有八個應出現在輸出中的EID IP啟動器。
在執行ONTAP 部分為9.4及更早版本的系統上、MetroCluster 每個叢集上應有四個應出現在輸出中的「不知道IP啟動器」。
以下範例顯示MetroCluster 執行ONTAP S25 9.5的叢集上的八個SIP啟動器:
cluster_A::*> storage iscsi-initiator show Node Type Label Target Portal Target Name Admin/Op ---- ---- -------- ------------------ -------------------------------- -------- cluster_A-01 dr_auxiliary mccip-aux-a-initiator 10.227.16.113:65200 prod506.com.company:abab44 up/up mccip-aux-a-initiator2 10.227.16.113:65200 prod507.com.company:abab44 up/up mccip-aux-b-initiator 10.227.95.166:65200 prod506.com.company:abab44 up/up mccip-aux-b-initiator2 10.227.95.166:65200 prod507.com.company:abab44 up/up dr_partner mccip-pri-a-initiator 10.227.16.112:65200 prod506.com.company:cdcd88 up/up mccip-pri-a-initiator2 10.227.16.112:65200 prod507.com.company:cdcd88 up/up mccip-pri-b-initiator 10.227.95.165:65200 prod506.com.company:cdcd88 up/up mccip-pri-b-initiator2 10.227.95.165:65200 prod507.com.company:cdcd88 up/up cluster_A-02 dr_auxiliary mccip-aux-a-initiator 10.227.16.112:65200 prod506.com.company:cdcd88 up/up mccip-aux-a-initiator2 10.227.16.112:65200 prod507.com.company:cdcd88 up/up mccip-aux-b-initiator 10.227.95.165:65200 prod506.com.company:cdcd88 up/up mccip-aux-b-initiator2 10.227.95.165:65200 prod507.com.company:cdcd88 up/up dr_partner mccip-pri-a-initiator 10.227.16.113:65200 prod506.com.company:abab44 up/up mccip-pri-a-initiator2 10.227.16.113:65200 prod507.com.company:abab44 up/up mccip-pri-b-initiator 10.227.95.166:65200 prod506.com.company:abab44 up/up mccip-pri-b-initiator2 10.227.95.166:65200 prod507.com.company:abab44 up/up 16 entries were displayed.
-
返回管理權限層級:
「et -priv. admin」
-
-
確認節點已準備好最終實作MetroCluster 支援的功能:
「不一樣的秀」MetroCluster
cluster_A::> metrocluster node show DR Configuration DR Group Cluster Node State Mirroring Mode ----- ------- ------------------ -------------- --------- ---- - cluster_A node_A_1 ready to configure - - node_A_2 ready to configure - - 2 entries were displayed. cluster_A::>
cluster_B::> metrocluster node show DR Configuration DR Group Cluster Node State Mirroring Mode ----- ------- ------------------ -------------- --------- ---- - cluster_B node_B_1 ready to configure - - node_B_2 ready to configure - - 2 entries were displayed. cluster_B::>
驗證或手動執行Pool 1磁碟機指派
視儲存組態而定、您必須驗證資源池1磁碟機指派、或針對MetroCluster 各個節點手動指派磁碟機至資源池1、以利進行支援。您使用的程序取決於ONTAP 您所使用的版本。
組態類型 |
程序 |
系統符合自動指派磁碟機的要求、如果執行ONTAP 的是還原9.3、則會從原廠收到。 |
|
此組態包括三個磁碟櫃、或如果其中包含四個以上的磁碟櫃、則四個磁碟櫃的倍數(例如七個磁碟櫃)不均、且執行ONTAP 的是S29.5。 |
|
此組態不包括每個站台四個儲存櫃、而且執行ONTAP 的是NetApp 9.4 |
|
系統未從原廠接收、且執行ONTAP 原廠提供的還原9.3系統已預先設定指派的磁碟機。 |
驗證集區1磁碟的磁碟指派
您必須確認遠端磁碟對節點可見且已正確指派。
使用「支援組態設定的連線」命令建立完整套的支援IP介面和連線之後、您必須至少等待十分鐘、才能完成磁碟自動指派MetroCluster 。MetroCluster
命令輸出會以節點名稱:0m.i1.0L1的形式顯示磁碟名稱
-
確認已自動指派資源池1磁碟:
「尖碑秀」
下列輸出顯示AFF 沒有外部機櫃的不含A800系統輸出。
磁碟機自動指派已將第一季(8個磁碟機)指派給「node_a_1」、第一季指派給「node_a_2」。其餘磁碟機將是遠端(集區1)磁碟、適用於「node_B_1」和「node_B_2」。
cluster_B::> disk show -host-adapter 0m -owner node_B_2 Usable Disk Container Container Disk Size Shelf Bay Type Type Name Owner ---------------- ---------- ----- --- ------- ----------- --------- -------- node_B_2:0m.i0.2L4 894.0GB 0 29 SSD-NVM shared - node_B_2 node_B_2:0m.i0.2L10 894.0GB 0 25 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L3 894.0GB 0 28 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L9 894.0GB 0 24 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L11 894.0GB 0 26 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L12 894.0GB 0 27 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L15 894.0GB 0 30 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L16 894.0GB 0 31 SSD-NVM shared - node_B_2 8 entries were displayed. cluster_B::> disk show -host-adapter 0m -owner node_B_1 Usable Disk Container Container Disk Size Shelf Bay Type Type Name Owner ---------------- ---------- ----- --- ------- ----------- --------- -------- node_B_1:0m.i2.3L19 1.75TB 0 42 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L20 1.75TB 0 43 SSD-NVM spare Pool1 node_B_1 node_B_1:0m.i2.3L23 1.75TB 0 40 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L24 1.75TB 0 41 SSD-NVM spare Pool1 node_B_1 node_B_1:0m.i2.3L29 1.75TB 0 36 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L30 1.75TB 0 37 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L31 1.75TB 0 38 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L32 1.75TB 0 39 SSD-NVM shared - node_B_1 8 entries were displayed. cluster_B::> disk show Usable Disk Container Container Disk Size Shelf Bay Type Type Name Owner ---------------- ---------- ----- --- ------- ----------- --------- -------- node_B_1:0m.i1.0L6 1.75TB 0 1 SSD-NVM shared - node_A_2 node_B_1:0m.i1.0L8 1.75TB 0 3 SSD-NVM shared - node_A_2 node_B_1:0m.i1.0L17 1.75TB 0 18 SSD-NVM shared - node_A_1 node_B_1:0m.i1.0L22 1.75TB 0 17 SSD-NVM shared - node_A_1 node_B_1:0m.i1.0L25 1.75TB 0 12 SSD-NVM shared - node_A_1 node_B_1:0m.i1.2L2 1.75TB 0 5 SSD-NVM shared - node_A_2 node_B_1:0m.i1.2L7 1.75TB 0 2 SSD-NVM shared - node_A_2 node_B_1:0m.i1.2L14 1.75TB 0 7 SSD-NVM shared - node_A_2 node_B_1:0m.i1.2L21 1.75TB 0 16 SSD-NVM shared - node_A_1 node_B_1:0m.i1.2L27 1.75TB 0 14 SSD-NVM shared - node_A_1 node_B_1:0m.i1.2L28 1.75TB 0 15 SSD-NVM shared - node_A_1 node_B_1:0m.i2.1L1 1.75TB 0 4 SSD-NVM shared - node_A_2 node_B_1:0m.i2.1L5 1.75TB 0 0 SSD-NVM shared - node_A_2 node_B_1:0m.i2.1L13 1.75TB 0 6 SSD-NVM shared - node_A_2 node_B_1:0m.i2.1L18 1.75TB 0 19 SSD-NVM shared - node_A_1 node_B_1:0m.i2.1L26 1.75TB 0 13 SSD-NVM shared - node_A_1 node_B_1:0m.i2.3L19 1.75TB 0 42 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L20 1.75TB 0 43 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L23 1.75TB 0 40 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L24 1.75TB 0 41 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L29 1.75TB 0 36 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L30 1.75TB 0 37 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L31 1.75TB 0 38 SSD-NVM shared - node_B_1 node_B_1:0m.i2.3L32 1.75TB 0 39 SSD-NVM shared - node_B_1 node_B_1:0n.12 1.75TB 0 12 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.13 1.75TB 0 13 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.14 1.75TB 0 14 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.15 1.75TB 0 15 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.16 1.75TB 0 16 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.17 1.75TB 0 17 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.18 1.75TB 0 18 SSD-NVM shared aggr0 node_B_1 node_B_1:0n.19 1.75TB 0 19 SSD-NVM shared - node_B_1 node_B_1:0n.24 894.0GB 0 24 SSD-NVM shared - node_A_2 node_B_1:0n.25 894.0GB 0 25 SSD-NVM shared - node_A_2 node_B_1:0n.26 894.0GB 0 26 SSD-NVM shared - node_A_2 node_B_1:0n.27 894.0GB 0 27 SSD-NVM shared - node_A_2 node_B_1:0n.28 894.0GB 0 28 SSD-NVM shared - node_A_2 node_B_1:0n.29 894.0GB 0 29 SSD-NVM shared - node_A_2 node_B_1:0n.30 894.0GB 0 30 SSD-NVM shared - node_A_2 node_B_1:0n.31 894.0GB 0 31 SSD-NVM shared - node_A_2 node_B_1:0n.36 1.75TB 0 36 SSD-NVM shared - node_A_1 node_B_1:0n.37 1.75TB 0 37 SSD-NVM shared - node_A_1 node_B_1:0n.38 1.75TB 0 38 SSD-NVM shared - node_A_1 node_B_1:0n.39 1.75TB 0 39 SSD-NVM shared - node_A_1 node_B_1:0n.40 1.75TB 0 40 SSD-NVM shared - node_A_1 node_B_1:0n.41 1.75TB 0 41 SSD-NVM shared - node_A_1 node_B_1:0n.42 1.75TB 0 42 SSD-NVM shared - node_A_1 node_B_1:0n.43 1.75TB 0 43 SSD-NVM shared - node_A_1 node_B_2:0m.i0.2L4 894.0GB 0 29 SSD-NVM shared - node_B_2 node_B_2:0m.i0.2L10 894.0GB 0 25 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L3 894.0GB 0 28 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L9 894.0GB 0 24 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L11 894.0GB 0 26 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L12 894.0GB 0 27 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L15 894.0GB 0 30 SSD-NVM shared - node_B_2 node_B_2:0m.i0.3L16 894.0GB 0 31 SSD-NVM shared - node_B_2 node_B_2:0n.0 1.75TB 0 0 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2 node_B_2:0n.1 1.75TB 0 1 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2 node_B_2:0n.2 1.75TB 0 2 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2 node_B_2:0n.3 1.75TB 0 3 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2 node_B_2:0n.4 1.75TB 0 4 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2 node_B_2:0n.5 1.75TB 0 5 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2 node_B_2:0n.6 1.75TB 0 6 SSD-NVM shared aggr0_rha12_b1_cm_02_0 node_B_2 node_B_2:0n.7 1.75TB 0 7 SSD-NVM shared - node_B_2 64 entries were displayed. cluster_B::> cluster_A::> disk show Usable Disk Container Container Disk Size Shelf Bay Type Type Name Owner ---------------- ---------- ----- --- ------- ----------- --------- -------- node_A_1:0m.i1.0L2 1.75TB 0 5 SSD-NVM shared - node_B_2 node_A_1:0m.i1.0L8 1.75TB 0 3 SSD-NVM shared - node_B_2 node_A_1:0m.i1.0L18 1.75TB 0 19 SSD-NVM shared - node_B_1 node_A_1:0m.i1.0L25 1.75TB 0 12 SSD-NVM shared - node_B_1 node_A_1:0m.i1.0L27 1.75TB 0 14 SSD-NVM shared - node_B_1 node_A_1:0m.i1.2L1 1.75TB 0 4 SSD-NVM shared - node_B_2 node_A_1:0m.i1.2L6 1.75TB 0 1 SSD-NVM shared - node_B_2 node_A_1:0m.i1.2L7 1.75TB 0 2 SSD-NVM shared - node_B_2 node_A_1:0m.i1.2L14 1.75TB 0 7 SSD-NVM shared - node_B_2 node_A_1:0m.i1.2L17 1.75TB 0 18 SSD-NVM shared - node_B_1 node_A_1:0m.i1.2L22 1.75TB 0 17 SSD-NVM shared - node_B_1 node_A_1:0m.i2.1L5 1.75TB 0 0 SSD-NVM shared - node_B_2 node_A_1:0m.i2.1L13 1.75TB 0 6 SSD-NVM shared - node_B_2 node_A_1:0m.i2.1L21 1.75TB 0 16 SSD-NVM shared - node_B_1 node_A_1:0m.i2.1L26 1.75TB 0 13 SSD-NVM shared - node_B_1 node_A_1:0m.i2.1L28 1.75TB 0 15 SSD-NVM shared - node_B_1 node_A_1:0m.i2.3L19 1.75TB 0 42 SSD-NVM shared - node_A_1 node_A_1:0m.i2.3L20 1.75TB 0 43 SSD-NVM shared - node_A_1 node_A_1:0m.i2.3L23 1.75TB 0 40 SSD-NVM shared - node_A_1 node_A_1:0m.i2.3L24 1.75TB 0 41 SSD-NVM shared - node_A_1 node_A_1:0m.i2.3L29 1.75TB 0 36 SSD-NVM shared - node_A_1 node_A_1:0m.i2.3L30 1.75TB 0 37 SSD-NVM shared - node_A_1 node_A_1:0m.i2.3L31 1.75TB 0 38 SSD-NVM shared - node_A_1 node_A_1:0m.i2.3L32 1.75TB 0 39 SSD-NVM shared - node_A_1 node_A_1:0n.12 1.75TB 0 12 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.13 1.75TB 0 13 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.14 1.75TB 0 14 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.15 1.75TB 0 15 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.16 1.75TB 0 16 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.17 1.75TB 0 17 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.18 1.75TB 0 18 SSD-NVM shared aggr0 node_A_1 node_A_1:0n.19 1.75TB 0 19 SSD-NVM shared - node_A_1 node_A_1:0n.24 894.0GB 0 24 SSD-NVM shared - node_B_2 node_A_1:0n.25 894.0GB 0 25 SSD-NVM shared - node_B_2 node_A_1:0n.26 894.0GB 0 26 SSD-NVM shared - node_B_2 node_A_1:0n.27 894.0GB 0 27 SSD-NVM shared - node_B_2 node_A_1:0n.28 894.0GB 0 28 SSD-NVM shared - node_B_2 node_A_1:0n.29 894.0GB 0 29 SSD-NVM shared - node_B_2 node_A_1:0n.30 894.0GB 0 30 SSD-NVM shared - node_B_2 node_A_1:0n.31 894.0GB 0 31 SSD-NVM shared - node_B_2 node_A_1:0n.36 1.75TB 0 36 SSD-NVM shared - node_B_1 node_A_1:0n.37 1.75TB 0 37 SSD-NVM shared - node_B_1 node_A_1:0n.38 1.75TB 0 38 SSD-NVM shared - node_B_1 node_A_1:0n.39 1.75TB 0 39 SSD-NVM shared - node_B_1 node_A_1:0n.40 1.75TB 0 40 SSD-NVM shared - node_B_1 node_A_1:0n.41 1.75TB 0 41 SSD-NVM shared - node_B_1 node_A_1:0n.42 1.75TB 0 42 SSD-NVM shared - node_B_1 node_A_1:0n.43 1.75TB 0 43 SSD-NVM shared - node_B_1 node_A_2:0m.i2.3L3 894.0GB 0 28 SSD-NVM shared - node_A_2 node_A_2:0m.i2.3L4 894.0GB 0 29 SSD-NVM shared - node_A_2 node_A_2:0m.i2.3L9 894.0GB 0 24 SSD-NVM shared - node_A_2 node_A_2:0m.i2.3L10 894.0GB 0 25 SSD-NVM shared - node_A_2 node_A_2:0m.i2.3L11 894.0GB 0 26 SSD-NVM shared - node_A_2 node_A_2:0m.i2.3L12 894.0GB 0 27 SSD-NVM shared - node_A_2 node_A_2:0m.i2.3L15 894.0GB 0 30 SSD-NVM shared - node_A_2 node_A_2:0m.i2.3L16 894.0GB 0 31 SSD-NVM shared - node_A_2 node_A_2:0n.0 1.75TB 0 0 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.1 1.75TB 0 1 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.2 1.75TB 0 2 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.3 1.75TB 0 3 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.4 1.75TB 0 4 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.5 1.75TB 0 5 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.6 1.75TB 0 6 SSD-NVM shared aggr0_node_A_2_0 node_A_2 node_A_2:0n.7 1.75TB 0 7 SSD-NVM shared - node_A_2 64 entries were displayed. cluster_A::>
手動指派集區1的磁碟機(ONTAP 發揮作用9.4或更新版本)
如果系統未在原廠預先設定、且不符合自動磁碟指派的要求、您必須手動指派遠端集區1磁碟機。
此程序適用於執行ONTAP 版本為4、9.4或更新版本的組態。
有關判斷系統是否需要手動指派磁碟的詳細資料、請參閱 "自動指派磁碟機和ONTAP ADP系統的考量事項、位於更新版本的更新版本"。
如果每個站台的組態僅包含兩個外部磁碟櫃、則每個站台的集區1個磁碟機應從同一個磁碟櫃共用、如下列範例所示:
-
節點A_1是在site_B-b櫃_2(遠端)的托架0-11中指派磁碟機
-
節點_a_2在磁碟槽12-23中指派磁碟機、位於site_B-bid櫃_2(遠端)
-
在「支援IP」組態的每個節點中MetroCluster 、將遠端磁碟機指派給資源池1。
-
顯示未指派磁碟機的清單:
「顯示主機介面卡0m -container類型未指派」
cluster_A::> disk show -host-adapter 0m -container-type unassigned Usable Disk Container Container Disk Size Shelf Bay Type Type Name Owner ---------------- ---------- ----- --- ------- ----------- --------- -------- 6.23.0 - 23 0 SSD unassigned - - 6.23.1 - 23 1 SSD unassigned - - . . . node_A_2:0m.i1.2L51 - 21 14 SSD unassigned - - node_A_2:0m.i1.2L64 - 21 10 SSD unassigned - - . . . 48 entries were displayed. cluster_A::>
-
將遠端磁碟機的擁有權(0m)指派給第一個節點的集區1(例如node_a_1):
disk assign -disk <disk-id> -pool 1 -owner <owner_node_name>
disk-id
必須在的遠端機櫃上識別磁碟機owner_node_name
。 -
確認磁碟機已指派給資源池1:
「顯示主機介面卡0m -container類型未指派」
用於存取遠端磁碟機的iSCSI連線顯示為0m裝置。 下列輸出顯示已指派磁碟機23、因為磁碟機不再出現在未指派的磁碟機清單中:
cluster_A::> disk show -host-adapter 0m -container-type unassigned Usable Disk Container Container Disk Size Shelf Bay Type Type Name Owner ---------------- ---------- ----- --- ------- ----------- --------- -------- node_A_2:0m.i1.2L51 - 21 14 SSD unassigned - - node_A_2:0m.i1.2L64 - 21 10 SSD unassigned - - . . . node_A_2:0m.i2.1L90 - 21 19 SSD unassigned - - 24 entries were displayed. cluster_A::>
-
重複這些步驟、將集區1磁碟機指派給站台A的第二個節點(例如「node_a_2」)。
-
在站台B上重複這些步驟
-
手動指派集區1的磁碟(ONTAP 發揮作用)(發揮作用9.3)
如果每個節點至少有兩個磁碟櫃、您可以使用ONTAP的自動指派功能來自動指派遠端(Pool1)磁碟。
您必須先將機櫃上的磁碟指派給集區1。然後、將機櫃上的其餘磁碟自動指派給同一個資源池。ONTAP
本程序適用於執行ONTAP 不符合功能的組態。
此程序僅適用於每個節點至少有兩個磁碟櫃的情況、這可讓磁碟在磁碟櫃層級自動指派。
如果您無法使用機櫃層級的自動指派、則必須手動指派遠端磁碟、讓每個節點都有遠端磁碟集區(Pool 1)。
「自動磁碟指派」功能可依機櫃指派磁碟。ONTAP例如:
-
site_B-b櫃_2上的所有磁碟都會自動指派給node_a_1的資源池1
-
site_B-b櫃_4上的所有磁碟都會自動指派給node_a_2的資源池1
-
site_A-bally_2上的所有磁碟都會自動指派給node_B_1的Pool1
-
site_A-bally_4上的所有磁碟都會自動指派給node_B_2的Pool1
您必須在每個磁碟櫃上指定一個磁碟、以「種子」自動指派。
-
在「支援IP」組態的每個節點中MetroCluster 、將遠端磁碟指派給資源池1。
-
顯示未指派磁碟的清單:
「顯示主機介面卡0m -container類型未指派」
cluster_A::> disk show -host-adapter 0m -container-type unassigned Usable Disk Container Container Disk Size Shelf Bay Type Type Name Owner ---------------- ---------- ----- --- ------- ----------- --------- -------- 6.23.0 - 23 0 SSD unassigned - - 6.23.1 - 23 1 SSD unassigned - - . . . node_A_2:0m.i1.2L51 - 21 14 SSD unassigned - - node_A_2:0m.i1.2L64 - 21 10 SSD unassigned - - . . . 48 entries were displayed. cluster_A::>
-
選取遠端磁碟(0m)、然後將磁碟的擁有權指派給第一個節點的集區1(例如「node_a_1」):
disk assign -disk <disk_id> -pool 1 -owner <owner_node_name>
`disk-id`必須在的遠端機櫃上識別磁碟 `owner_node_name`。
此功能可自動指派包含指定磁碟之遠端機櫃上的所有磁碟。ONTAP
-
等待至少60秒後、磁碟自動指派才會進行、然後確認磁碟櫃上的遠端磁碟已自動指派給資源池1:
「顯示主機介面卡0m -container類型未指派」
用於存取遠端磁碟的iSCSI連線顯示為設備0m。 下列輸出顯示、磁碟櫃23上的磁碟現在已指派、不再顯示:
cluster_A::> disk show -host-adapter 0m -container-type unassigned Usable Disk Container Container Disk Size Shelf Bay Type Type Name Owner ---------------- ---------- ----- --- ------- ----------- --------- -------- node_A_2:0m.i1.2L51 - 21 14 SSD unassigned - - node_A_2:0m.i1.2L64 - 21 10 SSD unassigned - - node_A_2:0m.i1.2L72 - 21 23 SSD unassigned - - node_A_2:0m.i1.2L74 - 21 1 SSD unassigned - - node_A_2:0m.i1.2L83 - 21 22 SSD unassigned - - node_A_2:0m.i1.2L90 - 21 7 SSD unassigned - - node_A_2:0m.i1.3L52 - 21 6 SSD unassigned - - node_A_2:0m.i1.3L59 - 21 13 SSD unassigned - - node_A_2:0m.i1.3L66 - 21 17 SSD unassigned - - node_A_2:0m.i1.3L73 - 21 12 SSD unassigned - - node_A_2:0m.i1.3L80 - 21 5 SSD unassigned - - node_A_2:0m.i1.3L81 - 21 2 SSD unassigned - - node_A_2:0m.i1.3L82 - 21 16 SSD unassigned - - node_A_2:0m.i1.3L91 - 21 3 SSD unassigned - - node_A_2:0m.i2.0L49 - 21 15 SSD unassigned - - node_A_2:0m.i2.0L50 - 21 4 SSD unassigned - - node_A_2:0m.i2.1L57 - 21 18 SSD unassigned - - node_A_2:0m.i2.1L58 - 21 11 SSD unassigned - - node_A_2:0m.i2.1L59 - 21 21 SSD unassigned - - node_A_2:0m.i2.1L65 - 21 20 SSD unassigned - - node_A_2:0m.i2.1L72 - 21 9 SSD unassigned - - node_A_2:0m.i2.1L80 - 21 0 SSD unassigned - - node_A_2:0m.i2.1L88 - 21 8 SSD unassigned - - node_A_2:0m.i2.1L90 - 21 19 SSD unassigned - - 24 entries were displayed. cluster_A::>
-
重複這些步驟、將集區1磁碟指派給站台A上的第二個節點(例如「node_a_2」)。
-
在站台B上重複這些步驟
-
啟用ONTAP 在支援功能方面的自動指派磁碟機9.4
在本程序先前所述的程序中、如果停用自動磁碟機指派、則必須在所有節點上重新啟用。ONTAP
-
啟用自動磁碟指派:
storage disk option modify -node <node_name> -autoassign on
您必須在MetroCluster 所有節點上發出此命令、以供使用。
鏡射根Aggregate
您必須鏡射根Aggregate以提供資料保護。
根據預設、根Aggregate會建立為RAID-DP類型Aggregate。您可以將根Aggregate從RAID-DP變更為RAID4類型Aggregate。下列命令會修改RAID4類型Aggregate的根Aggregate:
storage aggregate modify –aggregate <aggr_name> -raidtype raid4
在非ADP系統上、可在鏡射Aggregate之前或之後、將Aggregate的RAID類型從預設RAID-DP修改為RAID4。 |
-
鏡射根Aggregate:
storage aggregate mirror <aggr_name>
下列命令會鏡射「控制器_a_1」的根Aggregate:
controller_A_1::> storage aggregate mirror aggr0_controller_A_1
這會鏡射Aggregate、因此它由位於遠端MetroCluster 站台的本機叢和遠端叢組成。
-
針對MetroCluster 「資訊功能」組態中的每個節點、重複上述步驟。
在每個節點上建立鏡射資料Aggregate
您必須在DR群組中的每個節點上建立鏡射資料Aggregate。
-
您應該知道新的Aggregate將使用哪些磁碟機。
-
如果您的系統中有多種磁碟機類型(異質儲存設備)、您應該瞭解如何確保選取正確的磁碟機類型。
-
磁碟機由特定節點擁有;當您建立Aggregate時、該Aggregate中的所有磁碟機都必須由同一個節點擁有、此節點會成為該Aggregate的主節點。
在使用ADP的系統中、會使用分割區來建立集合體、將每個磁碟機分割至P1、P2和P3分割區。
-
Aggregate名稱應符合您在規劃MetroCluster 時所決定的名稱配置。
-
顯示可用備援磁碟機清單:
storage disk show -spare -owner <node_name>
-
建立Aggregate:
"集合體建立-鏡射真"
如果您已登入叢集管理介面上的叢集、則可以在叢集中的任何節點上建立集合體。若要確保在特定節點上建立Aggregate、請使用「-node-」參數或指定該節點擁有的磁碟機。
您可以指定下列選項:
-
Aggregate的主節點(也就是在正常作業中擁有Aggregate的節點)
-
要新增至集合體的特定磁碟機清單
-
要納入的磁碟機數量
在可用磁碟機數量有限的最低支援組態中、您必須使用force-min-Aggregate選項來建立三個磁碟RAID-DP Aggregate。 -
用於Aggregate的Checksum樣式
-
要使用的磁碟機類型
-
要使用的磁碟機大小
-
使用的磁碟機速度
-
集合體上RAID群組的RAID類型
-
RAID群組中可包含的磁碟機數目上限
-
是否允許使用不同RPM的磁碟機取得這些選項的詳細資訊、請參閱儲存Aggregate create手冊頁。
下列命令會建立10個磁碟的鏡射Aggregate:
cluster_A::> storage aggregate create aggr1_node_A_1 -diskcount 10 -node node_A_1 -mirror true [Job 15] Job is queued: Create aggr1_node_A_1. [Job 15] The job is starting. [Job 15] Job succeeded: DONE
-
-
驗證新Aggregate的RAID群組和磁碟機:
storage aggregate show-status -aggregate <aggregate-name>
實作MetroCluster 此功能組態
您必須執行「MetroCluster flexfconfigure」命令、才能以MetroCluster 一套功能完善的功能來啟動資料保護功能。
-
每個叢集至少應有兩個非根鏡射資料集合體。
您可以使用「shorage Aggregate show」命令來驗證。
如果您要使用單一鏡射資料Aggregate、請參閱 步驟1. 以取得相關指示。 -
控制器和機箱的ha-config狀態必須為「mcip」。
您可以在MetroCluster 任何節點上發出「flexconfigure」命令一次、以啟用MetroCluster 該組態。您不需要在每個站台或節點上發出命令、也不需要在哪個節點或站台上發出命令。
「Sof the flexconfigure」命令會自動配對兩個節點、使兩個叢集的系統ID最低、成為災難恢復(DR)合作夥伴。MetroCluster在四節點MetroCluster 的不全功能組態中、有兩個DR合作夥伴配對。第二個DR配對是從兩個具有較高系統ID的節點建立。
您必須*不*設定Onboard Key Manager(OKM)或外部金鑰管理、才能執行「MetroCluster 靜態組態」命令。 |
-
[step1_sone_mirror ]設定MetroCluster 下列格式的支援功能:
如果MetroCluster 您的組態有…
然後執行此動作…
多個資料集合體
在任何節點的提示下、設定MetroCluster 下列項目:
metrocluster configure <node_name>
單一鏡射資料Aggregate
-
在任何節點的提示下、變更為進階權限層級:
"進階權限"
當系統提示您繼續進入進階模式時、您需要用「y」回應、並看到進階模式提示(*>)。
-
使用MetroCluster 「-allow-with e-gregate true]參數設定此功能:
metrocluster configure -allow-with-one-aggregate true <node_name>
-
返回管理權限層級:
「et -priv. admin」
最佳實務做法是擁有多個資料集合體。如果第一個DR群組只有一個Aggregate、而您想要新增一個具有單一Aggregate的DR群組、則必須將中繼資料磁碟區從單一資料Aggregate中移出。如需此程序的詳細資訊、請參閱 "在MetroCluster 不完整的組態中移動中繼資料磁碟區"。 下列命令可在MetroCluster DR群組中包含「控制器_a_1」的所有節點上啟用「支援」組態:
cluster_A::*> metrocluster configure -node-name controller_A_1 [Job 121] Job succeeded: Configure is successful.
-
-
驗證站台A的網路狀態:
「網路連接埠展示」
以下範例顯示四節點MetroCluster 的列舉使用網路連接埠:
cluster_A::> network port show Speed (Mbps) Node Port IPspace Broadcast Domain Link MTU Admin/Oper ------ --------- --------- ---------------- ----- ------- ------------ controller_A_1 e0a Cluster Cluster up 9000 auto/1000 e0b Cluster Cluster up 9000 auto/1000 e0c Default Default up 1500 auto/1000 e0d Default Default up 1500 auto/1000 e0e Default Default up 1500 auto/1000 e0f Default Default up 1500 auto/1000 e0g Default Default up 1500 auto/1000 controller_A_2 e0a Cluster Cluster up 9000 auto/1000 e0b Cluster Cluster up 9000 auto/1000 e0c Default Default up 1500 auto/1000 e0d Default Default up 1500 auto/1000 e0e Default Default up 1500 auto/1000 e0f Default Default up 1500 auto/1000 e0g Default Default up 1500 auto/1000 14 entries were displayed.
-
驗MetroCluster 證MetroCluster 以支援功能驗證的兩個站台的支援功能組態。
-
從站台A驗證組態:
《不看》MetroCluster
cluster_A::> metrocluster show Configuration: IP fabric Cluster Entry Name State ------------------------- ------------------- ----------- Local: cluster_A Configuration state configured Mode normal Remote: cluster_B Configuration state configured Mode normal
-
從站台B驗證組態:
《不看》MetroCluster
cluster_B::> metrocluster show Configuration: IP fabric Cluster Entry Name State ------------------------- ------------------- ----------- Local: cluster_B Configuration state configured Mode normal Remote: cluster_A Configuration state configured Mode normal
-
-
為了避免非揮發性記憶體鏡射可能發生的問題、請重新啟動四個節點中的每個節點:
node reboot -node <node_name> -inhibit-takeover true
-
在MetroCluster 兩個叢集上發出「show」命令、以再次驗證組態。
在八節點組態中設定第二個DR群組
重複先前的工作、以設定第二個DR群組中的節點。
建立無鏡射的資料集合體
您也可以針對MetroCluster 不需要由支援的組態所提供的備援鏡像的資料、建立無鏡射的資料集合體。
-
您應該知道新的Aggregate將使用哪些磁碟機或陣列LUN。
-
如果您的系統中有多種磁碟機類型(異質儲存設備)、您應該瞭解如何驗證選取的磁碟機類型是否正確。
在S不明IP組態中、切換後無法存取遠端無鏡射集合體MetroCluster |
無鏡射的Aggregate必須是擁有它們的節點的本機集合體。 |
-
磁碟機和陣列LUN由特定節點擁有;當您建立Aggregate時、該Aggregate中的所有磁碟機都必須由同一個節點擁有、而該節點會成為該Aggregate的主節點。
-
Aggregate名稱應符合您在規劃MetroCluster 時所決定的名稱配置。
-
_磁碟與Aggregate管理_包含更多有關鏡射Aggregate的資訊。
-
啟用無鏡射的Aggregate部署:
「MetroCluster 支援無鏡射的Aggr-deployment true」
-
確認磁碟自動指派已停用:
顯示「磁碟選項」
-
安裝並連接將包含無鏡射集合體的磁碟櫃。
您可以使用平台和磁碟櫃安裝與設定文件中的程序。
-
手動將新機櫃上的所有磁碟指派給適當的節點:
disk assign -disk <disk_id> -owner <owner_node_name>
-
建立Aggregate:
《torage aggregate create》
如果您已登入叢集管理介面上的叢集、則可以在叢集中的任何節點上建立集合體。若要驗證是否已在特定節點上建立Aggregate、您應該使用-nodes參數或指定該節點擁有的磁碟機。
您也必須確保只將未鏡射磁碟櫃上的磁碟機納入到集合體中。
您可以指定下列選項:
-
Aggregate的主節點(也就是在正常作業中擁有Aggregate的節點)
-
要新增至集合體的特定磁碟機或陣列LUN清單
-
要納入的磁碟機數量
-
用於Aggregate的Checksum樣式
-
要使用的磁碟機類型
-
要使用的磁碟機大小
-
使用的磁碟機速度
-
集合體上RAID群組的RAID類型
-
RAID群組中可包含的磁碟機或陣列LUN數目上限
-
是否允許使用不同RPM的磁碟機
如需這些選項的詳細資訊、請參閱儲存Aggregate create手冊頁。
下列命令會建立10個磁碟的無鏡射Aggregate:
controller_A_1::> storage aggregate create aggr1_controller_A_1 -diskcount 10 -node controller_A_1 [Job 15] Job is queued: Create aggr1_controller_A_1. [Job 15] The job is starting. [Job 15] Job succeeded: DONE
-
-
驗證新Aggregate的RAID群組和磁碟機:
storage aggregate show-status -aggregate <aggregate_name>
-
停用無鏡射Aggregate部署:
「MetroCluster 支援-無鏡射- aggr-deployment假」
-
確認磁碟自動指派已啟用:
顯示「磁碟選項」
正在檢查MetroCluster 功能組態
您可以檢查MetroCluster 功能組態中的元件和關係是否正常運作。
您應該在初始組態設定後、以及MetroCluster 變更任何的功能後進行檢查。
您也應該在協商(計畫性)切換或切換作業之前進行檢查。
如果在MetroCluster 兩個叢集上的短時間內發出兩次「支援驗證執行」命令、可能會發生衝突、而且命令可能無法收集所有資料。後續的「MetroCluster 示例檢查show」命令不會顯示預期的輸出。
-
檢查組態:
《不一樣的跑程》MetroCluster
命令會以背景工作的形式執行、而且可能不會立即完成。
cluster_A::> metrocluster check run The operation has been started and is running in the background. Wait for it to complete and run "metrocluster check show" to view the results. To check the status of the running metrocluster check operation, use the command, "metrocluster operation history show -job-id 2245"
cluster_A::> metrocluster check show Component Result ------------------- --------- nodes ok lifs ok config-replication ok aggregates ok clusters ok connections ok volumes ok 7 entries were displayed.
-
顯示最新MetroCluster 的執行版本資訊功能指令所產生的更詳細結果:
《不看集合體表演》MetroCluster
「觀看叢集節目」MetroCluster
《不執行組態複寫的展示》MetroCluster
《不看利夫秀》MetroCluster
「不需要節點顯示」MetroCluster
「示例檢查show」命令顯示最近執行的「示例檢查run」命令的結果。MetroCluster MetroCluster在MetroCluster 使用「MetroCluster show」命令之前、請務必先執行「支援檢查執行」命令、以便顯示最新的資訊。 以下範例顯示MetroCluster 「用作『用作檢查集合式show’命令輸出、以確保四節點MetroCluster 的效能正常運作:
cluster_A::> metrocluster check aggregate show Node Aggregate Check Result --------------- -------------------- --------------------- --------- controller_A_1 controller_A_1_aggr0 mirroring-status ok disk-pool-allocation ok ownership-state ok controller_A_1_aggr1 mirroring-status ok disk-pool-allocation ok ownership-state ok controller_A_1_aggr2 mirroring-status ok disk-pool-allocation ok ownership-state ok controller_A_2 controller_A_2_aggr0 mirroring-status ok disk-pool-allocation ok ownership-state ok controller_A_2_aggr1 mirroring-status ok disk-pool-allocation ok ownership-state ok controller_A_2_aggr2 mirroring-status ok disk-pool-allocation ok ownership-state ok 18 entries were displayed.
以下範例顯示MetroCluster 效能良好的四節點MetroCluster 功能組態的畫面檢查叢集show命令輸出。這表示叢集已準備好在必要時執行協調式切換。
Cluster Check Result --------------------- ------------------------------- --------- mccint-fas9000-0102 negotiated-switchover-ready not-applicable switchback-ready not-applicable job-schedules ok licenses ok periodic-check-enabled ok mccint-fas9000-0304 negotiated-switchover-ready not-applicable switchback-ready not-applicable job-schedules ok licenses ok periodic-check-enabled ok 10 entries were displayed.
正在完成ONTAP 功能組態設定
設定、啟用及檢查MetroCluster 完整套組態後、您可以視ONTAP 需要新增額外的SVM、網路介面及其他功能、以繼續完成叢集組態。