Skip to main content
ONTAP MetroCluster
本繁體中文版使用機器翻譯,譯文僅供參考,若與英文版本牴觸,應以英文版本為準。

在MetroCluster 不提供的情況下設定功能ONTAP

貢獻者

您必須在MetroCluster 不完整的功能組態中設定每個節點ONTAP 、包括節點層級組態、以及將節點組態設定為兩個站台。您也必須在MetroCluster 這兩個站台之間實作「不二」關係。對於使用原生磁碟櫃的系統、其步驟與使用陣列LUN的系統略有不同。

工作流程高層節點和叢集組態軟體

收集必要資訊

開始組態程序之前、您必須先收集控制器模組所需的IP位址。

站台A的IP網路資訊工作表

在設定系統之前、您必須MetroCluster 先向網路管理員取得第一個站台(站台A)的IP位址和其他網路資訊。

站台A交換器資訊(交換式叢集)

連接系統纜線時、您需要每個叢集交換器的主機名稱和管理IP位址。如果您使用的是雙節點無交換式叢集、或是使用雙節點MetroCluster 的版本(每個站台一個節點)、則不需要這些資訊。

叢集交換器

主機名稱

IP 位址

網路遮罩

預設閘道

互連1.

互連2.

管理1.

管理2.

站台叢集建立資訊

第一次建立叢集時、您需要下列資訊:

資訊類型

您的價值

叢集名稱

本指南中使用的範例:se_a

DNS網域

DNS名稱伺服器

位置

系統管理員密碼

站台A節點資訊

對於叢集中的每個節點、您都需要管理IP位址、網路遮罩和預設閘道。

節點

連接埠

IP 位址

網路遮罩

預設閘道

節點1

本指南中使用的範例:Controller(控制器)a_1

節點2

如果使用雙節點MetroCluster 的E不到 位組態(每個站台一個節點)、則不需要。

本指南中使用的範例:控制器_a_2

網站A lifs和連接埠、以供叢集對等處理

對於叢集中的每個節點、您需要兩個叢集間生命體的IP位址、包括網路遮罩和預設閘道。叢集間生命體用於對等叢集。

節點

連接埠

叢集間LIF的IP位址

網路遮罩

預設閘道

節點1 IC LIF 1

節點1 IC LIF 2

節點2 IC LIF 1

不需要雙節點MetroCluster 的E樣 組態(每個站台一個節點)。

節點2 IC LIF 2

不需要雙節點MetroCluster 的E樣 組態(每個站台一個節點)。

站台A時間伺服器資訊

您必須同步時間、這需要一或多個NTP時間伺服器。

節點

主機名稱

IP 位址

網路遮罩

預設閘道

NTP伺服器1.

NTP伺服器2.

網站A nbsp;AutoSupport 資訊

您必須在AutoSupport 每個節點上設定、這需要下列資訊:

資訊類型

您的價值

寄件者電子郵件地址

郵件主機

IP位址或名稱

傳輸傳輸傳輸協定

HTTP、HTTPS或SMTP

Proxy伺服器

收件者電子郵件地址或通訊群組清單

完整長度的訊息

簡潔的訊息

站台A nbsp;SP資訊

您必須啟用每個節點的服務處理器(SP)、才能進行疑難排解和維護、這需要每個節點的下列網路資訊:

節點

IP 位址

網路遮罩

預設閘道

節點1

節點2

不需要雙節點MetroCluster 的E樣 組態(每個站台一個節點)。

站台B的IP網路資訊工作表

在設定系統之前、您必須MetroCluster 先向網路管理員取得第二個站台(站台B)的IP位址和其他網路資訊。

站台B交換器資訊(交換式叢集)

連接系統纜線時、您需要每個叢集交換器的主機名稱和管理IP位址。如果您使用的是雙節點無交換式叢集、或是使用雙節點MetroCluster 的版本(每個站台一個節點)、則不需要這些資訊。

叢集交換器

主機名稱

IP 位址

網路遮罩

預設閘道

互連1.

互連2.

管理1.

管理2.

站台B叢集建立資訊

第一次建立叢集時、您需要下列資訊:

資訊類型

您的價值

叢集名稱

本指南中使用的範例:sente_B

DNS網域

DNS名稱伺服器

位置

系統管理員密碼

站台B節點資訊

對於叢集中的每個節點、您都需要管理IP位址、網路遮罩和預設閘道。

節點

連接埠

IP 位址

網路遮罩

預設閘道

節點1

本指南中使用的範例:Controller(控制器)B_1

節點2

不需要雙節點MetroCluster 的E樣 組態(每個站台一個節點)。

本指南中使用的範例:Controller(控制器)B_2

用於叢集對等的站台B生命與連接埠

對於叢集中的每個節點、您需要兩個叢集間生命體的IP位址、包括網路遮罩和預設閘道。叢集間生命體用於對等叢集。

節點

連接埠

叢集間LIF的IP位址

網路遮罩

預設閘道

節點1 IC LIF 1

節點1 IC LIF 2

節點2 IC LIF 1

不需要雙節點MetroCluster 的E樣 組態(每個站台一個節點)。

節點2 IC LIF 2

不需要雙節點MetroCluster 的E樣 組態(每個站台一個節點)。

站台B時間伺服器資訊

您必須同步時間、這需要一或多個NTP時間伺服器。

節點

主機名稱

IP 位址

網路遮罩

預設閘道

NTP伺服器1.

NTP伺服器2.

站台B;AutoSupport資訊

您必須在AutoSupport 每個節點上設定、這需要下列資訊:

資訊類型

您的價值

寄件者電子郵件地址

郵件主機

IP位址或名稱

傳輸傳輸傳輸協定

HTTP、HTTPS或SMTP

Proxy伺服器

收件者電子郵件地址或通訊群組清單

完整長度的訊息

簡潔的訊息

合作夥伴

站台B nbsp;SP資訊

您必須啟用每個節點的服務處理器(SP)、才能進行疑難排解和維護、這需要每個節點的下列網路資訊:

節點

IP 位址

網路遮罩

預設閘道

節點1(控制器_B_1)

節點2(控制器_B_2)

不需要雙節點MetroCluster 的E樣 組態(每個站台一個節點)。

標準叢集MetroCluster 組態與不完整組態之間的相似性與差異

在一個E叢 集組態中、每個叢集的節點組態MetroCluster 與標準叢集中的節點組態類似。

此功能是以兩個標準叢集為基礎所打造。MetroCluster實體而言、組態必須對稱、每個節點都有相同的硬體組態、MetroCluster 而且所有的元件都必須以纜線連接並設定。不過MetroCluster 、在一個Sfor E組態中、節點的基本軟體組態與在標準叢集中的節點組態相同。

組態步驟

標準叢集組態

組態MetroCluster

在每個節點上設定管理、叢集和資料生命量。

這兩種叢集類型都相同

設定根Aggregate。

這兩種叢集類型都相同

將叢集中的節點設定為HA配對

這兩種叢集類型都相同

在叢集中的一個節點上設定叢集。

這兩種叢集類型都相同

將另一個節點加入叢集。

這兩種叢集類型都相同

建立鏡射根Aggregate。

選用

必要

對等建立叢集。

選用

必要

啟用MetroCluster 此功能組態。

不適用

必要

在維護模式中驗證及設定元件的HA狀態

在 MetroCluster FC 組態中設定儲存系統時、您必須確定控制器模組和機箱元件的高可用度( HA )狀態為 MCC 或 MCC-2n 、以便這些元件能正常開機。雖然此值應預先設定在從原廠收到的系統上、但仍應在繼續之前確認設定。

警告

如果控制器模組和機箱的 HA 狀態不正確、則必須重新初始化節點、才能設定 MetroCluster 。您必須使用此程序修正設定、然後使用下列其中一個程序來初始化系統:

開始之前

確認系統處於維護模式。

步驟
  1. 在維護模式中、顯示控制器模組和機箱的HA狀態:

    《ha-config show》

    HA狀態是否正確取決MetroCluster 於您的使用情況組態。

    MetroCluster 組態類型

    所有元件的 HA 狀態 …​

    八個或四個節點 MetroCluster FC 組態

    MCC

    雙節點MetroCluster 的不含功能的FC組態

    MCC-2n

    八或四個節點 MetroCluster IP 組態

    Mccip

  2. 如果控制器的顯示系統狀態不正確、請針對控制器模組上的組態設定正確的 HA 狀態:

    MetroCluster 組態類型

    命令

    八個或四個節點 MetroCluster FC 組態

    「ha-config modify控制器MCC」

    雙節點MetroCluster 的不含功能的FC組態

    「ha-config modify控制器MCC-2n」

    八或四個節點 MetroCluster IP 組態

    「ha-config modify控制器mccip」

  3. 如果機箱的顯示系統狀態不正確、請針對機箱上的組態設定正確的 HA 狀態:

    MetroCluster 組態類型

    命令

    八個或四個節點 MetroCluster FC 組態

    「ha-config modify機箱MCC」

    雙節點MetroCluster 的不含功能的FC組態

    「ha-config modify機箱MCC-2n」

    八或四個節點 MetroCluster IP 組態

    「ha-config modify機箱mccip」

  4. 將節點開機ONTAP 至以下項目:

    Boot_ONTAP

  5. 重複此整個程序、以驗證 MetroCluster 組態中每個節點的 HA 狀態。

還原系統預設值、並在控制器模組上設定HBA類型

關於這項工作

為了確保MetroCluster 成功安裝、請重設並還原控制器模組的預設值。

重要事項

此工作僅適用於使用FC至SAS橋接器的延伸組態。

步驟
  1. 在載入程式提示字元中、將環境變數恢復為預設設定:

    「預設值」

  2. 將節點開機至維護模式、然後設定系統中任何HBA的設定:

    1. 開機進入維護模式:

      Boot_ONTAP maint

    2. 檢查連接埠的目前設定:

      「ucadmin show」

    3. 視需要更新連接埠設定。

    如果您有此類型的HBA和所需模式…​

    使用此命令…​

    CNA FC

    「ucadmin modify -m sfc-t啟動器_adapter_name_」

    CNA乙太網路

    「ucadmin modify -mode cna adapter_name

    FC目標

    「fcadmin config -t target adapter_name

    FC啟動器

    「fcadmin config -t啟動器_adapter_name_」

  3. 結束維護模式:

    《停止》

    執行命令之後、請等到節點停止在載入程式提示字元。

  4. 將節點開機回「維護」模式、使組態變更生效:

    Boot_ONTAP maint

  5. 驗證您所做的變更:

    如果您有這種HBA類型…​

    使用此命令…​

    CNA

    「ucadmin show」

    FC

    「fcadmin show」

  6. 結束維護模式:

    《停止》

    執行命令之後、請等到節點停止在載入程式提示字元。

  7. 將節點開機至開機功能表:

    Boot_ONTAP功能表

    執行命令後、請等待開機功能表顯示。

  8. 請在開機功能表提示字元中輸入「wecpionfig」、然後按Enter鍵、以清除節點組態。

    下列畫面顯示開機功能表提示:

Please choose one of the following:

     (1) Normal Boot.
     (2) Boot without /etc/rc.
     (3) Change password.
     (4) Clean configuration and initialize all disks.
     (5) Maintenance mode boot.
     (6) Update flash from backup config.
     (7) Install new software first.
     (8) Reboot node.
     (9) Configure Advanced Drive Partitioning.
     Selection (1-9)?  wipeconfig
 This option deletes critical system configuration, including cluster membership.
 Warning: do not run this option on a HA node that has been taken over.
 Are you sure you want to continue?: yes
 Rebooting to finish wipeconfig request.

在FAS8020系統上的X1132A-R6四埠卡上設定FC-VI連接埠

如果您在FAS8020系統上使用X1132A-R6四埠卡、您可以進入維護模式、設定用於FC-VI和啟動器的1a和1b連接埠。從原廠收到的不需要此功能MetroCluster 、因為系統會根據您的組態設定適當的連接埠。

關於這項工作

此工作必須在維護模式下執行。

註 使用ucadmin命令將FC連接埠轉換為FC-VI連接埠、僅在FAS8020和AFF 32位系統上受支援。任何其他平台均不支援將FC連接埠轉換為FCVI連接埠。
步驟
  1. 停用連接埠:

    「停用介面卡1a」

    「停用介面卡1b」

    *> storage disable adapter 1a
    Jun 03 02:17:57 [controller_B_1:fci.adapter.offlining:info]: Offlining Fibre Channel adapter 1a.
    Host adapter 1a disable succeeded
    Jun 03 02:17:57 [controller_B_1:fci.adapter.offline:info]: Fibre Channel adapter 1a is now offline.
    *> storage disable adapter 1b
    Jun 03 02:18:43 [controller_B_1:fci.adapter.offlining:info]: Offlining Fibre Channel adapter 1b.
    Host adapter 1b disable succeeded
    Jun 03 02:18:43 [controller_B_1:fci.adapter.offline:info]: Fibre Channel adapter 1b is now offline.
    *>
  2. 確認連接埠已停用:

    「ucadmin show」

    *> ucadmin show
             Current  Current    Pending  Pending    Admin
    Adapter  Mode     Type       Mode     Type       Status
    -------  -------  ---------  -------  ---------  -------
      ...
      1a     fc       initiator  -        -          offline
      1b     fc       initiator  -        -          offline
      1c     fc       initiator  -        -          online
      1d     fc       initiator  -        -          online
  3. 將A和b連接埠設定為FC-VI模式:

    「ucadmin modify -Adapter 1a -type fcvi」

    命令會在連接埠配對中的兩個連接埠上設定模式、1a和1b(即使命令中只指定了1a)。

    *> ucadmin modify -t fcvi 1a
    Jun 03 02:19:13 [controller_B_1:ucm.type.changed:info]: FC-4 type has changed to fcvi on adapter 1a. Reboot the controller for the changes to take effect.
    Jun 03 02:19:13 [controller_B_1:ucm.type.changed:info]: FC-4 type has changed to fcvi on adapter 1b. Reboot the controller for the changes to take effect.
  4. 確認變更為擱置中:

    「ucadmin show」

    *> ucadmin show
             Current  Current    Pending  Pending    Admin
    Adapter  Mode     Type       Mode     Type       Status
    -------  -------  ---------  -------  ---------  -------
      ...
      1a     fc       initiator  -        fcvi       offline
      1b     fc       initiator  -        fcvi       offline
      1c     fc       initiator  -        -          online
      1d     fc       initiator  -        -          online
  5. 關閉控制器、然後重新開機進入維護模式。

  6. 確認組態變更:

    「ucadmin show local」

    Node           Adapter  Mode     Type       Mode     Type       Status
    ------------   -------  -------  ---------  -------  ---------  -----------
    ...
    controller_B_1
                   1a       fc       fcvi       -        -          online
    controller_B_1
                   1b       fc       fcvi       -        -          online
    controller_B_1
                   1c       fc       initiator  -        -          online
    controller_B_1
                   1d       fc       initiator  -        -          online
    6 entries were displayed.

在八節點或四節點組態的維護模式下驗證磁碟指派

在將系統完全開機至ONTAP 顯示器之前、您可以選擇性地開機至維護模式、並驗證節點上的磁碟指派。應指派磁碟來建立完全對稱的雙主動式組態、其中每個集區都有相同數量的磁碟指派給它們。

關於這項工作

全新MetroCluster 的功能系統在出貨前已完成磁碟指派。

下表顯示MetroCluster 適用於整個程序集區組態的範例集區指派。磁碟會根據每個機櫃的需求指派給資源池。

*站點A*上的磁碟櫃

磁碟櫃(same_bid_name)…​

屬於…​

並指派給該節點的…​

磁碟櫃1(機櫃_a_1_1)

節點A 1.

集區0

磁碟櫃2(機櫃_a_1_3)

磁碟櫃3(機櫃_B_1_1)

節點B 1.

資源池1

磁碟櫃4(機櫃_B_1_3)

磁碟櫃5(機櫃_a_2_1)

節點A 2.

集區0

磁碟櫃6(機櫃_a_2_3)

磁碟櫃7(機櫃_B_2_1)

節點B 2.

資源池1

磁碟櫃8(機櫃_B_2_3)

磁碟櫃1(機櫃_a_3_1)

節點A 3.

集區0

磁碟櫃2(機櫃_a_3_3)

磁碟櫃3(機櫃_B_3_1)

節點B 3.

資源池1

磁碟櫃4(機櫃_B_3_3)

磁碟櫃5(機櫃_a_4_1)

節點A 4.

集區0

磁碟櫃6(機櫃_a_4_3)

磁碟櫃7(機櫃_B_4_1)

節點B 4.

資源池1

磁碟櫃8(機櫃_B_4_3)

站點B的磁碟櫃

磁碟櫃(same_bid_name)…​

屬於…​

並指派給該節點的…​

磁碟櫃9(機櫃_B_1_2)

節點B 1.

集區0

磁碟櫃10(機櫃_B_1_4)

磁碟櫃11(機櫃_a_1_2)

節點A 1.

資源池1

磁碟櫃12(機櫃_a_1_4)

磁碟櫃13(機櫃_B_2_2)

節點B 2.

集區0

磁碟櫃14(機櫃_B_2_4)

磁碟櫃15(機櫃_a_2_2)

節點A 2.

資源池1

磁碟櫃16(機櫃_a_2_4)

磁碟櫃1(機櫃_B_3_2)

節點A 3.

集區0

磁碟櫃2(機櫃_B_3_4)

磁碟櫃3(機櫃_a_3_2)

節點B 3.

資源池1

磁碟櫃4(機櫃_a_3_4)

磁碟櫃5(機櫃_B_4_2)

節點A 4.

集區0

磁碟櫃6(機櫃_B_4_4)

磁碟櫃7(機櫃_a_4_2)

節點B 4.

步驟
  1. 確認機櫃指派:

    「展示–v」

  2. 如有必要、請將附加磁碟櫃上的磁碟明確指派給適當的資源池:

    '磁碟指派'

    您可以在命令中使用萬用字元、以單一命令指派磁碟櫃上的所有磁碟。您可以使用「shorage show disk -x」命令來識別每個磁碟的磁碟櫃ID和磁碟櫃。

在非AFF系統中指派磁碟擁有權

如果MetroCluster 無法正確指派磁碟、或是您在組態中使用DS460C磁碟櫃、則必須將磁碟指派給MetroCluster 每個以磁碟櫃為基礎的「以Shel-by Shelves組態」中的節點。您將建立一個組態、讓每個節點在其本機和遠端磁碟集區中擁有相同數量的磁碟。

開始之前

儲存控制器必須處於維護模式。

關於這項工作

如果您的組態不包含DS460C磁碟櫃、則如果從原廠收到磁碟時已正確指派磁碟、則不需要執行此工作。

註

Pool 0始終包含與擁有這些磁碟的儲存系統位於同一個站台的磁碟。

集區1一律包含遠端磁碟、以供擁有這些磁碟的儲存系統使用。

如果您的組態包含DS460C磁碟櫃、則應針對每個12個磁碟櫃手動指派磁碟:

在藥櫃中指派這些磁碟…​

至此節點和集區…​

0 - 2

本機節點的集區0

3 - 5

HA合作夥伴節點的資源池0

6 - 8

本機節點集區1的DR合作夥伴

9 - 11

HA合作夥伴Pool 1的DR合作夥伴

此磁碟指派模式可確保在藥櫃離線時、集合體受到的影響最小。

步驟
  1. 如果您尚未啟動、請將每個系統開機至維護模式。

  2. 將磁碟櫃指派給位於第一個站台(站台A)的節點:

    與節點位於同一站台的磁碟機櫃會指派給資源池0、而位於合作夥伴站台的磁碟機櫃則指派給資源池1。

    您應該為每個資源池指派相同數量的磁碟櫃。

    1. 在第一個節點上、系統地將本機磁碟櫃指派給資源池0、並將遠端磁碟櫃指派給資源池1:

      「磁碟指派-機櫃_本機-交換器名稱:機櫃名稱.port_-p _pool」

      如果儲存控制器Controller_a_1有四個磁碟櫃、您可以發出下列命令:

      *> disk assign -shelf FC_switch_A_1:1-4.shelf1 -p 0
      *> disk assign -shelf FC_switch_A_1:1-4.shelf2 -p 0
      
      *> disk assign -shelf FC_switch_B_1:1-4.shelf1 -p 1
      *> disk assign -shelf FC_switch_B_1:1-4.shelf2 -p 1
    2. 針對本機站台的第二個節點重複此程序、系統地將本機磁碟櫃指派給集區0、並將遠端磁碟櫃指派給集區1:

      「磁碟指派-機櫃_本機-交換器名稱:機櫃名稱.port_-p _pool」

      如果儲存控制器Controller_a_2有四個磁碟櫃、您可以發出下列命令:

    *> disk assign -shelf FC_switch_A_1:1-4.shelf3 -p 0
    *> disk assign -shelf FC_switch_B_1:1-4.shelf4 -p 1
    
    *> disk assign -shelf FC_switch_A_1:1-4.shelf3 -p 0
    *> disk assign -shelf FC_switch_B_1:1-4.shelf4 -p 1
  3. 將磁碟櫃指派給位於第二站台(站台B)的節點:

    與節點位於同一站台的磁碟機櫃會指派給資源池0、而位於合作夥伴站台的磁碟機櫃則指派給資源池1。

    您應該為每個資源池指派相同數量的磁碟櫃。

    1. 在遠端站台的第一個節點上、系統地將其本機磁碟櫃指派給集區0及其遠端磁碟櫃至集區1:

      「磁碟指派-機櫃_local-switch-nameshelf-name_-p _pool」

      如果儲存控制器Controller_B_1有四個磁碟櫃、您可以發出下列命令:

      *> disk assign -shelf FC_switch_B_1:1-5.shelf1 -p 0
      *> disk assign -shelf FC_switch_B_1:1-5.shelf2 -p 0
      
      *> disk assign -shelf FC_switch_A_1:1-5.shelf1 -p 1
      *> disk assign -shelf FC_switch_A_1:1-5.shelf2 -p 1
    2. 針對遠端站台的第二個節點重複此程序、系統地將本機磁碟櫃指派給集區0、並將遠端磁碟櫃指派給集區1:

      「磁碟指派-機櫃_機櫃名稱_-p _pool _」

      如果儲存控制器Controller_B_2有四個磁碟櫃、您可以發出下列命令:

    *> disk assign -shelf FC_switch_B_1:1-5.shelf3 -p 0
    *> disk assign -shelf FC_switch_B_1:1-5.shelf4 -p 0
    
    *> disk assign -shelf FC_switch_A_1:1-5.shelf3 -p 1
    *> disk assign -shelf FC_switch_A_1:1-5.shelf4 -p 1
  4. 確認機櫃指派:

    「展示櫃」

  5. 結束維護模式:

    《停止》

  6. 顯示開機功能表:

    Boot_ONTAP功能表

  7. 在每個節點上、選取選項* 4*以初始化所有磁碟。

指派AFF 對系統的磁碟擁有權

如果AFF 您在組態中使用鏡射Aggregate、但節點未正確指派磁碟(SSD)、則應將每個機櫃上的一半磁碟指派給一個本機節點、另一半磁碟指派給HA合作夥伴節點。您應該建立一個組態、讓每個節點在其本機和遠端磁碟集區中擁有相同數量的磁碟。

開始之前

儲存控制器必須處於維護模式。

關於這項工作

這不適用於具有無鏡射集合體、主動/被動組態、或在本機和遠端集區中磁碟數目不相等的組態。

如果從原廠收到磁碟時已正確指派磁碟、則不需要執行此工作。

註

Pool 0始終包含與擁有這些磁碟的儲存系統位於同一個站台的磁碟。

集區1一律包含遠端磁碟、以供擁有這些磁碟的儲存系統使用。

步驟
  1. 如果您尚未啟動、請將每個系統開機至維護模式。

  2. 將磁碟指派給位於第一個站台(站台A)的節點:

    您應該為每個集區指派相同數量的磁碟。

    1. 在第一個節點上、系統地將每個機櫃上的一半磁碟指派給資源池0、另一半指派給HA合作夥伴的資源池0:

      disk assign -shelf <shelf-name> -p <pool> -n <number-of-disks>

      如果儲存控制器Controller_a_1有四個磁碟櫃、每個磁碟櫃各有8個SSD、您會發出下列命令:

      *> disk assign -shelf FC_switch_A_1:1-4.shelf1 -p 0 -n 4
      *> disk assign -shelf FC_switch_A_1:1-4.shelf2 -p 0 -n 4
      
      *> disk assign -shelf FC_switch_B_1:1-4.shelf1 -p 1 -n 4
      *> disk assign -shelf FC_switch_B_1:1-4.shelf2 -p 1 -n 4
    2. 針對本機站台的第二個節點重複此程序、系統地將每個機櫃上的一半磁碟指派給資源池1、另一半指派給HA合作夥伴的資源池1:

      "Disk assign -disk disk-name -p pool(磁碟指派磁碟名稱-p Pool)"

      如果儲存控制器Controller_a_1有四個磁碟櫃、每個磁碟櫃各有8個SSD、您會發出下列命令:

    *> disk assign -shelf FC_switch_A_1:1-4.shelf3 -p 0 -n 4
    *> disk assign -shelf FC_switch_B_1:1-4.shelf4 -p 1 -n 4
    
    *> disk assign -shelf FC_switch_A_1:1-4.shelf3 -p 0 -n 4
    *> disk assign -shelf FC_switch_B_1:1-4.shelf4 -p 1 -n 4
  3. 將磁碟指派給位於第二站台(站台B)的節點:

    您應該為每個集區指派相同數量的磁碟。

    1. 在遠端站台的第一個節點上、系統地將每個機櫃上的一半磁碟指派給Pool 0、另一半指派給HA合作夥伴的Pool 0:

      「磁碟指派-disk disk-name-p _pool」

      如果儲存控制器Controller_B_1有四個磁碟櫃、每個磁碟櫃有8個SSD、您會發出下列命令:

      *> disk assign -shelf FC_switch_B_1:1-5.shelf1 -p 0 -n 4
      *> disk assign -shelf FC_switch_B_1:1-5.shelf2 -p 0 -n 4
      
      *> disk assign -shelf FC_switch_A_1:1-5.shelf1 -p 1 -n 4
      *> disk assign -shelf FC_switch_A_1:1-5.shelf2 -p 1 -n 4
    2. 針對遠端站台的第二個節點重複此程序、系統地將每個機櫃上的一半磁碟指派給資源池1、另一半指派給HA合作夥伴的資源池1:

      「磁碟指派-disk disk-name-p _pool」

      如果儲存控制器Controller_B_2有四個磁碟櫃、每個磁碟櫃有8個SSD、您會發出下列命令:

    *> disk assign -shelf FC_switch_B_1:1-5.shelf3 -p 0 -n 4
    *> disk assign -shelf FC_switch_B_1:1-5.shelf4 -p 0 -n 4
    
    *> disk assign -shelf FC_switch_A_1:1-5.shelf3 -p 1 -n 4
    *> disk assign -shelf FC_switch_A_1:1-5.shelf4 -p 1 -n 4
  4. 確認磁碟指派:

    「torage show disk」

  5. 結束維護模式:

    《停止》

  6. 顯示開機功能表:

    Boot_ONTAP功能表

  7. 在每個節點上、選取選項* 4*以初始化所有磁碟。

在兩節點組態的維護模式中驗證磁碟指派

在將系統完全開機至ONTAP 顯示器之前、您可以選擇性地將系統開機至維護模式、並驗證節點上的磁碟指派。應指派磁碟來建立完全對稱的組態、讓兩個站台擁有自己的磁碟櫃並提供資料、其中每個節點和每個集區都有相同數量的鏡射磁碟指派給它們。

開始之前

系統必須處於維護模式。

關於這項工作

全新MetroCluster 的功能系統在出貨前已完成磁碟指派。

下表顯示MetroCluster 適用於整個程序集區組態的範例集區指派。磁碟會根據每個機櫃的需求指派給資源池。

磁碟櫃(範例名稱)…​

現場…​

屬於…​

並指派給該節點的…​

磁碟櫃1(機櫃_a_1_1)

站台A

節點A 1.

集區0

磁碟櫃2(機櫃_a_1_3)

磁碟櫃3(機櫃_B_1_1)

節點B 1.

資源池1

磁碟櫃4(機櫃_B_1_3)

磁碟櫃9(機櫃_B_1_2)

站台B

節點B 1.

集區0

磁碟櫃10(機櫃_B_1_4)

磁碟櫃11(機櫃_a_1_2)

節點A 1.

資源池1

磁碟櫃12(機櫃_a_1_4)

如果您的組態包含DS460C磁碟櫃、則應針對每個12個磁碟櫃手動指派磁碟:

在藥櫃中指派這些磁碟…​

至此節點和集區…​

1 - 6

本機節點的集區0

7-12.

DR合作夥伴的資源池1

此磁碟指派模式可在藥櫃離線時、將對集合體的影響降至最低。

步驟
  1. 如果您的系統是從原廠收到、請確認機櫃指派:

    「展示–v」

  2. 如有必要、您可以使用disk assign命令、將附加磁碟櫃上的磁碟明確指派給適當的資源池。

    與節點位於同一站台的磁碟機櫃會指派給資源池0、而位於合作夥伴站台的磁碟機櫃則指派給資源池1。您應該為每個資源池指派相同數量的磁碟櫃。

    1. 如果您尚未啟動、請將每個系統開機至維護模式。

    2. 在站台A的節點上、系統地將本機磁碟櫃指派給集區0、並將遠端磁碟櫃指派給集區1:

      '磁碟指派-機櫃_disk_bid_name_-p _pool _'

      如果儲存控制器node_a_1有四個磁碟櫃、您可以發出下列命令:

      *> disk assign -shelf shelf_A_1_1 -p 0
      *> disk assign -shelf shelf_A_1_3 -p 0
      
      *> disk assign -shelf shelf_A_1_2 -p 1
      *> disk assign -shelf shelf_A_1_4 -p 1
    3. 在遠端站台(站台B)的節點上、系統地將本機磁碟櫃指派給集區0、並將遠端磁碟櫃指派給集區1:

      '磁碟指派-機櫃_disk_bid_name_-p _pool _'

      如果儲存控制器node_B_1有四個磁碟櫃、您可以發出下列命令:

    *> disk assign -shelf shelf_B_1_2   -p 0
    *> disk assign -shelf shelf_B_1_4  -p 0
    
    *> disk assign -shelf shelf_B_1_1 -p 1
     *> disk assign -shelf shelf_B_1_3 -p 1
    1. 顯示每個磁碟的磁碟櫃ID和磁碟櫃:

      「展示–v」

設定ONTAP 功能

您必須在ONTAP 每個控制器模組上設定此功能。

如果您需要以網路方式開機新的控制器、請參閱 "Netbooting新的控制器模組" 請參閱《_ MetroCluster 升級、轉換與擴充指南》_。

在ONTAP 雙節點MetroCluster 的不全功能組態中設定功能

在雙節點MetroCluster 的靜態組態中、您必須在每個叢集上開機節點、結束叢集設定精靈、然後使用叢集設定命令將節點設定為單節點叢集。

開始之前

您不得設定服務處理器。

關於這項工作

此工作適用於MetroCluster 使用原生NetApp儲存設備的雙節點效能不整組態。

這項工作必須在MetroCluster 整個叢集上執行、且必須採用支援功能的組態。

如需設定 ONTAP 的一般資訊、請參閱 "設定ONTAP 功能"

步驟
  1. 開啟第一個節點的電源。

    註 您必須在災難恢復(DR)站台的節點上重複此步驟。

    節點會開機、然後從主控台啟動「叢集設定精靈」、通知您AutoSupport 將會自動啟用。

    ::> Welcome to the cluster setup wizard.
    
    You can enter the following commands at any time:
      "help" or "?" - if you want to have a question clarified,
      "back" - if you want to change previously answered questions, and
      "exit" or "quit" - if you want to quit the cluster setup wizard.
         Any changes you made before quitting will be saved.
    
    You can return to cluster setup at any time by typing "cluster setup".
    To accept a default or omit a question, do not enter a value.
    
    This system will send event messages and periodic reports to NetApp Technical
    Support. To disable this feature, enter
    autosupport modify -support disable
    within 24 hours.
    
    Enabling AutoSupport can significantly speed problem determination and
    resolution, should a problem occur on your system.
    For further information on AutoSupport, see:
    http://support.netapp.com/autosupport/
    
    Type yes to confirm and continue {yes}: yes
    
    Enter the node management interface port [e0M]:
    Enter the node management interface IP address [10.101.01.01]:
    
    Enter the node management interface netmask [101.010.101.0]:
    Enter the node management interface default gateway [10.101.01.0]:
    
    
    
    Do you want to create a new cluster or join an existing cluster? {create, join}:
  2. 建立新叢集:

    《創造》

  3. 選擇是否要將節點用作單一節點叢集。

    Do you intend for this node to be used as a single node cluster? {yes, no} [yes]:
  4. 按Enter鍵接受系統預設的「yes(是)」、或輸入您自己的值、然後按Enter鍵。

  5. 按照提示完成*叢集設定*精靈、按Enter接受預設值、或輸入您自己的值、然後按Enter。

    預設值會根據您的平台和網路組態自動決定。

  6. 完成「叢集設定」精靈並結束之後、請確認叢集處於作用中狀態、第一個節點正常:

    「叢集展示」

    以下範例顯示第一個節點(cluster1-01)健全且符合參與資格的叢集:

    cluster1::> cluster show
    Node                  Health  Eligibility
    --------------------- ------- ------------
    cluster1-01           true    true

    如果需要變更您為管理SVM或節點SVM輸入的任何設定、您可以使用叢集設定命令來存取叢集設定精靈。

在ONTAP 八節點或四節點MetroCluster 的不全功能組態中設定功能

每個節點開機後、系統會提示您執行系統設定工具、以執行基本節點和叢集組態。設定叢集後、您將返回ONTAP 到還原CLI以建立集合體並建立MetroCluster 該組態。

開始之前

您必須使用纜線連接MetroCluster 的the不可用的功能組態。

關於這項工作

此工作適用於MetroCluster 使用原生NetApp儲存設備的八節點或四節點的效能不穩定組態。

全新MetroCluster 的功能已預先設定好、您不需要執行這些步驟。不過、您應該設定AutoSupport 這個功能。

這項工作必須在MetroCluster 整個叢集上執行、且必須採用支援功能的組態。

此程序使用系統設定工具。如果需要、您可以改用CLI叢集設定精靈。

步驟
  1. 如果您尚未啟動、請開啟每個節點的電源、讓它們完全開機。

    如果系統處於維護模式、請發出halt命令以結束維護模式、然後從載入器提示字元發出下列命令:

    Boot_ONTAP

    輸出應類似於下列內容:

    Welcome to node setup
    
    You can enter the following commands at any time:
      "help" or "?" - if you want to have a question clarified,
      "back" - if you want to change previously answered questions, and
      "exit" or "quit" - if you want to quit the setup wizard.
    				Any changes you made before quitting will be saved.
    
    To accept a default or omit a question, do not enter a value.
    .
    .
    .
  2. 請依照系統提供的指示啟用AutoSupport 「支援功能」工具。

  3. 回應設定節點管理介面的提示。

    這些提示類似於下列內容:

    Enter the node management interface port: [e0M]:
    Enter the node management interface IP address: 10.228.160.229
    Enter the node management interface netmask: 225.225.252.0
    Enter the node management interface default gateway: 10.228.160.1
  4. 確認節點已設定為高可用度模式:

    「儲存容錯移轉顯示欄位模式」

    如果不是、您必須在每個節點上發出下列命令、然後重新啟動節點:

    "torage容錯移轉修改-mode ha -nodNode localhost"

    此命令會設定高可用度模式、但不會啟用儲存容錯移轉。儲存容錯移轉會在MetroCluster 稍後的組態設定程序中執行時自動啟用。

  5. 確認您有四個連接埠設定為叢集互連:

    「網路連接埠展示」

    以下範例顯示叢集A的輸出:

    cluster_A::> network port show
                                                                 Speed (Mbps)
    Node   Port      IPspace      Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- ------------ ---------------- ----- ------- ------------
    node_A_1
           **e0a       Cluster      Cluster          up       1500  auto/1000
           e0b       Cluster      Cluster          up       1500  auto/1000**
           e0c       Default      Default          up       1500  auto/1000
           e0d       Default      Default          up       1500  auto/1000
           e0e       Default      Default          up       1500  auto/1000
           e0f       Default      Default          up       1500  auto/1000
           e0g       Default      Default          up       1500  auto/1000
    node_A_2
           **e0a       Cluster      Cluster          up       1500  auto/1000
           e0b       Cluster      Cluster          up       1500  auto/1000**
           e0c       Default      Default          up       1500  auto/1000
           e0d       Default      Default          up       1500  auto/1000
           e0e       Default      Default          up       1500  auto/1000
           e0f       Default      Default          up       1500  auto/1000
           e0g       Default      Default          up       1500  auto/1000
    14 entries were displayed.
  6. 如果您要建立雙節點無交換式叢集(不含叢集互連交換器的叢集)、請啟用無交換式叢集網路模式:

    1. 變更為進階權限層級:

      "進階權限"

    當系統提示您繼續進入進階模式時、您可以回應「y」。出現進階模式提示(*>)。

    1. 啟用無交換器叢集模式:

      「網路選項switchless叢集修改啟用true」

    2. 返回管理權限層級:

      「et -priv. admin」

  7. 依照系統主控台在初始開機後顯示的資訊指示啟動系統設定工具。

  8. 使用系統設定工具來設定每個節點並建立叢集、但不要建立集合體。

    註 您可以在後續的工作中建立鏡射集合體。
完成後

返回ONTAP 到指令行介面、MetroCluster 執行後續的工作、完成整套的功能。

將叢集設定成MetroCluster 一個不只是一個的組態

您必須對等處理叢集、鏡射根Aggregate、建立鏡射資料Aggregate、然後發出命令來實作MetroCluster 該等作業系統。

關於這項工作

在您執行之前 metrocluster configure、HA模式和DR鏡像未啟用、您可能會看到與此預期行為相關的錯誤訊息。您稍後執行命令時、會啟用HA模式和DR鏡像 metrocluster configure 以實作組態。

對等連接叢集

在不支援的組態中、叢集MetroCluster 必須處於對等關係中、以便彼此通訊、並執行MetroCluster 對恢復災難至關重要的資料鏡射。

正在設定叢集間LIF

您必須在MetroCluster 連接埠上建立叢集間的LIF、以便在各個連接埠之間進行通訊。您可以使用也有資料流量的專用連接埠或連接埠。

在專用連接埠上設定叢集間LIF

您可以在專用連接埠上設定叢集間的LIF。這樣做通常會增加複寫流量的可用頻寬。

步驟
  1. 列出叢集中的連接埠:

    「網路連接埠展示」

    如需完整的命令語法、請參閱手冊頁。

    以下範例顯示「cluster01」中的網路連接埠:

    cluster01::> network port show
                                                                 Speed (Mbps)
    Node   Port      IPspace      Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- ------------ ---------------- ----- ------- ------------
    cluster01-01
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
           e0e       Default      Default          up     1500   auto/1000
           e0f       Default      Default          up     1500   auto/1000
    cluster01-02
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
           e0e       Default      Default          up     1500   auto/1000
           e0f       Default      Default          up     1500   auto/1000
  2. 判斷哪些連接埠可用於叢集間通訊:

    「網路介面show -field home-port、curr-port」

    如需完整的命令語法、請參閱手冊頁。

    下列範例顯示連接埠「e0e」和「e0f」尚未指派生命區:

    cluster01::> network interface show -fields home-port,curr-port
    vserver lif                  home-port curr-port
    ------- -------------------- --------- ---------
    Cluster cluster01-01_clus1   e0a       e0a
    Cluster cluster01-01_clus2   e0b       e0b
    Cluster cluster01-02_clus1   e0a       e0a
    Cluster cluster01-02_clus2   e0b       e0b
    cluster01
            cluster_mgmt         e0c       e0c
    cluster01
            cluster01-01_mgmt1   e0c       e0c
    cluster01
            cluster01-02_mgmt1   e0c       e0c
  3. 為專用連接埠建立容錯移轉群組:

    「網路介面容錯移轉群組可建立-vserver system_svm-容 錯移轉群組_容 錯移轉群組_-鎖 定_forby_OR_logical_ports _」

    下列範例將連接埠「e0e」和「e0f」指派給系統「SVMcluster01」上的容錯移轉群組Intercluster01:

    cluster01::> network interface failover-groups create -vserver cluster01 -failover-group
    intercluster01 -targets
    cluster01-01:e0e,cluster01-01:e0f,cluster01-02:e0e,cluster01-02:e0f
  4. 確認已建立容錯移轉群組:

    「網路介面容錯移轉群組顯示」

    如需完整的命令語法、請參閱手冊頁。

    cluster01::> network interface failover-groups show
                                      Failover
    Vserver          Group            Targets
    ---------------- ---------------- --------------------------------------------
    Cluster
                     Cluster
                                      cluster01-01:e0a, cluster01-01:e0b,
                                      cluster01-02:e0a, cluster01-02:e0b
    cluster01
                     Default
                                      cluster01-01:e0c, cluster01-01:e0d,
                                      cluster01-02:e0c, cluster01-02:e0d,
                                      cluster01-01:e0e, cluster01-01:e0f
                                      cluster01-02:e0e, cluster01-02:e0f
                     intercluster01
                                      cluster01-01:e0e, cluster01-01:e0f
                                      cluster01-02:e0e, cluster01-02:e0f
  5. 在系統SVM上建立叢集間LIF、並將它們指派給容錯移轉群組。

    更新版本ONTAP

    「網路介面create -vserver system_svm-lif_lif_name_-service-policy default-intercluster -home-node_-home-port port-address port_ip-netask netask-容 錯移轉群組_容 錯移轉_group_」

    不含更新版本ONTAP

    「網路介面create -vserver system_svm-lif_lif_name_-role inter-cluster -home-node_node_-home-port port-address port_ip-netask_-over-group _furobet_group _」

    如需完整的命令語法、請參閱手冊頁。

    下列範例會在容錯移轉群組「intercluster01」中建立叢集間LIF「cluster01_icl01」和「cluster01_icl02」:

    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl01 -service-
    policy default-intercluster -home-node cluster01-01 -home-port e0e -address 192.168.1.201
    -netmask 255.255.255.0 -failover-group intercluster01
    
    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl02 -service-
    policy default-intercluster -home-node cluster01-02 -home-port e0e -address 192.168.1.202
    -netmask 255.255.255.0 -failover-group intercluster01
  6. 驗證是否已建立叢集間的LIF:

    更新版本ONTAP

    執行命令: network interface show -service-policy default-intercluster

    不含更新版本ONTAP

    執行命令: network interface show -role intercluster

    如需完整的命令語法、請參閱手冊頁。

    cluster01::> network interface show -service-policy default-intercluster
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    cluster01
                cluster01_icl01
                           up/up      192.168.1.201/24   cluster01-01  e0e     true
                cluster01_icl02
                           up/up      192.168.1.202/24   cluster01-02  e0f     true
  7. 驗證叢集間的LIF是否為備援:

    更新版本ONTAP

    執行命令: network interface show -service-policy default-intercluster -failover

    不含更新版本ONTAP

    執行命令: network interface show -role intercluster -failover

    如需完整的命令語法、請參閱手冊頁。

    下列範例顯示、SVM「e0e」連接埠上的叢集間LIF「cluster01_icl01」和「cluster01_icl02」將容錯移轉至「e0f」連接埠。

    cluster01::> network interface show -service-policy default-intercluster –failover
             Logical         Home                  Failover        Failover
    Vserver  Interface       Node:Port             Policy          Group
    -------- --------------- --------------------- --------------- --------
    cluster01
             cluster01_icl01 cluster01-01:e0e   local-only      intercluster01
                                Failover Targets:  cluster01-01:e0e,
                                                   cluster01-01:e0f
             cluster01_icl02 cluster01-02:e0e   local-only      intercluster01
                                Failover Targets:  cluster01-02:e0e,
                                                   cluster01-02:e0f

在判斷叢集間複寫是否使用專用連接埠是正確的叢集間網路解決方案時、您應該考量LAN類型、可用的WAN頻寬、複寫時間間隔、變更率及連接埠數量等組態與需求。

在共享的資料連接埠上設定叢集間LIF

您可以在與資料網路共用的連接埠上設定叢集間的LIF。如此可減少叢集間網路所需的連接埠數量。

步驟
  1. 列出叢集中的連接埠:

    「網路連接埠展示」

    如需完整的命令語法、請參閱手冊頁。

    以下範例顯示cluster01中的網路連接埠:

    cluster01::> network port show
                                                                 Speed (Mbps)
    Node   Port      IPspace      Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- ------------ ---------------- ----- ------- ------------
    cluster01-01
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
    cluster01-02
           e0a       Cluster      Cluster          up     1500   auto/1000
           e0b       Cluster      Cluster          up     1500   auto/1000
           e0c       Default      Default          up     1500   auto/1000
           e0d       Default      Default          up     1500   auto/1000
  2. 在系統SVM上建立叢集間LIF:

    更新版本ONTAP

    執行命令: network interface create -vserver system_SVM -lif LIF_name -service-policy default-intercluster -home-node node -home-port port -address port_IP -netmask netmask

    不含更新版本ONTAP

    執行命令: network interface create -vserver system_SVM -lif LIF_name -role intercluster -home-node node -home-port port -address port_IP -netmask netmask

    如需完整的命令語法、請參閱手冊頁。以下範例建立叢集間lifs cluster01_icl01和cluster01_icl02:

    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl01 -service-
    policy default-intercluster -home-node cluster01-01 -home-port e0c -address 192.168.1.201
    -netmask 255.255.255.0
    
    cluster01::> network interface create -vserver cluster01 -lif cluster01_icl02 -service-
    policy default-intercluster -home-node cluster01-02 -home-port e0c -address 192.168.1.202
    -netmask 255.255.255.0
  3. 驗證是否已建立叢集間的LIF:

    更新版本ONTAP

    執行命令: network interface show -service-policy default-intercluster

    不含更新版本ONTAP

    執行命令: network interface show -role intercluster

    如需完整的命令語法、請參閱手冊頁。

    cluster01::> network interface show -service-policy default-intercluster
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    cluster01
                cluster01_icl01
                           up/up      192.168.1.201/24   cluster01-01  e0c     true
                cluster01_icl02
                           up/up      192.168.1.202/24   cluster01-02  e0c     true
  4. 驗證叢集間的LIF是否為備援:

    更新版本ONTAP

    執行命令: network interface show –service-policy default-intercluster -failover

    不含更新版本ONTAP

    執行命令: network interface show -role intercluster -failover

    如需完整的命令語法、請參閱手冊頁。

    下列範例顯示、「e0c」連接埠上的叢集間lifs「cluster01_icl01」和「cluster01_icl02」將容錯移轉至「e0d」連接埠。

    cluster01::> network interface show -service-policy default-intercluster –failover
             Logical         Home                  Failover        Failover
    Vserver  Interface       Node:Port             Policy          Group
    -------- --------------- --------------------- --------------- --------
    cluster01
             cluster01_icl01 cluster01-01:e0c   local-only      192.168.1.201/24
                                Failover Targets: cluster01-01:e0c,
                                                  cluster01-01:e0d
             cluster01_icl02 cluster01-02:e0c   local-only      192.168.1.201/24
                                Failover Targets: cluster01-02:e0c,
                                                  cluster01-02:e0d

建立叢集對等關係

您必須在MetroCluster 叢集之間建立叢集對等關係。

關於這項工作

您可以使用「叢集對等建立」命令、在本機與遠端叢集之間建立對等關係。建立對等關係之後、您可以在遠端叢集上執行「叢集對等實體建立」、將其驗證到本機叢集。

開始之前
  • 您必須在叢集中每個要處理的節點上建立叢集間生命體。

  • 叢集必須執行ONTAP 的是不含更新版本的版本。

步驟
  1. 在目的地叢集上、建立與來源叢集的對等關係:

    「叢集對等端點建立-產生密碼-優惠到期日_mm/DD/YYYY hh:mm:ss|1…​7天|1…​168hours_-對等 端點位元組_Peer_LIF_IP_-IPspace IPspace

    如果您同時指定「-genere-phrase」和「-peer-addrs」、則只有在「-per-addrs」中指定叢集間生命體的叢集才能使用所產生的密碼。

    如果不使用自訂IPspace、您可以忽略「-IPSpace」選項。如需完整的命令語法、請參閱手冊頁。

    下列範例會在未指定的遠端叢集上建立叢集對等關係:

    cluster02::> cluster peer create -generate-passphrase -offer-expiration 2days
    
                         Passphrase: UCa+6lRVICXeL/gq1WrK7ShR
                    Expiration Time: 6/7/2017 08:16:10 EST
      Initial Allowed Vserver Peers: -
                Intercluster LIF IP: 192.140.112.101
                  Peer Cluster Name: Clus_7ShR (temporary generated)
    
    Warning: make a note of the passphrase - it cannot be displayed again.
  2. 在來源叢集上、驗證來源叢集到目的地叢集的驗證:

    「叢集對等端點create -對等 端點addrs Peer_LIF_IP -IPSpace IPSpace」

    如需完整的命令語法、請參閱手冊頁。

    下列範例驗證本機叢集到叢集間LIF IP位址「192.140.112.101」和「192.140.112.102」的遠端叢集:

    cluster01::> cluster peer create -peer-addrs 192.140.112.101,192.140.112.102
    
    Notice: Use a generated passphrase or choose a passphrase of 8 or more characters.
            To ensure the authenticity of the peering relationship, use a phrase or sequence of characters that would be hard to guess.
    
    Enter the passphrase:
    Confirm the passphrase:
    
    Clusters cluster02 and cluster01 are peered.

    出現提示時、請輸入對等關係的通關密碼。

  3. 確認已建立叢集對等關係:

    「叢集對等端點顯示-instance」

    cluster01::> cluster peer show -instance
    
                                   Peer Cluster Name: cluster02
                       Remote Intercluster Addresses: 192.140.112.101, 192.140.112.102
                  Availability of the Remote Cluster: Available
                                 Remote Cluster Name: cluster2
                                 Active IP Addresses: 192.140.112.101, 192.140.112.102
                               Cluster Serial Number: 1-80-123456
                      Address Family of Relationship: ipv4
                Authentication Status Administrative: no-authentication
                   Authentication Status Operational: absent
                                    Last Update Time: 02/05 21:05:41
                        IPspace for the Relationship: Default
  4. 檢查對等關係中節點的連線能力和狀態:

    「叢集同儕健康展」

    cluster01::> cluster peer health show
    Node       cluster-Name                Node-Name
                 Ping-Status               RDB-Health Cluster-Health  Avail…
    ---------- --------------------------- ---------  --------------- --------
    cluster01-01
               cluster02                   cluster02-01
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           cluster02-02
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
    cluster01-02
               cluster02                   cluster02-01
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           cluster02-02
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true

建立叢集對等關係ONTAP (不含更新版本的版本)

您可以使用「叢集對等點create」命令來初始化本機與遠端叢集之間對等關係的要求。在本機叢集要求對等關係之後、您可以在遠端叢集上執行「叢集對等實體建立」、以接受關係。

開始之前
  • 您必須在所處理的叢集中的每個節點上建立叢集間生命體。

  • 叢集管理員必須同意每個叢集用來驗證自己與其他叢集之間的通關密碼。

步驟
  1. 在資料保護目的地叢集上、建立與資料保護來源叢集的對等關係:

    「叢集對等端點create -對等 端點addrs Peer_LIF_IPS-IPSpace IPspace

    如果不使用自訂IPspace、您可以忽略「-IPspac__」選項。如需完整的命令語法、請參閱手冊頁。

    下列範例會在叢集間LIF IP位址「192.168.2.201」和「192.168.2.202」建立與遠端叢集的叢集對等關係:

    cluster02::> cluster peer create -peer-addrs 192.168.2.201,192.168.2.202
    Enter the passphrase:
    Please enter the passphrase again:

    出現提示時、請輸入對等關係的通關密碼。

  2. 在資料保護來源叢集上、將來源叢集驗證至目的地叢集:

    「叢集對等端點create -對等 端點addrs Peer_LIF_IPS-IPSpace IPspace

    如需完整的命令語法、請參閱手冊頁。

    下列範例驗證本機叢集到叢集間LIF IP位址「192.140.112.203」和「192.140.112.204」的遠端叢集:

    cluster01::> cluster peer create -peer-addrs 192.168.2.203,192.168.2.204
    Please confirm the passphrase:
    Please confirm the passphrase again:

    出現提示時、請輸入對等關係的通關密碼。

  3. 確認已建立叢集對等關係:

    「叢集對等端點顯示–instance」

    如需完整的命令語法、請參閱手冊頁。

    cluster01::> cluster peer show –instance
    Peer Cluster Name: cluster01
    Remote Intercluster Addresses: 192.168.2.201,192.168.2.202
    Availability: Available
    Remote Cluster Name: cluster02
    Active IP Addresses: 192.168.2.201,192.168.2.202
    Cluster Serial Number: 1-80-000013
  4. 檢查對等關係中節點的連線能力和狀態:

    《叢集同儕健康展》

    如需完整的命令語法、請參閱手冊頁。

    cluster01::> cluster peer health show
    Node       cluster-Name                Node-Name
                 Ping-Status               RDB-Health Cluster-Health  Avail…
    ---------- --------------------------- ---------  --------------- --------
    cluster01-01
               cluster02                   cluster02-01
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           cluster02-02
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
    cluster01-02
               cluster02                   cluster02-01
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true
                                           cluster02-02
                 Data: interface_reachable
                 ICMP: interface_reachable true       true            true

鏡射根Aggregate

您必須鏡射根Aggregate以提供資料保護。

關於這項工作

根據預設、根Aggregate會建立為RAID-DP類型Aggregate。您可以將根Aggregate從RAID-DP變更為RAID4類型Aggregate。下列命令會修改RAID4類型Aggregate的根Aggregate:

storage aggregate modify –aggregate aggr_name -raidtype raid4
註 在非ADP系統上、可在鏡射Aggregate之前或之後、將Aggregate的RAID類型從預設RAID-DP修改為RAID4。
步驟
  1. 鏡射根Aggregate:

    '儲存Aggregate mirror agg_name'

    下列命令會鏡射控制器a_1的根Aggregate:

    controller_A_1::> storage aggregate mirror aggr0_controller_A_1

    這會鏡射Aggregate、因此它由位於遠端MetroCluster 站台的本機叢和遠端叢組成。

  2. 針對MetroCluster 「資訊功能」組態中的每個節點、重複上述步驟。

在每個節點上建立鏡射資料Aggregate

您必須在DR群組中的每個節點上建立鏡射資料Aggregate。

  • 您應該知道新的Aggregate將使用哪些磁碟機或陣列LUN。

  • 如果您的系統中有多種磁碟機類型(異質儲存設備)、您應該瞭解如何確保選取正確的磁碟機類型。

  • 磁碟機和陣列LUN由特定節點擁有;當您建立Aggregate時、該Aggregate中的所有磁碟機都必須由同一個節點擁有、而該節點會成為該Aggregate的主節點。

  • Aggregate名稱應符合您在規劃MetroCluster 時所決定的名稱配置。請參閱 "磁碟與Aggregate管理"

步驟
  1. 顯示可用備援磁碟機清單:

    「torage disk show -spare -Ownernode_name」

  2. 使用storage Aggregate create -mirror true命令建立Aggregate。

    如果您已登入叢集管理介面上的叢集、則可以在叢集中的任何節點上建立集合體。若要確保在特定節點上建立Aggregate、請使用「-node-」參數或指定該節點擁有的磁碟機。

    您可以指定下列選項:

    • Aggregate的主節點(也就是在正常作業中擁有Aggregate的節點)

    • 要新增至集合體的特定磁碟機或陣列LUN清單

    • 要納入的磁碟機數量

    註 在可用磁碟機數量有限的最低支援組態中、您必須使用「force-min-Aggregate」選項來建立三個磁碟RAID-DP Aggregate。
    • 用於Aggregate的Checksum樣式

    • 要使用的磁碟機類型

    • 要使用的磁碟機大小

    • 使用的磁碟機速度

    • 集合體上RAID群組的RAID類型

    • RAID群組中可包含的磁碟機或陣列LUN數目上限

    • 是否允許使用不同RPM的磁碟機

    有關這些選項的更多信息,請參見"shorage aggregate creation"手冊頁。

    下列命令會建立10個磁碟的鏡射Aggregate:

    cluster_A::> storage aggregate create aggr1_node_A_1 -diskcount 10 -node node_A_1 -mirror true
    [Job 15] Job is queued: Create aggr1_node_A_1.
    [Job 15] The job is starting.
    [Job 15] Job succeeded: DONE
  3. 驗證新Aggregate的RAID群組和磁碟機:

    「torage Aggregate show-STATUS -Aggregate gregate名稱

建立無鏡射的資料集合體

您也可以針對MetroCluster 不需要由支援的組態所提供的備援鏡像的資料、建立無鏡射的資料集合體。

開始之前
  • 您應該知道新的Aggregate將使用哪些磁碟機或陣列LUN。

  • 如果您的系統中有多種磁碟機類型(異質儲存設備)、您應該瞭解如何驗證選取的磁碟機類型是否正確。

重要 在SFC組態中MetroCluster 、只有在可存取Aggregate中的遠端磁碟時、才能在切換後將無鏡射的Aggregate連線。如果ISL失敗、本機節點可能無法存取無鏡射遠端磁碟中的資料。Aggregate故障可能導致本機節點重新開機。
  • 磁碟機和陣列LUN由特定節點擁有;當您建立Aggregate時、該Aggregate中的所有磁碟機都必須由同一個節點擁有、而該節點會成為該Aggregate的主節點。

註 無鏡射的Aggregate必須是擁有它們的節點的本機集合體。
  • Aggregate名稱應符合您在規劃MetroCluster 時所決定的名稱配置。

  • _磁碟與Aggregate管理_包含更多有關鏡射Aggregate的資訊。

步驟
  1. 顯示可用備援磁碟機清單:

    「torage disk show -spare -Owner_node_name_」

  2. 建立Aggregate:

    《torage aggregate create》

    如果您已登入叢集管理介面上的叢集、則可以在叢集中的任何節點上建立集合體。若要驗證是否已在特定節點上建立Aggregate、您應該使用「-node-」參數、或指定該節點擁有的磁碟機。

    您可以指定下列選項:

    • Aggregate的主節點(也就是在正常作業中擁有Aggregate的節點)

    • 要新增至集合體的特定磁碟機或陣列LUN清單

    • 要納入的磁碟機數量

    • 用於Aggregate的Checksum樣式

    • 要使用的磁碟機類型

    • 要使用的磁碟機大小

    • 使用的磁碟機速度

    • 集合體上RAID群組的RAID類型

    • RAID群組中可包含的磁碟機或陣列LUN數目上限

    • 是否允許使用不同RPM的磁碟機

    如需這些選項的詳細資訊、請參閱儲存Aggregate create手冊頁。

    下列命令會建立10個磁碟的無鏡射Aggregate:

    controller_A_1::> storage aggregate create aggr1_controller_A_1 -diskcount 10 -node controller_A_1
    [Job 15] Job is queued: Create aggr1_controller_A_1.
    [Job 15] The job is starting.
    [Job 15] Job succeeded: DONE
  3. 驗證新Aggregate的RAID群組和磁碟機:

    「torage Aggregate show-STATUS -Aggregate gregate名稱

實作MetroCluster 此功能組態

您必須執行「MetroCluster flexfconfigure」命令、才能以MetroCluster 一套功能完善的功能來啟動資料保護功能。

開始之前
  • 每個叢集至少應有兩個非根鏡射資料集合體。

    其他資料集合體可以是鏡射或無鏡射。

    您可以使用「shorage Aggregate show」命令來驗證。

    註 如果您要使用單一鏡射資料Aggregate、請參閱 步驟1. 以取得相關指示。
  • 控制器和機箱的ha-config狀態必須為「MCC」。

關於這項工作

您可以在MetroCluster 任何節點上發出「flexconfigure」命令一次、以啟用MetroCluster 該組態。您不需要在每個站台或節點上發出命令、也不需要在哪個節點或站台上發出命令。

「Sof the flexconfigure」命令會自動配對兩個節點、使兩個叢集的系統ID最低、成為災難恢復(DR)合作夥伴。MetroCluster在四節點MetroCluster 的不全功能組態中、有兩個DR合作夥伴配對。第二個DR配對是從兩個具有較高系統ID的節點建立。

註 您必須*不*設定Onboard Key Manager(OKM)或外部金鑰管理、才能執行「MetroCluster 靜態組態」命令。
步驟
  1. [step1_agggr]以MetroCluster 下列格式設定支援功能:

    如果MetroCluster 您的組態有…​

    然後執行此動作…​

    多個資料集合體

    在任何節點的提示下、設定MetroCluster 下列項目:

    「靜態組態節點名稱」MetroCluster

    單一鏡射資料Aggregate

    1. 在任何節點的提示下、變更為進階權限層級:

      "進階權限"

      當系統提示您繼續進入進階模式時、您需要用「y」回應、並看到進階模式提示(*>)。

    2. 使用MetroCluster 「-allow-with e-gregate true]參數設定此功能:

      「MetroCluster 配合單一Aggregate true_norme-name_」執行設定

    3. 返回管理權限層級:

      「et -priv. admin」

    註 最佳實務做法是擁有多個資料集合體。如果第一個DR群組只有一個Aggregate、而您想要新增一個具有單一Aggregate的DR群組、則必須將中繼資料磁碟區從單一資料Aggregate中移出。如需此程序的詳細資訊、請參閱 "在MetroCluster 不完整的組態中移動中繼資料磁碟區"

    下列命令可在MetroCluster DR群組中包含控制器a_1的所有節點上啟用「支援」組態:

    cluster_A::*> metrocluster configure -node-name controller_A_1
    
    [Job 121] Job succeeded: Configure is successful.
  2. 驗證站台A的網路狀態:

    「網路連接埠展示」

    以下範例顯示四節點MetroCluster 的列舉使用網路連接埠:

    cluster_A::> network port show
                                                              Speed (Mbps)
    Node   Port      IPspace   Broadcast Domain Link   MTU    Admin/Oper
    ------ --------- --------- ---------------- ----- ------- ------------
    controller_A_1
           e0a       Cluster   Cluster          up     9000  auto/1000
           e0b       Cluster   Cluster          up     9000  auto/1000
           e0c       Default   Default          up     1500  auto/1000
           e0d       Default   Default          up     1500  auto/1000
           e0e       Default   Default          up     1500  auto/1000
           e0f       Default   Default          up     1500  auto/1000
           e0g       Default   Default          up     1500  auto/1000
    controller_A_2
           e0a       Cluster   Cluster          up     9000  auto/1000
           e0b       Cluster   Cluster          up     9000  auto/1000
           e0c       Default   Default          up     1500  auto/1000
           e0d       Default   Default          up     1500  auto/1000
           e0e       Default   Default          up     1500  auto/1000
           e0f       Default   Default          up     1500  auto/1000
           e0g       Default   Default          up     1500  auto/1000
    14 entries were displayed.
  3. 驗MetroCluster 證MetroCluster 以支援功能驗證的兩個站台的支援功能組態。

    1. 從站台A驗證組態:

      《不看》MetroCluster

      cluster_A::> metrocluster show
      
      Cluster                   Entry Name          State
      ------------------------- ------------------- -----------
       Local: cluster_A         Configuration state configured
                                Mode                normal
                                AUSO Failure Domain auso-on-cluster-disaster
      Remote: cluster_B         Configuration state configured
                                Mode                normal
                                AUSO Failure Domain auso-on-cluster-disaster
    2. 從站台B驗證組態:

      《不看》MetroCluster

    cluster_B::> metrocluster show
    Cluster                   Entry Name          State
    ------------------------- ------------------- -----------
     Local: cluster_B         Configuration state configured
                              Mode                normal
                              AUSO Failure Domain auso-on-cluster-disaster
    Remote: cluster_A         Configuration state configured
                              Mode                normal
                              AUSO Failure Domain auso-on-cluster-disaster

設定以順序交付或不按順序交付以ONTAP 利在各種軟體上交付框架

您必須根據光纖通道(FC)交換器組態、設定依序傳送(IOD)或依序傳送(OE)的框架。

關於這項工作

如果FC交換器設定為IOD、ONTAP 則必須將該軟件設定為IOD。同樣地、如果FC交換器已設定為ood、ONTAP 則必須將其設定為ood。

註 您必須重新啟動控制器才能變更組態。
步驟
  1. 設定ONTAP 執行IOD或框架等作業的功能。

    • 根據預設ONTAP 、畫面的IOD會在支援中啟用。若要查看組態詳細資料:

      1. 進入進階模式:

        《進階設定》

      2. 驗證設定:

        「顯示此介面卡的資訊」MetroCluster

      mcc4-b12_siteB::*> metrocluster interconnect adapter show
                                   Adapter Link   Is OOD
      Node         Adapter Name    Type    Status Enabled? IP Address  Port Number
      ------------ --------------- ------- ------ -------- ----------- -----------
      mcc4-b1      fcvi_device_0   FC-VI    Up    false    17.0.1.2 	   	6a
      mcc4-b1      fcvi_device_1   FC-VI    Up    false    18.0.0.2   	 	6b
      mcc4-b1      mlx4_0          IB       Down  false    192.0.5.193 	 ib2a
      mcc4-b1      mlx4_0          IB       Up    false    192.0.5.194 	 ib2b
      mcc4-b2      fcvi_device_0   FC-VI    Up    false    17.0.2.2		    6a
      mcc4-b2      fcvi_device_1   FC-VI    Up    false    18.0.1.2    	 6b
      mcc4-b2      mlx4_0          IB       Down  false    192.0.2.9   	 ib2a
      mcc4-b2      mlx4_0          IB       Up    false    192.0.2.10  	 ib2b
      8 entries were displayed.
    • 必須在每個節點上執行下列步驟、才能設定框架的正常狀態:

      1. 進入進階模式:

        《進階設定》

      2. 驗MetroCluster 證下列各項的組態設定:

        「顯示此介面卡的資訊」MetroCluster

        mcc4-b12_siteB::*> metrocluster interconnect adapter show
                                     Adapter Link   Is OOD
        Node         Adapter Name    Type    Status Enabled? IP Address  Port Number
        ------------ --------------- ------- ------ -------- ----------- -----------
        mcc4-b1      fcvi_device_0   FC-VI    Up    false    17.0.1.2 	   	6a
        mcc4-b1      fcvi_device_1   FC-VI    Up    false    18.0.0.2   	 	6b
        mcc4-b1      mlx4_0          IB       Down  false    192.0.5.193 	 ib2a
        mcc4-b1      mlx4_0          IB       Up    false    192.0.5.194 	 ib2b
        mcc4-b2      fcvi_device_0   FC-VI    Up    false    17.0.2.2		    6a
        mcc4-b2      fcvi_device_1   FC-VI    Up    false    18.0.1.2    	 6b
        mcc4-b2      mlx4_0          IB       Down  false    192.0.2.9   	 ib2a
        mcc4-b2      mlx4_0          IB       Up    false    192.0.2.10  	 ib2b
        8 entries were displayed.
      3. 在節點「mCC4-b1」和節點「mCC4-b2」上啟用ood:

        「MetroCluster 支援此功能的零件介面卡修改-node_node_name_-is:啟用此功能的true」

      mcc4-b12_siteB::*> metrocluster interconnect adapter modify -node mcc4-b1 -is-ood-enabled true
      mcc4-b12_siteB::*> metrocluster interconnect adapter modify -node mcc4-b2 -is-ood-enabled true
      1. 透過雙向執行高可用度( HA )接管、重新啟動控制器。

      2. 驗證設定:

        「顯示此介面卡的資訊」MetroCluster

    mcc4-b12_siteB::*> metrocluster interconnect adapter show
                                 Adapter Link   Is OOD
    Node         Adapter Name    Type    Status Enabled? IP Address  Port Number
    ------------ --------------- ------- ------ -------- ----------- -----------
    mcc4-b1      fcvi_device_0   FC-VI   Up     true      17.0.1.2   	 6a
    mcc4-b1      fcvi_device_1   FC-VI   Up     true      18.0.0.2    	6b
    mcc4-b1      mlx4_0          IB      Down   false     192.0.5.193 	ib2a
    mcc4-b1      mlx4_0          IB      Up     false     192.0.5.194 	ib2b
    mcc4-b2      fcvi_device_0   FC-VI   Up     true      17.0.2.2    	6a
    mcc4-b2      fcvi_device_1   FC-VI   Up     true      18.0.1.2    	6b
    mcc4-b2      mlx4_0          IB      Down   false     192.0.2.9   	ib2a
    mcc4-b2      mlx4_0          IB      Up     false     192.0.2.10  	ib2b
    8 entries were displayed.

在MetroCluster 不顯示的組態中設定v3

開始之前

交換器和ONTAP 作業系統上的驗證和隱私權傳輸協定必須相同。

關於這項工作

目前支援AES-128加密。ONTAP

步驟
  1. 從控制器提示字元為每個交換器建立SNMP使用者:

    《安全登入建立》

    Controller_A_1::> security login create -user-or-group-name snmpv3user -application snmp -authentication-method usm -role none -remote-switch-ipaddress 10.10.10.10
  2. 視需要在您的站台回應下列提示:

    Enter the authoritative entity's EngineID [remote EngineID]:
    
    Which authentication protocol do you want to choose (none, md5, sha, sha2-256) [none]: sha
    
    Enter the authentication protocol password (minimum 8 characters long):
    
    Enter the authentication protocol password again:
    
    Which privacy protocol do you want to choose (none, des, aes128) [none]: aes128
    
    Enter privacy protocol password (minimum 8 characters long):
    
    Enter privacy protocol password again:
    註 相同的使用者名稱可新增至具有不同IP位址的不同交換器。
  3. 為其餘交換器建立SNMP使用者。

    以下範例說明如何為IP位址為10.10.10.11的交換器建立使用者名稱。

    Controller_A_1::> security login create -user-or-group-name snmpv3user -application snmp -authentication-method usm -role none -remote-switch-ipaddress 10.
    10.10.11
  4. 檢查每個交換器是否有一個登入項目:

    「安全登入秀」

    Controller_A_1::> security login show -user-or-group-name snmpv3user -fields remote-switch-ipaddress
    
    vserver      user-or-group-name application authentication-method remote-switch-ipaddress
    
    ------------ ------------------ ----------- --------------------- -----------------------
    
    node_A_1 SVM 1 snmpv3user     snmp        usm                   10.10.10.10
    
    node_A_1 SVM 2 snmpv3user     snmp        usm                   10.10.10.11
    
    node_A_1 SVM 3 snmpv3user    snmp        usm                   10.10.10.12
    
    node_A_1 SVM 4 snmpv3user     snmp        usm                   10.10.10.13
    
    4 entries were displayed.
  5. 在交換器提示字元的交換器上設定v3:

    Brocade 交換器

    「nmpconfig - set v3」

    Cisco交換器

    snmp-server user <user_name> auth [md5/sha/sha-256] <auth_password> priv (aes-128) <priv_password>

    如果您需要存取 RO 、請在「 User ( ro ):」之後指定「 snmpv3user 」。以下範例使用 Brocade 交換器:

    Switch-A1:admin> snmpconfig --set snmpv3
    SNMP Informs Enabled (true, t, false, f): [false] true
    SNMPv3 user configuration(snmp user not configured in FOS user database will have physical AD and admin role as the default):
    User (rw): [snmpadmin1]
    Auth Protocol [MD5(1)/SHA(2)/noAuth(3)]: (1..3) [3]
    Priv Protocol [DES(1)/noPriv(2)/AES128(3)/AES256(4)]): (2..2) [2]
    Engine ID: [00:00:00:00:00:00:00:00:00]
    User (ro): [snmpuser2] snmpv3user
    Auth Protocol [MD5(1)/SHA(2)/noAuth(3)]: (1..3) [2]
    Priv Protocol [DES(1)/noPriv(2)/AES128(3)/AES256(4)]): (2..2) [3]

    範例顯示如何設定唯讀使用者。您可以視需要調整RW使用者。

    您也應該為未使用的帳戶設定密碼、以確保密碼安全、並使用ONTAP 您的版本資訊系統所提供的最佳加密功能。

  6. 視站台的需求、在其餘交換器使用者上設定加密和密碼。

設定MetroCluster 執行健全狀況監控的元件

您必須先執行一些特殊的組態步驟、才能監控MetroCluster 採用功能組態的元件。

關於這項工作

這些工作僅適用於具有FC至SAS橋接器的系統。

從 Fabric OS 9.0.1 開始、不支援使用 SNMPv2 來監控 Brocade 交換器的健全狀況、您必須改用 SNMPv3 。如果您使用的是 SNMPv3 、則必須先在 ONTAP 中設定 SNMPv3 、然後再繼續執行下一節。如需詳細資料、請參閱 在MetroCluster 不顯示的組態中設定v3

註
  • 您應該將橋接器和節點管理LIF放在專用網路中、以避免來自其他來源的干擾。

  • 如果您使用專屬的網路進行健全狀況監控、則每個節點都必須在該專屬網路中擁有節點管理LIF。

設定MetroCluster 用於健全狀況監控的功能

在架構附加MetroCluster 的非結構性組態中、您必須執行一些額外的組態步驟來監控FC交換器。

註 從ONTAP 功能組別9.8開始、將「儲存切換」命令換成「系統切換」。以下步驟顯示了「shorage switch'」命令、但ONTAP 如果您執行的是更新版本的資訊、最好使用「系統切換」命令。
步驟
  1. 將IP位址的交換器新增至每MetroCluster 個節點:

    您執行的命令取決於您使用的是 SNMPv2 或 SNMPv3 。

    使用 SNMPv3 新增交換器:

    storage switch add -address <ip_adddress> -snmp-version SNMPv3 -snmp-community-or-username <SNMP_user_configured_on_the_switch>

    使用 SNMPv2 新增交換器:

    '交換器新增位址ipaddress'

    此命令必須在MetroCluster 整個4個交換器上重複執行、以進行整個過程。

    註 除了NoISLPresent_Alert之外、Brocade 7840 FC交換器和所有警示都支援健全狀況監控。

    以下範例顯示新增IP位址為10.10.10.10的交換器的命令:

    controller_A_1::> storage switch add -address 10.10.10.10
  2. 確認所有交換器均已正確設定:

    「torage switchshow」

    由於15分鐘的輪詢時間間隔、可能需要15分鐘才能反映所有資料。

    下列範例顯示驗證MetroCluster 是否已設定了F道 交換機的命令:

    controller_A_1::> storage switch show
    Fabric           Switch Name     Vendor  Model        Switch WWN       Status
    ---------------- --------------- ------- ------------ ---------------- ------
    1000000533a9e7a6 brcd6505-fcs40  Brocade Brocade6505  1000000533a9e7a6 OK
    1000000533a9e7a6 brcd6505-fcs42  Brocade Brocade6505  1000000533d3660a OK
    1000000533ed94d1 brcd6510-fcs44  Brocade Brocade6510  1000000533eda031 OK
    1000000533ed94d1 brcd6510-fcs45  Brocade Brocade6510  1000000533ed94d1 OK
    4 entries were displayed.
    
    controller_A_1::>

    如果顯示交換器的全球名稱(WWN)、ONTAP 則可聯絡及監控FC交換器。

相關資訊

"系統管理"

設定FC對SAS橋接器以進行健全狀況監控

在執行ONTAP 9.8版之前版本的系統中、您必須執行一些特殊的組態步驟、以MetroCluster 監控採用此功能組態的FC至SAS橋接器。

關於這項工作
  • 不支援第三方SNMP監控工具用於連接光纖橋接器。

  • 從ONTAP 功能組態9.8開始、FC對SAS橋接器依預設會透過頻內連線進行監控、不需要額外的組態設定。

註 從ONTAP 功能組別9.8開始、「最小橋接器」命令會改為「系統橋接器」。以下步驟顯示了「shorage bridge」命令、但ONTAP 如果您執行的是更新版本的版本、最好使用「系統橋接器」命令。
步驟
  1. 從「叢集提示」中、將橋接器新增至健全狀況監控:ONTAP

    1. 使用適用於ONTAP 您的版本的命令來新增橋接器:

      版本ONTAP

      命令

      9.5及更新版本

      「torage bridge add -address0.0.00.0.00.-managed by in-band -name bridge-name

      9.4及更早版本

      「torage bridge add -address_bridge-ip-address_-name bridge-name

    2. 確認橋接器已新增且設定正確:

      《龍橋秀》

      由於輪詢時間間隔、可能需要15分鐘才能反映所有資料。如果「狀態」欄中的值為「正常」、則可聯絡及監控此橋接器、並顯示其他資訊、例如全球名稱(WWN)ONTAP 。

      以下範例顯示已設定FC對SAS橋接器:

    controller_A_1::> storage bridge show
    
    Bridge              Symbolic Name Is Monitored  Monitor Status  Vendor Model                Bridge WWN
    ------------------  ------------- ------------  --------------  ------ -----------------    ----------
    ATTO_10.10.20.10  atto01        true          ok              Atto   FibreBridge 7500N   	20000010867038c0
    ATTO_10.10.20.11  atto02        true          ok              Atto   FibreBridge 7500N   	20000010867033c0
    ATTO_10.10.20.12  atto03        true          ok              Atto   FibreBridge 7500N   	20000010867030c0
    ATTO_10.10.20.13  atto04        true          ok              Atto   FibreBridge 7500N   	2000001086703b80
    
    4 entries were displayed
    
     controller_A_1::>

正在檢查MetroCluster 功能組態

您可以檢查MetroCluster 功能組態中的元件和關係是否正常運作。

您應該在初始組態設定後、以及MetroCluster 變更任何的功能後進行檢查。您也應該在協商(計畫性)切換或切換作業之前進行檢查。

關於這項工作

如果在MetroCluster 兩個叢集上的短時間內發出兩次「支援驗證執行」命令、可能會發生衝突、而且命令可能無法收集所有資料。隨後MetroCluster 的「畫面檢查show」命令將不會顯示預期的輸出。

步驟
  1. 檢查組態:

    《不一樣的跑程》MetroCluster

    命令會以背景工作的形式執行、而且可能不會立即完成。

    cluster_A::> metrocluster check run
    The operation has been started and is running in the background. Wait for
    it to complete and run "metrocluster check show" to view the results. To
    check the status of the running metrocluster check operation, use the command,
    "metrocluster operation history show -job-id 2245"
    cluster_A::> metrocluster check show
    
    Component           Result
    ------------------- ---------
    nodes               ok
    lifs                ok
    config-replication  ok
    aggregates          ok
    clusters            ok
    connections         ok
    volumes             ok
    7 entries were displayed.
  2. 顯示最新MetroCluster 的「不檢流程」命令更詳細的結果:

    《不看集合體表演》MetroCluster

    「觀看叢集節目」MetroCluster

    《不執行組態複寫的展示》MetroCluster

    《不看利夫秀》MetroCluster

    「不需要節點顯示」MetroCluster

    註 「示例檢查show」命令顯示最近執行的「示例檢查run」命令的結果。MetroCluster MetroCluster在MetroCluster 使用「MetroCluster show」命令之前、請務必先執行「支援檢查執行」命令、以便顯示最新的資訊。

    以下範例顯示MetroCluster 「用作『用作檢查集合式show’命令輸出、以確保四節點MetroCluster 的效能正常運作:

    cluster_A::> metrocluster check aggregate show
    
    Last Checked On: 8/5/2014 00:42:58
    
    Node                  Aggregate                  Check                      Result
    ---------------       --------------------       ---------------------      ---------
    controller_A_1        controller_A_1_aggr0
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_1_aggr1
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_1_aggr2
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
    
    
    controller_A_2        controller_A_2_aggr0
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_2_aggr1
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
                          controller_A_2_aggr2
                                                     mirroring-status           ok
                                                     disk-pool-allocation       ok
                                                     ownership-state            ok
    
    18 entries were displayed.

    以下範例顯示MetroCluster 「不知道叢集show」命令輸出、可確保四節點MetroCluster 的效能正常。這表示叢集已準備好在必要時執行協調式切換。

    Last Checked On: 9/13/2017 20:47:04
    
    Cluster               Check                           Result
    --------------------- ------------------------------- ---------
    mccint-fas9000-0102
                          negotiated-switchover-ready     not-applicable
                          switchback-ready                not-applicable
                          job-schedules                   ok
                          licenses                        ok
                          periodic-check-enabled          ok
    mccint-fas9000-0304
                          negotiated-switchover-ready     not-applicable
                          switchback-ready                not-applicable
                          job-schedules                   ok
                          licenses                        ok
                          periodic-check-enabled          ok
    10 entries were displayed.

使用MetroCluster 資訊功能檢查是否有不正確的組態錯誤Config Advisor

您可以前往NetApp支援網站下載Config Advisor 此功能、以檢查常見的組態錯誤。

關於這項工作

此為組態驗證與健全狀況檢查工具。Config Advisor您可以在安全站台和非安全站台上部署、以供資料收集和系統分析之用。

註 支援功能有限、僅限線上使用。Config Advisor
步驟
  1. 前往Config Advisor 「更新」頁面並下載工具。

  2. 執行Config Advisor 功能、檢閱工具的輸出結果、並遵循輸出中的建議來解決發現的任何問題。

正在驗證本機HA作業

如果您有四節點MetroCluster 的資訊穩定組態、則應在MetroCluster 該組態中驗證本機HA配對的運作情況。這對於雙節點組態而言是不必要的。

關於這項工作

雙節點MetroCluster 的不含本機HA配對、此工作不適用。

本工作範例使用標準命名慣例:

  • 叢集_A

    • 控制器_a_1.

    • 控制器_a_2.

  • 叢集_B

    • 控制器_B_1

    • 控制器_B_2

步驟
  1. 在叢集_A上、執行容錯移轉並雙向還原。

    1. 確認已啟用儲存容錯移轉:

      「容錯移轉顯示」

      輸出應指出兩個節點均可進行接管:

      cluster_A::> storage failover show
                                    Takeover
      Node           Partner        Possible State Description
      -------------- -------------- -------- ---------------------------
      controller_A_1 controller_A_2 true     Connected to controller_A_2
      
      controller_A_2 controller_A_1 true     Connected to controller_A_1
      2 entries were displayed.
    2. 從控制器a_1接管控制器a_2:

      「容錯移轉接管控制器_a_2」

      您可以使用「儲存容錯移轉show takeover」命令來監控接管作業的進度。

    3. 確認接管已完成:

      「容錯移轉顯示」

      輸出應指出控制器a_1處於接管狀態、表示它已接管HA合作夥伴:

      cluster_A::> storage failover show
                                    Takeover
      Node           Partner        Possible State Description
      -------------- -------------- -------- -----------------
      controller_A_1 controller_A_2 false    In takeover
      
      controller_A_2 controller_A_1 -        Unknown
      2 entries were displayed.
    4. 傳回控制器a_2:

      「torage容錯移轉恢復控制器_a_2」

      您可以使用「儲存容錯移轉show-f恢復」命令來監控還原作業的進度。

    5. 確認儲存容錯移轉已恢復正常狀態:

      「容錯移轉顯示」

      輸出應指出兩個節點均可進行接管:

    cluster_A::> storage failover show
                                  Takeover
    Node           Partner        Possible State Description
    -------------- -------------- -------- ---------------------------
    controller_A_1 controller_A_2 true     Connected to controller_A_2
    
    controller_A_2 controller_A_1 true     Connected to controller_A_1
    2 entries were displayed.
    1. 重複上述子步驟、這次從控制器a_2接管控制器a_1。

  2. 在叢集B上重複上述步驟

相關資訊

"高可用度組態"

驗證切換、修復及切換

您應該驗證MetroCluster 該組態的切換、修復及切換作業。

步驟
  1. 請使用中所述的協調切換、修復及切換程序 "從災難中恢復"

保護組態備份檔案

您可以指定遠端URL(HTTP或FTP)來上傳組態備份檔案、以及本機叢集中的預設位置、為叢集組態備份檔案提供額外的保護。

步驟
  1. 設定組態備份檔案的遠端目的地URL:

    「系統組態備份設定修改_url-of destination_」

    "使用CLI進行叢集管理" 在「管理組態備份」一節中包含其他資訊。