建立FlexGroup SnapMirror關係、以利實現不只是個資料區
您可以在FlexGroup 連接的SVM上、在來源Sf2 Volume和目的地FlexGroup Sfvolume之間建立SnapMirror關係、以便複寫資料以進行災難恢復。發生災難時、您可以使用FlexGroup 鏡射複本的現象來恢復資料。
您必須建立叢集對等關係和SVM對等關係。
-
從 ONTAP 9.9.1 開始,您可以使用 ONTAP CLI 為 FlexGroup 磁碟區建立 SnapMirror 串聯和展開關係。如需詳細資訊、請參閱 "為FlexGroups建立SnapMirror串聯和展開關係的考量"。
-
您可以建立FlexGroup 叢集間的SnapMirror關係、以及針對各個磁碟區建立叢集內的叢集SnapMirror關係。
-
從ONTAP 功能區9.3開始、您可以擴充FlexGroup SnapMirror關係中的功能區。
如果您使用ONTAP 的是ONTAP 版本早於版本的SnapMirror、則FlexGroup 在建立SnapMirror關係之後、不得擴充版本的功能;不過FlexGroup 、您可以在建立SnapMirror關係之後、再增加功能的功能。如果FlexGroup 您在ONTAP 更新版本早於版本的SnapMirror關係之後、擴充來源的聲音量、則必須執行基準傳輸至目的地FlexGroup 的聲音量。
-
建立類型的目的地 FlexGroup Volume
DP
其組成數量與來源 FlexGroup Volume 的組成數量相同:-
從來源叢集中、判斷來源 FlexGroup Volume 中的組成數量:
volume show -volume volume_name* -is-constituent true
cluster1::> volume show -volume srcFG* -is-constituent true Vserver Volume Aggregate State Type Size Available Used% --------- ------------ ------------ ---------- ---- ---------- ---------- ----- vss srcFG - online RW 400TB 172.86GB 56% vss srcFG__0001 Aggr_cmode online RW 25GB 10.86TB 56% vss srcFG__0002 aggr1 online RW 25TB 10.86TB 56% vss srcFG__0003 Aggr_cmode online RW 25TB 10.72TB 57% vss srcFG__0004 aggr1 online RW 25TB 10.73TB 57% vss srcFG__0005 Aggr_cmode online RW 25TB 10.67TB 57% vss srcFG__0006 aggr1 online RW 25TB 10.64TB 57% vss srcFG__0007 Aggr_cmode online RW 25TB 10.63TB 57% ...
-
從目的地叢集建立類型的目的地 FlexGroup Volume
DP
其組成數量與來源 FlexGroup Volume 相同。cluster2::> volume create -vserver vsd -aggr-list aggr1,aggr2 -aggr-list-multiplier 8 -size 400TB -type DP dstFG Warning: The FlexGroup volume "dstFG" will be created with the following number of constituents of size 25TB: 16. Do you want to continue? {y|n}: y [Job 766] Job succeeded: Successful
-
從目的地叢集、確認目的地 FlexGroup Volume 中的組成數量:
volume show -volume volume_name* -is-constituent true
cluster2::> volume show -volume dstFG* -is-constituent true Vserver Volume Aggregate State Type Size Available Used% --------- ------------ ------------ ---------- ---- ---------- ---------- ----- vsd dstFG - online DP 400TB 172.86GB 56% vsd dstFG__0001 Aggr_cmode online DP 25GB 10.86TB 56% vsd dstFG__0002 aggr1 online DP 25TB 10.86TB 56% vsd dstFG__0003 Aggr_cmode online DP 25TB 10.72TB 57% vsd dstFG__0004 aggr1 online DP 25TB 10.73TB 57% vsd dstFG__0005 Aggr_cmode online DP 25TB 10.67TB 57% vsd dstFG__0006 aggr1 online DP 25TB 10.64TB 57% vsd dstFG__0007 Aggr_cmode online DP 25TB 10.63TB 57% ...
-
-
建立工作排程:
job schedule cron create -name job_name -month month -dayofweek day_of_week -day day_of_month -hour hour -minute minute
適用於
-month
、-dayofweek`和 `-hour
選項、您可以指定all
每個月、每週的每一天、每小時執行一次工作。以下範例建立名為的工作排程
my_weekly
週六上午 3 : 00 開始:cluster1::> job schedule cron create -name my_weekly -dayofweek "Saturday" -hour 3 -minute 0
-
建立類型的自訂原則
async-mirror
對於 SnapMirror 關係:snapmirror policy create -vserver SVM -policy snapmirror_policy -type async-mirror
如果您未建立自訂原則、則應指定
MirrorAllSnapshots
SnapMirror 關係原則。 -
從目的地叢集、在來源 FlexGroup Volume 和目的地 FlexGroup Volume 之間建立 SnapMirror 關係:
snapmirror create -source-path src_svm:src_flexgroup -destination-path dest_svm:dest_flexgroup -type XDP -policy snapmirror_policy -schedule sched_name
FlexGroup 磁碟區的 SnapMirror 關係必須屬於類型
XDP
。如果您為FlexGroup SnapMirror關係指定一個流向值、則每個組成部分都會使用相同的節流值。節流值不會分成多個部分。
您無法將Snapshot複本的SnapMirror標籤用於FlexGroup 不符合需求的磁碟區。
在 ONTAP 9.4 及更早版本中、如果原則未使用指定
snapmirror create
命令MirrorAllSnapshots
原則預設為使用。在 ONTAP 9.5 中、如果原則未使用指定snapmirror create
命令MirrorAndVault
原則預設為使用。cluster2::> snapmirror create -source-path vss:srcFG -destination-path vsd:dstFG -type XDP -policy MirrorAllSnapshots -schedule hourly Operation succeeded: snapmirror create for the relationship with destination "vsd:dstFG".
-
從目的地叢集執行基準傳輸、以初始化 SnapMirror 關係:
snapmirror initialize -destination-path dest_svm:dest_flexgroup
基礎傳輸完成後、目的地FlexGroup 的E動磁 碟區會根據SnapMirror關係的排程定期更新。
cluster2::> snapmirror initialize -destination-path vsd:dstFG Operation is queued: snapmirror initialize of destination "vsd:dstFG".
如果FlexGroup 您已在來源叢集執行ONTAP 版本為9.3的來源叢集與執行ONTAP 版本為9.2或更早版本的目的地叢集之間建立任何SnapMirror關係、而且如果您在來源FlexGroup 版本為0、SnapMirror更新就會失敗。若要從這種情況中恢復、您必須刪除FlexGroup 整個非預設qtree中的所有qtree、停用FlexGroup 該實體磁碟區上的qtree功能、然後刪除所有啟用qtree功能的Snapshot複本。
您應設定必要的組態、例如lifs和匯出原則、以設定目的地SVM進行資料存取。