ノード 1 が所有するルート以外のアグリゲートと NAS データ LIF をノード 2 に再配置します
ノード 1 をノード 3 に交換する前に、ルート以外のアグリゲートと NAS データ LIF をノード 1 からノード 2 に移動してから、ノード 1 のリソースをノード 3 に移動する必要があります。
この処理は、タスクの開始時にすでに一時停止されている必要があります。手動で再開する必要があります。
アップグレード手順の実行中、リモート LIF は SAN LUN へのトラフィックを処理します。アップグレード時にクラスタやサービスの健全性を維持するために、 SAN LIF を移動する必要はありません。ノード 3 をオンラインにしたあと、 LIF が正常に機能しており、適切なポートに配置されていることを確認する必要があります。
アグリゲートおよび LIF のホーム所有者は変更されません。現在の所有者のみが変更されます。 |
-
アグリゲートの再配置処理と NAS データ LIF の移動処理を再開します。
「システムコントローラの交換が再開」
ルート以外のアグリゲートと NAS データ LIF はすべて、 node1 から node2 に移行されます。
処理が一時停止することで、ノード 1 のルート以外のアグリゲートと SAN 以外のデータ LIF がすべて node2 に移行されているかどうかを確認できます。
-
アグリゲートの再配置処理と NAS データ LIF の移動処理のステータスを確認します。
「 system controller replace show-sdetails 」というエラーが表示されます
-
処理が一時停止したまま、ルート以外のすべてのアグリゲートが node2 でそれぞれの状態でオンラインになっていることを確認します。
storage aggregate show -node _node2 --state online -root false
次の例は、 node2 のルート以外のアグリゲートがオンラインになっていることを示しています。
cluster::> storage aggregate show -node node2 state online -root false Aggregate Size Available Used% State #Vols Nodes RAID Status --------- ------- --------- ----- ------ ----- ------ -------------- aggr_1 744.9GB 744.8GB 0% online 5 node2 raid_dp,normal aggr_2 825.0GB 825.0GB 0% online 1 node2 raid_dp,normal 2 entries were displayed.
アグリゲートがオフラインになった場合、または node2 で外部になった場合は、各アグリゲートに対して 1 回、 node2 で次のコマンドを使用してアグリゲートをオンラインにします。
storage aggregate online -aggregate aggr_name`
-
node2 で次のコマンドを使用し、出力を調べて、すべてのボリュームがオンラインであることを確認します。
volume show -node-node2 --状態オフライン
node2 上にオフラインのボリュームがある場合は、各ボリュームに対して 1 回、 node2 で次のコマンドを使用してオンラインにします。
'volume online -vserver_name_-volume_name_`
このコマンドで使用する'vserver_name'は'前のvolume showコマンドの出力にあります
-
[[step5] - データ LIF をホストしているポートが新しいハードウェアに存在しない場合は、ブロードキャストドメインから削除します。
「 network port broadcast-domain remove-ports 」と入力します
-
LIF が 1 つでも停止している場合は、次のコマンドを LIF ごとに 1 回入力して、 LIF の管理ステータスを「 up 」に設定します。
「network interface modify -vserver vserver_name _ lif_lif_name_-home-nodename_-status-admin up
-
インターフェイスグループまたは VLAN が設定されている場合は、次の手順を実行します。
-
ポートおよびインターフェイスグループの情報をまだ保存していない場合は、ノード 3 のブート後にそれらの VLAN とインターフェイスグループをノード 3 で再作成できるように、それらの情報を記録します。
-
インターフェイスグループから VLAN を削除します。
「 network port vlan delete -node nodename 」 -port_ifgrp --vlan-id_vlan_ID`
対処方法に従って、 vlan delete コマンドで表示されるエラーを解決します。 -
次のコマンドを入力し、その出力を調べて、ノードにインターフェイスグループが設定されているかどうかを確認します。
「 network port ifgrp show -node nodename 」 -ifgrp _ifgrp_name のように表示されます
次の例に示すように、ノードのインターフェイスグループ情報が表示されます。
cluster::> network port ifgrp show -node node1 -ifgrp a0a -instance Node: node1 Interface Group Name: a0a Distribution Function: ip Create Policy: multimode_lacp MAC Address: 02:a0:98:17:dc:d4 Port Participation: partial Network Ports: e2c, e2d Up Ports: e2c Down Ports: e2d
-
ノードにインターフェイスグループが設定されている場合は、それらのグループの名前とグループに割り当てられているポートを記録し、ポートごとに次のコマンドを 1 回入力してポートを削除します。
「 network port ifgrp remove-port -node_nodename 」 -ifgrp ifgrp_name -port_netport 」のようになります
-