Spostare aggregati non root e LIF dati NAS da node2 a node3
Prima di sostituire il node2 con node4, spostare gli aggregati non root e le LIF dati NAS di proprietà di node2 in node3.
Una volta completati i controlli successivi alla fase precedente, la release di risorse per node2 si avvia automaticamente. Gli aggregati non root e le LIF di dati non SAN vengono migrati da node2 a node3.
Le LIF remote gestiscono il traffico verso le LUN SAN durante la procedura di aggiornamento. Lo spostamento delle LIF SAN non è necessario per lo stato del cluster o del servizio durante l'aggiornamento.
Una volta migrati gli aggregati e i LIF, l'operazione viene sospesa per scopi di verifica. In questa fase, è necessario verificare se tutti gli aggregati non root e le LIF di dati non SAN vengono migrati in node3.
Il proprietario dell'abitazione per gli aggregati e le LIF non viene modificato; solo il proprietario corrente viene modificato. |
-
Verificare che tutti gli aggregati non root siano online e che il loro stato sia su node3:
storage aggregate show -node node3 -state online -root false
L'esempio seguente mostra che gli aggregati non root su node2 sono online:
cluster::> storage aggregate show -node node3 state online -root false Aggregate Size Available Used% State #Vols Nodes RAID Status ---------- --------- --------- ------ ----- ----- ------ ------- ------ aggr_1 744.9GB 744.8GB 0% online 5 node2 raid_dp normal aggr_2 825.0GB 825.0GB 0% online 1 node2 raid_dp normal 2 entries were displayed.
Se gli aggregati sono andati offline o diventano estranei sul node3, portarli online utilizzando il seguente comando sul node3, una volta per ogni aggregato:
storage aggregate online -aggregate aggr_name
-
Verificare che tutti i volumi siano online sul nodo 3 utilizzando il seguente comando sul nodo 3 ed esaminando l'output:
volume show -node node3 -state offline
Se alcuni volumi sono offline sul node3, portarli online utilizzando il seguente comando sul node3, una volta per ogni volume:
volume online -vserver vserver_name -volume volume_name
Il
vserver_name
da utilizzare con questo comando si trova nell'output del precedentevolume show
comando. -
Verificare che le LIF siano state spostate nelle porte corrette e che lo stato sia
up
. Se le LIF non sono attive, impostare lo stato amministrativo delle LIF suup
Immettendo il seguente comando, una volta per ogni LIF:network interface modify -vserver vserver_name -lif LIF_name -home-node node_name -status-admin up
-
Se le porte che attualmente ospitano i file LIF dei dati non esistono sul nuovo hardware, rimuoverle dal dominio di trasmissione:
network port broadcast-domain remove-ports
-
verificare che non vi siano LIF di dati rimasti sul node2 immettendo il seguente comando ed esaminando l'output:
network interface show -curr-node node2 -role data
-
Se sono stati configurati gruppi di interfacce o VLAN, completare i seguenti passaggi secondari:
-
Registrare le informazioni sulla VLAN e sul gruppo di interfacce in modo da poter ricreare le VLAN e i gruppi di interfacce sul nodo 3 dopo l'avvio del nodo 3.
-
Rimuovere le VLAN dai gruppi di interfacce:
network port vlan delete -node nodename -port ifgrp -vlan-id VLAN_ID
-
Verificare se sono presenti gruppi di interfacce configurati sul nodo immettendo il seguente comando ed esaminandone l'output:
network port ifgrp show -node node2 -ifgrp ifgrp_name -instance
Il sistema visualizza le informazioni sul gruppo di interfacce per il nodo, come illustrato nell'esempio seguente:
cluster::> network port ifgrp show -node node2 -ifgrp a0a -instance Node: node3 Interface Group Name: a0a Distribution Function: ip Create Policy: multimode_lacp MAC Address: 02:a0:98:17:dc:d4 Port Participation: partial Network Ports: e2c, e2d Up Ports: e2c Down Ports: e2d
-
Se nel nodo sono configurati gruppi di interfacce, registrare i nomi di tali gruppi e le porte ad essi assegnate, quindi eliminare le porte immettendo il seguente comando, una volta per ciascuna porta:
network port ifgrp remove-port -node nodename -ifgrp ifgrp_name -port netport
-