Migrare a un cluster commutato a due nodi nei sistemi FAS22xx con una singola connessione cluster-rete
Se si dispone di sistemi FAS22xx in un cluster switchless a due nodi esistente in cui ogni modulo controller ha una singola connessione 10 GbE back-to-back per la connettività del cluster, è possibile utilizzare l'opzione di rete del cluster switchless e sostituire la connettività back-to-back diretta con connessioni switch.
Requisiti di revisione
Assicurati di avere quanto segue:
-
Due connessioni cluster per la migrazione da una configurazione switchless a una configurazione switching.
-
Il cluster è sano ed è costituito da due nodi collegati tramite connettività back-to-back.
-
I nodi eseguono ONTAP 8.2 o versioni successive.
-
La funzionalità cluster senza switch non può essere utilizzata con più di due nodi.
-
Tutte le porte del cluster sono in
upstato.
Migrare gli switch
Questa procedura è una procedura non distruttiva che rimuove la connettività diretta del cluster in un ambiente switchless e sostituisce ogni connessione allo switch con una connessione al nodo partner.
Fase 1: Prepararsi alla migrazione
-
Cambia il livello di privilegio in avanzato, inserendo
yquando viene richiesto di continuare:set -privilege advancedIl prompt avanzato(
*>) appare. -
Controllare lo stato del cluster dei nodi nella console di sistema di uno dei due nodi:
cluster showMostra esempio
L'esempio seguente mostra informazioni sullo stato di integrità e sull'idoneità dei nodi nel cluster:
cluster::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------ ------------ node1 true true false node2 true true false 2 entries were displayed.
-
Controllare lo stato della coppia HA sulla console di sistema di uno dei due nodi:
storage failover showMostra esempio
L'esempio seguente mostra lo stato di node1 e node2:
Node Partner Possible State Description -------------- -------------- -------- ------------------------------------- node1 node2 true Connected to node2 node2 node1 true Connected to node1 2 entries were displayed.
-
Se AutoSupport è abilitato su questo cluster, sopprimere la creazione automatica dei casi richiamando un messaggio AutoSupport :
system node autosupport invoke -node * -type all -message MAINT=xh`x`è la durata della finestra di manutenzione in ore.
Il messaggio avvisa il supporto tecnico di questa attività di manutenzione, in modo che la creazione automatica dei casi venga soppressa durante la finestra di manutenzione. Mostra esempio
Il seguente comando sopprime la creazione automatica dei casi per due ore:
cluster::*> system node autosupport invoke -node * -type all -message MAINT=2h
-
Verificare che lo stato corrente del cluster switchless sia
truee quindi disabilitare la modalità cluster senza switch:network options switchless-cluster modify -enabled false -
Prendi il controllo del nodo di destinazione:
storage failover takeover -ofnode target_node_nameNon importa quale nodo sia il nodo di destinazione. Quando viene preso in carico, il nodo di destinazione si riavvia automaticamente e visualizza il
Waiting for giveback…messaggio.Il nodo attivo ora fornisce dati al nodo partner (destinazione) che è stato rilevato.
-
Attendere due minuti dopo l'acquisizione del nodo danneggiato per confermare che l'acquisizione è stata completata correttamente.
-
Con il nodo di destinazione che mostra il
Waiting for giveback…messaggio, spegnilo.Il metodo utilizzato per arrestare il nodo dipende dall'utilizzo della gestione remota tramite il Service Processor (SP) del nodo.
Se SP Poi… È configurato
Accedere al nodo SP danneggiato, quindi spegnere il sistema:
system power offNon è configurato
Al prompt del nodo danneggiato, premere
Ctrl-Ce poi rispondereyper fermare il nodo.
Passaggio 2: configurare cavi e porte
-
Su ciascun modulo controller, scollegare il cavo che collega la porta del cluster 10 GbE al cluster switchless.
-
Collegare la porta cluster 10 GbE allo switch su entrambi i moduli controller.
-
Verificare che le porte del cluster 10 GbE collegate allo switch siano configurate per far parte della stessa VLAN.
Se si prevede di connettere le porte del cluster su ciascun modulo controller a switch diversi, è necessario verificare che le porte su cui sono connesse le porte del cluster su ciascun switch siano configurate per la stessa VLAN e che il trunking sia configurato correttamente su entrambi gli switch.
-
Restituisci spazio di archiviazione al nodo di destinazione:
storage failover giveback -ofnode node2 -
Monitorare l'avanzamento dell'operazione di restituzione:
storage failover show-giveback -
Una volta completata l'operazione di restituzione, verificare che la coppia HA sia integra e che sia possibile il rilevamento:
storage failover showMostra esempio
L'output dovrebbe essere simile al seguente:
Node Partner Possible State Description -------------- -------------- -------- ------------------------------------- node1 node2 true Connected to node2 node2 node1 true Connected to node1 2 entries were displayed.
-
Verificare che i LIF delle porte del cluster funzionino correttamente:
network interface show -role clusterMostra esempio
L'esempio seguente mostra che i LIF sono
upsu node1 e node2 e che i risultati della colonna "Is Home" sonotrue:cluster::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- node1 clus1 up/up 192.168.177.121/24 node1 e1a true node2 clus1 up/up 192.168.177.123/24 node2 e1a true 2 entries were displayed. -
Controllare lo stato del cluster dei nodi nella console di sistema di uno dei due nodi:
cluster showMostra esempio
L'esempio seguente mostra informazioni sullo stato di integrità e sull'idoneità dei nodi nel cluster:
cluster::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------ ------------ node1 true true false node2 true true false 2 entries were displayed.
-
Verificare la connettività delle interfacce del cluster remoto:
Puoi usare il network interface check cluster-connectivity comando per avviare un controllo di accessibilità per la connettività del cluster e quindi visualizzare i dettagli:
network interface check cluster-connectivity start`E `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
NOTA: Attendere alcuni secondi prima di eseguire il show comando per visualizzare i dettagli.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
node1
3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none
3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none
node2
3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none
3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Per tutte le versioni ONTAP , è anche possibile utilizzare cluster ping-cluster -node <name> comando per verificare la connettività:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e0a Cluster node1_clus2 169.254.49.125 node1 e0b Cluster node2_clus1 169.254.47.194 node2 e0a Cluster node2_clus2 169.254.19.183 node2 e0b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status:.... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
Fase 3: Completare la procedura
-
Se hai disattivato la creazione automatica dei casi, riattivala richiamando un messaggio AutoSupport :
system node autosupport invoke -node * -type all -message MAINT=ENDMostra esempio
cluster::*> system node autosupport invoke -node * -type all -message MAINT=END
-
Ripristinare il livello di privilegio su amministratore:
set -privilege admin