Skip to main content
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Spostare gli aggregati non root e le LIF dei dati NAS di proprietà del node1 al node2

Collaboratori

Prima di poter sostituire il node1 con il node3, è necessario spostare gli aggregati non root e le LIF dei dati NAS da node1 a node2 prima di spostare le risorse del node1 al node3.

Prima di iniziare

L'operazione deve essere già in pausa quando si avvia l'operazione; è necessario ripristinarla manualmente.

A proposito di questa attività

Le LIF remote gestiscono il traffico verso le LUN SAN durante la procedura di aggiornamento. Lo spostamento delle LIF SAN non è necessario per lo stato del cluster o del servizio durante l'aggiornamento. Dopo aver portato il nodo 3 online, è necessario verificare che i file LIF siano integri e posizionati su porte appropriate.

Nota Il proprietario domestico degli aggregati e dei LIF non viene modificato; viene modificato solo il proprietario corrente.
Fasi
  1. Riprendere le operazioni di trasferimento aggregato e spostamento LIF dei dati NAS:

    system controller replace resume

    Tutti gli aggregati non root e le LIF dei dati NAS vengono migrati da node1 a node2.

    L'operazione viene interrotta per consentire di verificare se tutti gli aggregati non root e le LIF di dati non SAN node1 sono stati migrati in node2.

  2. Controllare lo stato delle operazioni di trasferimento aggregato e LIF dei dati NAS:

    system controller replace show-details

  3. Con l'operazione ancora in pausa, verificare che tutti gli aggregati non root siano in linea per il loro stato su node2:

    storage aggregate show -node node2 -state online -root false

    L'esempio seguente mostra che gli aggregati non root su node2 sono online:

    cluster::> storage aggregate show -node node2 state online -root false
    
    Aggregate  Size     Available  Used%  State  #Vols  Nodes  RAID Status
    ---------  -------  ---------  -----  ------ -----  ------ --------------
    aggr_1     744.9GB  744.8GB    0%     online     5  node2  raid_dp,normal
    aggr_2     825.0GB  825.0GB    0%     online     1  node2  raid_dp,normal
    2 entries were displayed.

    Se gli aggregati sono andati offline o diventano estranei sul node2, portarli online usando il seguente comando su node2, una volta per ogni aggregato:

    storage aggregate online -aggregate aggr_name

  4. Verificare che tutti i volumi siano online sul nodo 2 utilizzando il seguente comando sul nodo 2 ed esaminandone l'output:

    volume show -node node2 -state offline

    Se alcuni volumi sono offline sul nodo 2, portarli online utilizzando il seguente comando sul nodo 2, una volta per ogni volume:

    volume online -vserver vserver_name -volume volume_name

    Il vserver_name da utilizzare con questo comando si trova nell'output del precedente volume show comando.

  5. se le porte che attualmente ospitano i file LIF dei dati non esistono sul nuovo hardware, rimuoverle dal dominio di trasmissione:

    network port broadcast-domain remove-ports

  6. Se le LIF non sono attive, impostare lo stato amministrativo delle LIF su up Immettendo il seguente comando, una volta per ogni LIF:

    network interface modify -vserver vserver_name -lif LIF_name-home-node nodename -status-admin up

  7. Se sono stati configurati gruppi di interfacce o VLAN, completare i seguenti passaggi secondari:

    1. Se non sono già state salvate, registrare le informazioni relative alla VLAN e al gruppo di interfacce in modo da poter ricreare le VLAN e i gruppi di interfacce sul nodo 3 dopo l'avvio del nodo 3.

    2. Rimuovere le VLAN dai gruppi di interfacce:

      network port vlan delete -node nodename -port ifgrp -vlan-id VLAN_ID

      Nota Seguire l'azione correttiva per risolvere eventuali errori suggeriti dal comando di eliminazione della vlan.
    3. Immettere il seguente comando ed esaminare il relativo output per verificare l'eventuale presenza di gruppi di interfacce configurati sul nodo:

      network port ifgrp show -node nodename -ifgrp ifgrp_name -instance

      Il sistema visualizza le informazioni sul gruppo di interfacce per il nodo, come illustrato nell'esempio seguente:

    cluster::> network port ifgrp show -node node1 -ifgrp a0a -instance
                     Node: node1
     Interface Group Name: a0a
    Distribution Function: ip
            Create Policy: multimode_lacp
              MAC Address: 02:a0:98:17:dc:d4
       Port Participation: partial
            Network Ports: e2c, e2d
                 Up Ports: e2c
               Down Ports: e2d
    1. Se nel nodo sono configurati gruppi di interfacce, registrare i nomi di tali gruppi e le porte ad essi assegnate, quindi eliminare le porte immettendo il seguente comando, una volta per ciascuna porta:

      network port ifgrp remove-port -node nodename -ifgrp ifgrp_name -port netport