Impostazione di un ambiente di i/o scherma SFRAC su un sistema storage
-
PDF del sito di questa documentazione
-
Amministrazione per Linux
- Controllo degli accessi in base al ruolo in SnapDrive per UNIX
-
Installazione e amministrazione per Solaris
- Controllo degli accessi in base al ruolo in SnapDrive per UNIX
- Creazione e utilizzo di copie Snapshot in SnapDrive per UNIX
-
Installazione e amministrazione per IBM AIX
- Controllo degli accessi in base al ruolo in SnapDrive per UNIX
-
Amministrazione per Linux
Raccolta di documenti PDF separati
Creating your file...
SnapDrive per UNIX offre opzioni di provisioning dello storage e gestione Snapshot per gestire i gruppi di dischi locali e condivisi a livello di cluster host e i file system in un ambiente SFRAC.
-
Configurazione
rsh
oppuressh
manualmente per utilizzare il prompt di accesso senza password per l’utente root su tutti i nodi del cluster host.Per istruzioni sull’installazione, consultare la Veritas Cluster Server Installation Guide for Solaris.
-
Installare SnapDrive per UNIX su tutti i nodi del cluster host.
Se su nodi diversi sono installate versioni diverse di SnapDrive per UNIX, le operazioni di SnapDrive per UNIX non riescono.
-
Controllare la connettività FC tra i sistemi storage.
Per ulteriori informazioni sui requisiti hardware per gli host, consulta le Note di release di SFRAC.
Il /opt/NTAPsnapdrive/snapdrive.conf
file su tutti i nodi deve averedefault-transport
Variabile di configurazione impostata su FCP. -
Impostare un valore per
secure-communication-among-cluster-nodes
variabile di configurazione, per garantire che ilrsh
oppuressh
access-without-password-prompt per l’utente root è configurato per tutti i nodi nel cluster.Questo valore è necessario perché, se si avviano i comandi SnapDrive per UNIX da qualsiasi nodo (master o non master) nel cluster host, SnapDrive per UNIX esegue operazioni su altri nodi nel cluster host.
-
Verificare la presenza del rilevamento dei dispositivi sui nodi del cluster host eseguendo il seguente comando su ciascun nodo del cluster host:
snapdrive storage create -lun long_lun_name [lun_name…] -lunsize size [{-reserve | -noreserve}] [-igroup ig_name [ig_name …]]
# snapdrive storage create -lun f270-197-109:/vol/vol2/luntest -lunsize 20m LUN f270-197-109:/vol/vol2/luntest ... created mapping new lun(s) ... done discovering new lun(s) ... done LUN to device file mappings: -f270-197-109:/vol/vol2/luntest => /dev/vx/dmp/c5t0d6s2 # snapdrive storage delete -lun f270-197-109:/vol/vol2/luntest -lunsize 20m - LUN f270-197-109:/vol/vol2/luntest ... deleted