Configurazione host NVMe-of per RHEL 10 con ONTAP
Le configurazioni host SAN di NetApp supportano il protocollo NVMe over Fabrics (NVMe-of) con l'Asymmetric Namespace Access (ANA). Negli ambienti NVMe-of, ANA equivale al multipathing ALUA (Asymmetric Logical Unit Access) in ambienti iSCSI e FCP. ANA è implementato utilizzando la funzione multipath NVMe nel kernel.
Con la configurazione host NVMe-of per Red Hat Enterprise Linux (RHEL) 10 puoi utilizzare il seguente supporto e funzionalità. Prima di avviare il processo di configurazione, è inoltre necessario esaminare le limitazioni note.
-
Supporto disponibile:
-
Supporto di NVMe over TCP (NVMe/TCP) oltre a NVMe over Fibre Channel (NVMe/FC). Il plug-in NetApp nel pacchetto nativo
nvme-cli
mostra i dettagli ONTAP per i namespace NVMe/FC e NVMe/TCP. -
Esecuzione di traffico NVMe e SCSI sullo stesso host. Ad esempio, è possibile configurare dm-multipath per i dispositivi SCSI mpath su LUN SCSI e utilizzare NVMe multipath per configurare i dispositivi dello spazio dei nomi NVMe-oF sull'host.
-
A partire da ONTAP 9.12.1, viene introdotto il supporto per l'autenticazione sicura in-band per NVMe/TCP. È possibile utilizzare l'autenticazione sicura in-band per NVMe/TCP con RHEL 10.
Per ulteriori informazioni sulle configurazioni supportate, vedere "Tool di matrice di interoperabilità".
-
-
Funzioni disponibili:
-
A partire da RHEL 10, il multipathing NVMe nativo è sempre abilitato e il supporto multipath DM per NVMe-oF non è supportato.
-
-
Limitazioni note:
-
Evitare di emettere il
nvme disconnect-all
comando sui sistemi che si avviano da SAN tramite namespace NVMe-TCP o NVMe-FC perché disconnette sia i file system root che quelli dati e potrebbe causare instabilità del sistema.
-
Passaggio 1: Se lo si desidera, attivare l'avvio SAN
È possibile configurare l'host in modo che utilizzi l'avvio SAN per semplificare l'installazione e migliorare la scalabilità.
Utilizzare "Tool di matrice di interoperabilità"per verificare che il sistema operativo Linux, l'HBA (host Bus Adapter), il firmware HBA, il BIOS di avvio HBA e la versione ONTAP supportino l'avvio SAN.
-
Abilitare l'avvio SAN nel BIOS del server per le porte su cui è mappato lo spazio dei nomi di avvio SAN.
Per informazioni su come attivare il BIOS HBA, consultare la documentazione specifica del vendor.
-
Verificare che la configurazione sia stata eseguita correttamente riavviando l'host e verificando che il sistema operativo sia attivo e funzionante.
Passaggio 2: convalidare le versioni del software
Utilizzare la seguente procedura per convalidare le versioni minime supportate del software RHEL 10.
-
Installare RHEL 10 sul server. Una volta completata l'installazione, verificare che il kernel RHEL 10 specificato sia in esecuzione:
uname -r
L'esempio seguente mostra una versione del kernel RHEL:
6.12.0-55.9.1.el10_0.x86_64
-
Installare
nvme-cli
pacchetto:rpm -qa|grep nvme-cli
L'esempio seguente mostra un
nvme-cli
versione del pacchetto:nvme-cli-2.11-5.el10.x86_64
-
Installare
libnvme
pacchetto:rpm -qa|grep libnvme
L'esempio seguente mostra un
libnvme
versione del pacchetto:libnvme-1.11.1-1.el10.x86_64
-
Sull'host, controlla la stringa hostnqn in
/etc/nvme/hostnqn
:cat /etc/nvme/hostnqn
L'esempio seguente mostra un
hostnqn
versione:nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-b9c04f425633
-
Verificare che il
hostnqn
la stringa corrisponde a.hostnqn
Stringa per il sottosistema corrispondente sull'array ONTAP:::> vserver nvme subsystem host show -vserver vs_nvme_194_rhel10
Mostra esempio
Vserver Subsystem Priority Host NQN ------- --------- -------- ------------------------------------------------ vs_ nvme_194_rhel10 nvme4 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_1 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_2 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_3 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 4 entries were displayed.
Se il hostnqn
le stringhe non corrispondono, utilizzarevserver modify
per aggiornarehostnqn
Stringa sul sottosistema di array ONTAP corrispondente ahostnqn
stringa da/etc/nvme/hostnqn
sull'host.
Passaggio 3: configurare NVMe/FC
È possibile configurare NVMe/FC con adattatori FC Broadcom/Emulex FC o Marvell/Qlogic. Per NVMe/FC configurato con un adattatore Broadcom, è possibile abilitare richieste di i/o di dimensioni pari a 1 MB.
Configurare NVMe/FC per un adattatore Broadcom/Emulex.
-
Verificare di utilizzare il modello di adattatore supportato:
-
Visualizza i nomi dei modelli:
cat /sys/class/scsi_host/host*/modelname
Viene visualizzato il seguente output:
LPe36002-M64 LPe36002-M64
-
Visualizza le descrizioni dei modelli:
cat /sys/class/scsi_host/host*/modeldesc
Dovresti vedere un output simile al seguente esempio:
Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter
-
-
Verificare di utilizzare il Broadcom consigliato
lpfc
firmware e driver della posta in arrivo:-
Visualizza la versione del firmware:
cat /sys/class/scsi_host/host*/fwrev
L'esempio seguente mostra le versioni del firmware:
14.0.539.16, sli-4:6:d 14.0.539.16, sli-4:6:d
-
Visualizza la versione del driver in arrivo:
cat /sys/module/lpfc/version
L'esempio seguente mostra la versione del driver:
0:14.4.0.6
Per l'elenco aggiornato dei driver della scheda di rete supportati e delle versioni del firmware, vedere "Tool di matrice di interoperabilità".
-
-
Verificare che l'output previsto di
lpfc_enable_fc4_type
sia impostato su3
:cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
-
Verificare che sia possibile visualizzare le porte dell'iniziatore:
cat /sys/class/fc_host/host*/port_name
L'esempio seguente mostra le identità delle porte:
0x2100f4c7aa0cd7c2 0x2100f4c7aa0cd7c3
-
Verificare che le porte dell'iniziatore siano in linea:
cat /sys/class/fc_host/host*/port_state
Viene visualizzato il seguente output:
Online Online
-
Verificare che le porte iniziatore NVMe/FC siano abilitate e che le porte di destinazione siano visibili:
cat /sys/class/scsi_host/host*/nvme_info
Mostra esempio
NVME Initiator Enabled XRI Dist lpfc2 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc2 WWPN x100000109bf044b1 WWNN x200000109bf044b1 DID x022a00 ONLINE NVME RPORT WWPN x202fd039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x021310 TARGET DISCSRVC ONLINE NVME RPORT WWPN x202dd039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x020b10 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000000810 Cmpl 0000000810 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000007b098f07 Issue 000000007aee27c4 OutIO ffffffffffe498bd abort 000013b4 noxri 00000000 nondlp 00000058 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 000013b4 Err 00021443 NVME Initiator Enabled XRI Dist lpfc3 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc3 WWPN x100000109bf044b2 WWNN x200000109bf044b2 DID x021b00 ONLINE NVME RPORT WWPN x2033d039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x020110 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2032d039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x022910 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000000840 Cmpl 0000000840 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000007afd4434 Issue 000000007ae31b83 OutIO ffffffffffe5d74f abort 000014a5 noxri 00000000 nondlp 0000006a qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 000014a5 Err 0002149a
Configurare NVMe/FC per un adattatore Marvell/QLogic.
-
Verificare che siano in esecuzione le versioni del firmware e del driver dell'adattatore supportate:
cat /sys/class/fc_host/host*/symbolic_name
L'esempio seguente mostra le versioni del driver e del firmware:
QLE2872 FW:v9.15.00 DVR:v10.02.09.300-k QLE2872 FW:v9.15.00 DVR:v10.02.09.300-k
-
Verificare che
ql2xnvmeenable
è impostato. Ciò consente all'adattatore Marvell di funzionare come iniziatore NVMe/FC:cat /sys/module/qla2xxx/parameters/ql2xnvmeenable
Il risultato previsto è 1.
Passaggio 4: facoltativamente, abilitare 1 MB I/O
ONTAP riporta un MDTS (MAX Data Transfer Size) di 8 nei dati del controller di identificazione. Ciò significa che le dimensioni massime delle richieste i/o possono essere fino a 1MB MB. Per emettere richieste di i/o di dimensioni pari a 1 MB per un host Broadcom NVMe/FC, è necessario aumentare il lpfc
valore del lpfc_sg_seg_cnt
parametro a 256 dal valore predefinito di 64.
|
Questi passaggi non si applicano agli host Qlogic NVMe/FC. |
-
Impostare il
lpfc_sg_seg_cnt
parametro su 256:cat /etc/modprobe.d/lpfc.conf
Dovresti vedere un output simile al seguente esempio:
options lpfc lpfc_sg_seg_cnt=256
-
Eseguire il
dracut -f
comando e riavviare l'host. -
Verificare che il valore per
lpfc_sg_seg_cnt
sia 256:cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
Passaggio 5: verificare i servizi di avvio NVMe
Con RHEL 10, il nvmefc-boot-connections.service
E nvmf-autoconnect.service
servizi di avvio inclusi in NVMe/FC nvme-cli
I pacchetti vengono abilitati automaticamente all'avvio del sistema.
Dopo aver completato l'avvio, verificare che nvmefc-boot-connections.service
E nvmf-autoconnect.service
i servizi di avvio sono abilitati.
-
Verificare che
nvmf-autoconnect.service
sia attivato:systemctl status nvmf-autoconnect.service
Mostra output di esempio
nvmf-autoconnect.service - Connect NVMe-oF subsystems automatically during boot Loaded: loaded (/usr/lib/systemd/system/nvmf-autoconnect.service; enabled; preset: disabled) Active: inactive (dead) Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: Starting Connect NVMe-oF subsystems automatically during boot... Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: nvmf-autoconnect.service: Deactivated successfully. Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: Finished Connect NVMe-oF subsystems automatically during boot.
-
Verificare che
nvmefc-boot-connections.service
sia attivato:systemctl status nvmefc-boot-connections.service
Mostra output di esempio
nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot Loaded: loaded (/usr/lib/systemd/system/nvmefc-boot-connections.service; enabled; preset: enabled) Active: inactive (dead) since Tue 2025-06-10 01:08:36 EDT; 2h 59min ago Main PID: 7090 (code=exited, status=0/SUCCESS) CPU: 30ms Jun 10 01:08:36 localhost systemd[1]: Starting Auto-connect to subsystems on FC-NVME devices found during boot... Jun 10 01:08:36 localhost systemd[1]: nvmefc-boot-connections.service: Deactivated successfully. Jun 10 01:08:36 localhost systemd[1]: Finished Auto-connect to subsystems on FC-NVME devices found during boot.
Passaggio 6: configurare NVMe/TCP
Il protocollo NVMe/TCP non supporta tale auto-connect
operazione. Invece, puoi rilevare i sottosistemi NVMe/TCP e gli spazi dei nomi eseguendo manualmente le operazioni NVMe/TCP connect
o connect-all
.
-
Verificare che la porta iniziatore possa recuperare i dati della pagina del registro di rilevamento attraverso le LIF NVMe/TCP supportate:
nvme discover -t tcp -w host-traddr -a traddr
Mostra esempio
nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.20 Discovery Log Number of Records 8, Generation counter 18 =====Discovery Log Entry 0====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 4 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.21.21 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 1====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 2 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.20.21 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 2====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 3 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.21.20 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 3====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 1 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.20.20 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 4====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 4 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.21.21 eflags: none sectype: none =====Discovery Log Entry 5====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 2 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.20.21 eflags: none sectype: none =====Discovery Log Entry 6====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 3 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.21.20 eflags: none sectype: none =====Discovery Log Entry 7====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 1 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.20.20 eflags: none sectype: none
-
Verificare che le altre combinazioni LIF iniziatore-destinazione NVMe/TCP possano recuperare correttamente i dati della pagina del registro di rilevamento:
nvme discover -t tcp -w host-traddr -a traddr
Mostra esempio
nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.20 nvme discover -t tcp -w 192.168.21.1 -a 192.168.21.20 nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.21 nvme discover -t tcp -w 192.168.21.1 -a 192.168.21.21
-
Eseguire
nvme connect-all
Command tra tutti i LIF target initiator NVMe/TCP supportati nei nodi:nvme connect-all -t tcp -w host-traddr -a traddr
Mostra esempio
nvme connect-all -t tcp -w 192.168.20.1 -a 192.168.20.20 nvme connect-all -t tcp -w 192.168.21.1 -a 192.168.21.20 nvme connect-all -t tcp -w 192.168.20.1 -a 192.168.20.21 nvme connect-all -t tcp -w 192.168.21.1 -a 192.168.21.21
|
A partire da RHEL 9.4, l'impostazione per NVMe/TCP
|
Passaggio 7: convalida NVMe-oF
Verificare che lo stato multipath NVMe in-kernel, lo stato ANA e i namespace ONTAP siano corretti per la configurazione NVMe-of.
-
Verificare che il multipath NVMe nel kernel sia attivato:
cat /sys/module/nvme_core/parameters/multipath
Viene visualizzato il seguente output:
Y
-
Verificare che le impostazioni NVMe-of appropriate (ad esempio, modello impostato su controller NetApp ONTAP e ipopolicy per il bilanciamento del carico impostato su round-robin) per i rispettivi spazi dei nomi ONTAP si riflettano correttamente sull'host:
-
Visualizza i sottosistemi:
cat /sys/class/nvme-subsystem/nvme-subsys*/model
Viene visualizzato il seguente output:
NetApp ONTAP Controller NetApp ONTAP Controller
-
Visualizza la politica:
cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
Viene visualizzato il seguente output:
round-robin round-robin
-
-
Verificare che gli spazi dei nomi siano stati creati e rilevati correttamente sull'host:
nvme list
Mostra esempio
Node SN Model --------------------------------------------------------- /dev/nvme4n1 81Ix2BVuekWcAAAAAAAB NetApp ONTAP Controller Namespace Usage Format FW Rev ----------------------------------------------------------- 1 21.47 GB / 21.47 GB 4 KiB + 0 B FFFFFFFF
-
Verificare che lo stato del controller di ciascun percorso sia attivo e che abbia lo stato ANA corretto:
NVMe/FCnvme list-subsys /dev/nvme5n1
Mostra esempio
nvme-subsys5 - NQN=nqn.1992-08.com.netapp:sn.f7565b15a66911ef9668d039ea951c46:subsystem.nvme1 hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c7c04f425633 \ +- nvme126 fc traddr=nn-0x2036d039ea951c45:pn-0x2038d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c3:pn-0x2100f4c7aa0cd7c3 live optimized +- nvme176 fc traddr=nn-0x2036d039ea951c45:pn-0x2037d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c2:pn-0x2100f4c7aa0cd7c2 live optimized +- nvme5 fc traddr=nn-0x2036d039ea951c45:pn-0x2039d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c2:pn-0x2100f4c7aa0cd7c2 live non-optimized +- nvme71 fc traddr=nn-0x2036d039ea951c45:pn-0x203ad039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c3:pn-0x2100f4c7aa0cd7c3 live non-optimized
NVMe/TCPnvme list-subsys /dev/nvme4n2
Mostra esempio
nvme-subsys4 - NQN=nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.nvme4 hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33 \ +- nvme102 tcp traddr=192.168.21.20,trsvcid=4420,host_traddr=192.168.21.1,src_addr=192.168.21.1 live non-optimized +- nvme151 tcp traddr=192.168.21.21,trsvcid=4420,host_traddr=192.168.21.1,src_addr=192.168.21.1 live optimized +- nvme4 tcp traddr=192.168.20.20,trsvcid=4420,host_traddr=192.168.20.1,src_addr=192.168.20.1 live non-optimized +- nvme53 tcp traddr=192.168.20.21,trsvcid=4420,host_traddr=192.168.20.1,src_addr=192.168.20.1 live optimized
-
Verificare che il plug-in NetApp visualizzi i valori corretti per ciascun dispositivo dello spazio dei nomi ONTAP:
Colonnanvme netapp ontapdevices -o column
Mostra esempio
Device Vserver Namespace Path ----------------------- ------------------------------ /dev/nvme10n1 vs_tcp_rhel10 /vol/vol10/ns10 NSID UUID Size ----------------------- ------------------------------ 1 bbf51146-fc64-4197-b8cf-8a24f6f359b3 21.47GB
JSONnvme netapp ontapdevices -o json
Mostra esempio
{ "ONTAPdevices":[ { "Device":"/dev/nvme10n1", "Vserver":"vs_tcp_rhel10", "Namespace_Path":"/vol/vol10/ns10", "NSID":1, "UUID":"bbf51146-fc64-4197-b8cf-8a24f6f359b3", "Size":"21.47GB", "LBA_Data_Size":4096, "Namespace_Size":5242880 } ] }
Passaggio 8: impostare l'autenticazione in-band sicura
A partire da ONTAP 9.12.1, l'autenticazione in-band sicura è supportata tramite NVMe/TCP tra un host RHEL 10 e un controller ONTAP.
Ogni host o controller deve essere associato a un DH-HMAC-CHAP
chiave per impostare l'autenticazione sicura. Una DH-HMAC-CHAP
La chiave è una combinazione dell'NQN dell'host o del controller NVMe e di un segreto di autenticazione configurato dall'amministratore. Per autenticare il proprio peer, un host o un controller NVMe deve riconoscere la chiave associata al peer.
Imposta l'autenticazione in-band sicura tramite la CLI o un file JSON di configurazione. Se è necessario specificare chiavi dhchap diverse per sottosistemi diversi, è necessario utilizzare un file di configurazione JSON.
Configurare l'autenticazione in banda protetta utilizzando la CLI.
-
Ottenere l'NQN dell'host:
cat /etc/nvme/hostnqn
-
Generare la chiave dhCHAP per l'host RHEL 10.
L'output seguente descrive i
gen-dhchap-key
parametri dei comandi:nvme gen-dhchap-key -s optional_secret -l key_length {32|48|64} -m HMAC_function {0|1|2|3} -n host_nqn • -s secret key in hexadecimal characters to be used to initialize the host key • -l length of the resulting key in bytes • -m HMAC function to use for key transformation 0 = none, 1- SHA-256, 2 = SHA-384, 3=SHA-512 • -n host NQN to use for key transformation
Nell'esempio seguente, viene generata una chiave casuale dhCHAP con HMAC impostato su 3 (SHA-512).
nvme gen-dhchap-key -m 3 -n nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33 DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
Sul controller ONTAP, aggiungere l'host e specificare entrambe le chiavi dhchap:
vserver nvme subsystem host add -vserver <svm_name> -subsystem <subsystem> -host-nqn <host_nqn> -dhchap-host-secret <authentication_host_secret> -dhchap-controller-secret <authentication_controller_secret> -dhchap-hash-function {sha-256|sha-512} -dhchap-group {none|2048-bit|3072-bit|4096-bit|6144-bit|8192-bit}
-
Un host supporta due tipi di metodi di autenticazione, unidirezionale e bidirezionale. Sull'host, connettersi al controller ONTAP e specificare le chiavi dhchap in base al metodo di autenticazione scelto:
nvme connect -t tcp -w <host-traddr> -a <tr-addr> -n <host_nqn> -S <authentication_host_secret> -C <authentication_controller_secret>
-
Convalidare
nvme connect authentication
comando verificando le chiavi dhchap dell'host e del controller:-
Verificare le chiavi dhchap dell'host:
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_secret
Mostra output di esempio per una configurazione unidirezionale
cat /sys/class/nvme-subsystem/nvme-subsys1/nvme*/dhchap_secret DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=:
-
Verificare i tasti dhchap del controller:
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_ctrl_secret
Mostra output di esempio per una configurazione bidirezionale
cat /sys/class/nvme-subsystem/nvme-subsys6/nvme*/dhchap_ctrl_secret DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
Quando sulla configurazione del controller ONTAP sono disponibili più sottosistemi NVMe, è possibile utilizzare il /etc/nvme/config.json
file con il nvme connect-all
comando.
Utilizzare il -o
opzione per generare il file JSON. Per ulteriori opzioni di sintassi, consultare le pagine del manuale di NVMe Connect-all.
-
Configurare il file JSON.
Nell'esempio seguente, dhchap_key
corrisponde adhchap_secret
Edhchap_ctrl_key
corrisponde adhchap_ctrl_secret
.Mostra esempio
cat /etc/nvme/config.json [ { "hostnqn":"nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33", "hostid":"4c4c4544-0035-5910-804b-c2c04f444d33", "dhchap_key":"DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:", "subsystems":[ { "nqn":"nqn.1992-08.com.netapp:sn.127ade26168811f0a50ed039eab69ad3:subsystem.inband_unidirectional", "ports":[ { "transport":"tcp", "traddr":"192.168.20.17", "host_traddr":"192.168.20.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.20.18", "host_traddr":"192.168.20.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.21.18", "host_traddr":"192.168.21.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.21.17", "host_traddr":"192.168.21.1", "trsvcid":"4420" }]
-
Connettersi al controller ONTAP utilizzando il file di configurazione JSON:
nvme connect-all -J /etc/nvme/config.json
Mostra esempio
traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected
-
Verificare che i segreti dhchap siano stati abilitati per i rispettivi controller per ciascun sottosistema.
-
Verificare le chiavi dhchap dell'host:
cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_secret
L'esempio seguente mostra una chiave dhchap:
DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1 aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
Verificare i tasti dhchap del controller:
cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_ctrl_secret
Dovresti vedere un output simile al seguente esempio:
DHHC-1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jT mzEKUbcWu26I33b93bil2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=:
-
Fase 9: Esaminare i problemi noti
Non ci sono problemi noti.