Konfigurieren Sie Rocky Linux 10 für NVMe-oF mit ONTAP-Speicher
NetApp SAN-Host-Konfigurationen unterstützen das NVMe over Fabrics (NVMe-of)-Protokoll mit Asymmetric Namespace Access (ANA). In NVMe-of Umgebungen entspricht ANA dem Multipathing des Asymmetric Logical Unit Access (ALUA) in iSCSI- und FCP-Umgebungen. ANA ist mit der in-Kernel NVMe Multipath-Funktion implementiert.
Sie können die folgende Unterstützung und Funktionen mit der NVMe-oF-Hostkonfiguration für Rocky Linux 10 verwenden. Sie sollten auch die bekannten Einschränkungen überprüfen, bevor Sie mit dem Konfigurationsprozess beginnen.
-
Support verfügbar:
-
Unterstützung für NVMe over TCP (NVMe/TCP) neben NVMe over Fibre Channel (NVMe/FC) Über das NetApp-Plug-in im nativen
nvme-cli
Paket werden ONTAP-Details sowohl für NVMe/FC- als auch für NVMe/TCP-Namespaces angezeigt. -
Ausführen von NVMe- und SCSI-Datenverkehr auf demselben Host. Sie können beispielsweise dm-multipath für SCSI-mpath-Geräte auf SCSI-LUNs konfigurieren und NVMe-Multipath verwenden, um NVMe-oF-Namespace-Geräte auf dem Host zu konfigurieren.
-
Ab ONTAP 9.12.1 wird die sichere In-Band-Authentifizierung für NVMe/TCP unterstützt. Sie können mit Rocky Linux 10 eine sichere In-Band-Authentifizierung für NVMe/TCP verwenden.
Weitere Informationen zu unterstützten Konfigurationen finden Sie im "Interoperabilitäts-Matrix-Tool".
-
-
Verfügbare Funktionen:
-
Ab Rocky Linux 10 ist natives NVMe-Multipathing immer aktiviert und DM-Multipath-Unterstützung für NVMe-oF wird nicht unterstützt.
-
-
Bekannte Einschränkungen:
-
Vermeiden Sie die Ausgabe von
nvme disconnect-all
Befehl auf Systemen, die von SAN über NVMe-TCP- oder NVMe-FC-Namespaces booten, da er sowohl Root- als auch Datendateisysteme trennt und zu Systeminstabilität führen kann.
-
Schritt 1: Aktivieren Sie optional den SAN-Bootvorgang
Sie können Ihren Host so konfigurieren, dass er SAN-Booting verwendet, um die Bereitstellung zu vereinfachen und die Skalierbarkeit zu verbessern.
Überprüfen Sie mithilfe des"Interoperabilitäts-Matrix-Tool", ob Ihr Linux-Betriebssystem, Ihr Host Bus Adapter (HBA), die HBA-Firmware, das HBA-Boot-BIOS und die ONTAP-Version das Booten über das SAN unterstützen.
-
"Erstellen Sie einen SAN-Boot-Namespace und ordnen Sie ihn dem Host zu".
-
Aktivieren Sie das SAN-Booten im Server-BIOS für die Ports, denen der SAN-Boot-Namespace zugeordnet ist.
Informationen zum Aktivieren des HBA-BIOS finden Sie in der anbieterspezifischen Dokumentation.
-
Überprüfen Sie, ob die Konfiguration erfolgreich war, indem Sie den Host neu starten und überprüfen, ob das Betriebssystem ausgeführt wird.
Schritt 2: Softwareversionen validieren
Verwenden Sie das folgende Verfahren, um die mindestens unterstützten Rocky Linux 10-Softwareversionen zu validieren.
-
Installieren Sie Rocky Linux 10 auf dem Server. Überprüfen Sie nach Abschluss der Installation, ob Sie den angegebenen Rocky Linux 10-Kernel verwenden:
uname -r
Das folgende Beispiel zeigt eine Rocky Linux-Kernelversion:
6.12.0-55.9.1.el10_0.x86_64
-
Installieren Sie den
nvme-cli
Paket:rpm -qa|grep nvme-cli
Das folgende Beispiel zeigt eine
nvme-cli
Paketversion:nvme-cli-2.11-5.el10.x86_64
-
Installieren Sie den
libnvme
Paket:rpm -qa|grep libnvme
Das folgende Beispiel zeigt eine
libnvme
Paketversion:libnvme-1.11.1-1.el10.x86_64
-
Überprüfen Sie auf dem Host die Hostnqn-Zeichenfolge unter
/etc/nvme/hostnqn
:cat /etc/nvme/hostnqn
Das folgende Beispiel zeigt eine
hostnqn
Version:nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-b9c04f425633
-
Überprüfen Sie das
hostnqn
Die Zeichenfolge entspricht derhostnqn
String für das entsprechende Subsystem auf dem ONTAP-Array:::> vserver nvme subsystem host show -vserver vs_nvme_194_rockylinux10
Beispiel anzeigen
Vserver Subsystem Priority Host NQN ------- --------- -------- ------------------------------------------------ vs_ nvme_194_rockylinux10 nvme4 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_1 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_2 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_3 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 4 entries were displayed.
Wenn der hostnqn
Zeichenfolgen stimmen nicht überein. Verwenden Sie dievserver modify
Befehl zum Aktualisieren deshostnqn
Zeichenfolge auf dem entsprechenden ONTAP-Array-Subsystem, die dem entsprichthostnqn
Zeichenfolge von/etc/nvme/hostnqn
Auf dem Host.
Schritt 3: NVMe/FC konfigurieren
Sie können NVMe/FC mit Broadcom/Emulex FC- oder Marvell/Qlogic FC-Adaptern konfigurieren. Bei NVMe/FC, die mit einem Broadcom-Adapter konfiguriert sind, können Sie I/O-Anforderungen mit einer Größe von 1 MB aktivieren.
Konfigurieren Sie NVMe/FC für einen Broadcom/Emulex-Adapter.
-
Stellen Sie sicher, dass Sie das unterstützte Adaptermodell verwenden:
-
Zeigen Sie die Modellnamen an:
cat /sys/class/scsi_host/host*/modelname
Die folgende Ausgabe sollte angezeigt werden:
LPe36002-M64 LPe36002-M64
-
Zeigen Sie die Modellbeschreibungen an:
cat /sys/class/scsi_host/host*/modeldesc
Sie sollten eine Ausgabe ähnlich dem folgenden Beispiel sehen:
Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter
-
-
Vergewissern Sie sich, dass Sie das empfohlene Broadcom verwenden
lpfc
Firmware und Inbox-Treiber:-
Anzeige der Firmware-Version:
cat /sys/class/scsi_host/host*/fwrev
Das folgende Beispiel zeigt Firmware-Versionen:
14.0.539.16, sli-4:6:d 14.0.539.16, sli-4:6:d
-
Zeigen Sie die Posteingangstreiberversion an:
cat /sys/module/lpfc/version
Das folgende Beispiel zeigt eine Treiberversion:
0:14.4.0.6
Die aktuelle Liste der unterstützten Adaptertreiber- und Firmware-Versionen finden Sie im "Interoperabilitäts-Matrix-Tool".
-
-
Stellen Sie sicher, dass die erwartete Ausgabe von
lpfc_enable_fc4_type
auf eingestellt ist3
:cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
-
Vergewissern Sie sich, dass Sie Ihre Initiator-Ports anzeigen können:
cat /sys/class/fc_host/host*/port_name
Das folgende Beispiel zeigt Portidentitäten:
0x2100f4c7aa0cd7c2 0x2100f4c7aa0cd7c3
-
Überprüfen Sie, ob Ihre Initiator-Ports online sind:
cat /sys/class/fc_host/host*/port_state
Die folgende Ausgabe sollte angezeigt werden:
Online Online
-
Vergewissern Sie sich, dass die NVMe/FC-Initiator-Ports aktiviert sind und die Ziel-Ports sichtbar sind:
cat /sys/class/scsi_host/host*/nvme_info
Beispiel anzeigen
NVME Initiator Enabled XRI Dist lpfc2 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc2 WWPN x100000109bf044b1 WWNN x200000109bf044b1 DID x022a00 ONLINE NVME RPORT WWPN x202fd039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x021310 TARGET DISCSRVC ONLINE NVME RPORT WWPN x202dd039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x020b10 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000000810 Cmpl 0000000810 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000007b098f07 Issue 000000007aee27c4 OutIO ffffffffffe498bd abort 000013b4 noxri 00000000 nondlp 00000058 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 000013b4 Err 00021443 NVME Initiator Enabled XRI Dist lpfc3 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc3 WWPN x100000109bf044b2 WWNN x200000109bf044b2 DID x021b00 ONLINE NVME RPORT WWPN x2033d039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x020110 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2032d039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x022910 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000000840 Cmpl 0000000840 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000007afd4434 Issue 000000007ae31b83 OutIO ffffffffffe5d74f abort 000014a5 noxri 00000000 nondlp 0000006a qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 000014a5 Err 0002149a
Konfigurieren Sie NVMe/FC für einen Marvell/QLogic-Adapter.
-
Vergewissern Sie sich, dass der unterstützte Adaptertreiber und die unterstützten Firmware-Versionen ausgeführt werden:
cat /sys/class/fc_host/host*/symbolic_name
Das folgende Beispiel zeigt Treiber- und Firmware-Versionen:
QLE2872 FW:v9.15.00 DVR:v10.02.09.300-k QLE2872 FW:v9.15.00 DVR:v10.02.09.300-k
-
Verifizieren Sie das
ql2xnvmeenable
Ist festgelegt. Dadurch kann der Marvell Adapter als NVMe/FC-Initiator verwendet werden:cat /sys/module/qla2xxx/parameters/ql2xnvmeenable
Das erwartete ouptut ist 1.
Schritt 4: Optional 1 MB I/O aktivieren
ONTAP meldet eine MDTS (MAX Data-Übertragungsgröße) von 8 in den Identifizieren von Controller-Daten. Das bedeutet, dass die maximale E/A-Anforderungsgröße bis zu 1 MB betragen kann. Um I/O-Anforderungen der Größe 1 MB für einen Broadcom-NVMe/FC-Host auszustellen, sollten Sie den Wert des lpfc_sg_seg_cnt
Parameters ab dem Standardwert 64 auf 256 erhöhen lpfc
.
|
Diese Schritte gelten nicht für Qlogic NVMe/FC-Hosts. |
-
Setzen Sie den
lpfc_sg_seg_cnt
Parameter auf 256:cat /etc/modprobe.d/lpfc.conf
Sie sollten eine Ausgabe ähnlich dem folgenden Beispiel sehen:
options lpfc lpfc_sg_seg_cnt=256
-
Führen Sie den Befehl aus
dracut -f
, und starten Sie den Host neu. -
Stellen Sie sicher, dass der Wert für
lpfc_sg_seg_cnt
256 lautet:cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
Schritt 5: Überprüfen der NVMe-Bootdienste
Mit Rocky Linux 10 wird die nvmefc-boot-connections.service
Und nvmf-autoconnect.service
In NVMe/FC enthaltene Boot-Dienste nvme-cli
Paket werden beim Systemstart automatisch aktiviert.
Überprüfen Sie nach dem Booten, ob die nvmefc-boot-connections.service
Und nvmf-autoconnect.service
Boot-Dienste sind aktiviert.
-
Vergewissern Sie sich, dass
nvmf-autoconnect.service
aktiviert ist:systemctl status nvmf-autoconnect.service
Beispielausgabe anzeigen
nvmf-autoconnect.service - Connect NVMe-oF subsystems automatically during boot Loaded: loaded (/usr/lib/systemd/system/nvmf-autoconnect.service; enabled; preset: disabled) Active: inactive (dead) Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: Starting Connect NVMe-oF subsystems automatically during boot... Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: nvmf-autoconnect.service: Deactivated successfully. Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: Finished Connect NVMe-oF subsystems automatically during boot.
-
Vergewissern Sie sich, dass
nvmefc-boot-connections.service
aktiviert ist:systemctl status nvmefc-boot-connections.service
Beispielausgabe anzeigen
nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot Loaded: loaded (/usr/lib/systemd/system/nvmefc-boot-connections.service; enabled; preset: enabled) Active: inactive (dead) since Tue 2025-06-10 01:08:36 EDT; 2h 59min ago Main PID: 7090 (code=exited, status=0/SUCCESS) CPU: 30ms Jun 10 01:08:36 localhost systemd[1]: Starting Auto-connect to subsystems on FC-NVME devices found during boot... Jun 10 01:08:36 localhost systemd[1]: nvmefc-boot-connections.service: Deactivated successfully. Jun 10 01:08:36 localhost systemd[1]: Finished Auto-connect to subsystems on FC-NVME devices found during boot.
Schritt 6: NVMe/TCP konfigurieren
Das NVMe/TCP-Protokoll unterstützt den Vorgang nicht auto-connect
. Stattdessen können Sie die NVMe/TCP-Subsysteme und -Namespaces erkennen, indem Sie NVMe/TCP oder connect-all
Vorgänge manuell ausführen connect
.
-
Vergewissern Sie sich, dass der Initiator-Port die Daten der Erkennungsprotokollseite über die unterstützten NVMe/TCP-LIFs abrufen kann:
nvme discover -t tcp -w host-traddr -a traddr
Beispiel anzeigen
nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.20 Discovery Log Number of Records 8, Generation counter 18 =====Discovery Log Entry 0====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 4 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.21.21 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 1====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 2 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.20.21 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 2====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 3 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.21.20 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 3====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 1 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.20.20 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 4====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 4 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rockylinux10_tcp_subsystem traddr: 192.168.21.21 eflags: none sectype: none =====Discovery Log Entry 5====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 2 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rockylinux10_tcp_subsystem traddr: 192.168.20.21 eflags: none sectype: none =====Discovery Log Entry 6====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 3 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rockylinux10_tcp_subsystem traddr: 192.168.21.20 eflags: none sectype: none =====Discovery Log Entry 7====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 1 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rockylinux10_tcp_subsystem traddr: 192.168.20.20 eflags: none sectype: none
-
Vergewissern Sie sich, dass die anderen LIF-Kombinationen des NVMe/TCP-Initiators die Daten der Erkennungsprotokollseite erfolgreich abrufen können:
nvme discover -t tcp -w host-traddr -a traddr
Beispiel anzeigen
nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.20 nvme discover -t tcp -w 192.168.21.1 -a 192.168.21.20 nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.21 nvme discover -t tcp -w 192.168.21.1 -a 192.168.21.21
-
Führen Sie die aus
nvme connect-all
Befehl über alle unterstützten NVMe/TCP Initiator-Ziel-LIFs der Nodes hinweg:nvme connect-all -t tcp -w host-traddr -a traddr
Beispiel anzeigen
nvme connect-all -t tcp -w 192.168.20.1 -a 192.168.20.20 nvme connect-all -t tcp -w 192.168.21.1 -a 192.168.21.20 nvme connect-all -t tcp -w 192.168.20.1 -a 192.168.20.21 nvme connect-all -t tcp -w 192.168.21.1 -a 192.168.21.21
|
Ab Rocky Linux 9.4 ist die Einstellung für NVMe/TCP
|
Schritt 7: NVMe-oF validieren
Vergewissern Sie sich, dass der in-Kernel-Multipath-Status, der ANA-Status und die ONTAP-Namespaces für die NVMe-of-Konfiguration richtig sind.
-
Vergewissern Sie sich, dass das in-Kernel NVMe Multipath aktiviert ist:
cat /sys/module/nvme_core/parameters/multipath
Die folgende Ausgabe sollte angezeigt werden:
Y
-
Vergewissern Sie sich, dass die entsprechenden NVMe-of-Einstellungen (z. B. auf NetApp ONTAP-Controller gesetzt auf Modell und Load-Balancing-IOpolicy auf Round-Robin eingestellt) für die jeweiligen ONTAP-Namespaces den Host korrekt widerspiegeln:
-
Zeigen Sie die Subsysteme an:
cat /sys/class/nvme-subsystem/nvme-subsys*/model
Die folgende Ausgabe sollte angezeigt werden:
NetApp ONTAP Controller NetApp ONTAP Controller
-
Zeigen Sie die Richtlinie an:
cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
Die folgende Ausgabe sollte angezeigt werden:
round-robin round-robin
-
-
Überprüfen Sie, ob die Namespaces auf dem Host erstellt und richtig erkannt wurden:
nvme list
Beispiel anzeigen
Node SN Model --------------------------------------------------------- /dev/nvme4n1 81Ix2BVuekWcAAAAAAAB NetApp ONTAP Controller Namespace Usage Format FW Rev ----------------------------------------------------------- 1 21.47 GB / 21.47 GB 4 KiB + 0 B FFFFFFFF
-
Überprüfen Sie, ob der Controller-Status jedes Pfads aktiv ist und den korrekten ANA-Status aufweist:
NVMe/FCnvme list-subsys /dev/nvme5n1
Beispiel anzeigen
nvme-subsys5 - NQN=nqn.1992-08.com.netapp:sn.f7565b15a66911ef9668d039ea951c46:subsystem.nvme1 hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c7c04f425633 \ +- nvme126 fc traddr=nn-0x2036d039ea951c45:pn-0x2038d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c3:pn-0x2100f4c7aa0cd7c3 live optimized +- nvme176 fc traddr=nn-0x2036d039ea951c45:pn-0x2037d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c2:pn-0x2100f4c7aa0cd7c2 live optimized +- nvme5 fc traddr=nn-0x2036d039ea951c45:pn-0x2039d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c2:pn-0x2100f4c7aa0cd7c2 live non-optimized +- nvme71 fc traddr=nn-0x2036d039ea951c45:pn-0x203ad039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c3:pn-0x2100f4c7aa0cd7c3 live non-optimized
NVMe/TCPnvme list-subsys /dev/nvme4n2
Beispiel anzeigen
nvme-subsys4 - NQN=nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.nvme4 hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33 \ +- nvme102 tcp traddr=192.168.21.20,trsvcid=4420,host_traddr=192.168.21.1,src_addr=192.168.21.1 live non-optimized +- nvme151 tcp traddr=192.168.21.21,trsvcid=4420,host_traddr=192.168.21.1,src_addr=192.168.21.1 live optimized +- nvme4 tcp traddr=192.168.20.20,trsvcid=4420,host_traddr=192.168.20.1,src_addr=192.168.20.1 live non-optimized +- nvme53 tcp traddr=192.168.20.21,trsvcid=4420,host_traddr=192.168.20.1,src_addr=192.168.20.1 live optimized
-
Vergewissern Sie sich, dass das NetApp Plug-in für jedes ONTAP Namespace-Gerät die richtigen Werte anzeigt:
Spaltenvme netapp ontapdevices -o column
Beispiel anzeigen
Device Vserver Namespace Path ----------------------- ------------------------------------ /dev/nvme10n1 vs_tcp_rockylinux10 /vol/vol10/ns10 NSID UUID Size ----------------------- ------------------------------------ 1 bbf51146-fc64-4197-b8cf-8a24f6f359b3 21.47GB
JSONnvme netapp ontapdevices -o json
Beispiel anzeigen
{ "ONTAPdevices":[ { "Device":"/dev/nvme10n1", "Vserver":"vs_tcp_rockylinux10", "Namespace_Path":"/vol/vol10/ns10", "NSID":1, "UUID":"bbf51146-fc64-4197-b8cf-8a24f6f359b3", "Size":"21.47GB", "LBA_Data_Size":4096, "Namespace_Size":5242880 } ] }
Schritt 8: Einrichten einer sicheren In-Band-Authentifizierung
Ab ONTAP 9.12.1 wird die sichere In-Band-Authentifizierung über NVMe/TCP zwischen einem Rocky Linux 10-Host und einem ONTAP-Controller unterstützt.
Jeder Host oder Controller muss mit einem DH-HMAC-CHAP
Schlüssel zur Einrichtung einer sicheren Authentifizierung . DH-HMAC-CHAP
Der Schlüssel ist eine Kombination aus dem NQN des NVMe-Hosts oder -Controllers und einem vom Administrator konfigurierten Authentifizierungsgeheimnis. Um seinen Peer zu authentifizieren, muss ein NVMe-Host oder -Controller den dem Peer zugeordneten Schlüssel erkennen.
Richten Sie eine sichere In-Band-Authentifizierung mithilfe der CLI oder einer JSON-Konfigurationsdatei ein. Wenn Sie unterschiedliche dhchap-Schlüssel für verschiedene Subsysteme angeben müssen, müssen Sie eine Konfigurations-JSON-Datei verwenden.
Richten Sie die sichere bandinterne Authentifizierung über die CLI ein.
-
Rufen Sie die Host-NQN ab:
cat /etc/nvme/hostnqn
-
Generieren Sie den DHCP-Schlüssel für den Rocky Linux 10-Host.
In der folgenden Ausgabe werden die Befehlsparameter beschrieben
gen-dhchap-key
:nvme gen-dhchap-key -s optional_secret -l key_length {32|48|64} -m HMAC_function {0|1|2|3} -n host_nqn • -s secret key in hexadecimal characters to be used to initialize the host key • -l length of the resulting key in bytes • -m HMAC function to use for key transformation 0 = none, 1- SHA-256, 2 = SHA-384, 3=SHA-512 • -n host NQN to use for key transformation
Im folgenden Beispiel wird ein zufälliger Dhchap-Schlüssel mit HMAC auf 3 (SHA-512) generiert.
nvme gen-dhchap-key -m 3 -n nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33 DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
Fügen Sie auf dem ONTAP-Controller den Host hinzu und geben Sie beide dhchap-Schlüssel an:
vserver nvme subsystem host add -vserver <svm_name> -subsystem <subsystem> -host-nqn <host_nqn> -dhchap-host-secret <authentication_host_secret> -dhchap-controller-secret <authentication_controller_secret> -dhchap-hash-function {sha-256|sha-512} -dhchap-group {none|2048-bit|3072-bit|4096-bit|6144-bit|8192-bit}
-
Ein Host unterstützt zwei Arten von Authentifizierungsmethoden, unidirektional und bidirektional. Stellen Sie auf dem Host eine Verbindung zum ONTAP-Controller her, und geben Sie dhchap-Schlüssel basierend auf der gewählten Authentifizierungsmethode an:
nvme connect -t tcp -w <host-traddr> -a <tr-addr> -n <host_nqn> -S <authentication_host_secret> -C <authentication_controller_secret>
-
Validieren Sie den
nvme connect authentication
Durch Überprüfen der dhchap-Schlüssel für Host und Controller:-
Überprüfen Sie die Host-dhchap-Schlüssel:
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_secret
Beispielausgabe für eine unidirektionale Konfiguration anzeigen
cat /sys/class/nvme-subsystem/nvme-subsys1/nvme*/dhchap_secret DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=:
-
Überprüfen Sie die Dhchap-Tasten des Controllers:
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_ctrl_secret
Beispielausgabe für eine bidirektionale Konfiguration anzeigen
cat /sys/class/nvme-subsystem/nvme-subsys6/nvme*/dhchap_ctrl_secret DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
Wenn in der ONTAP-Controller-Konfiguration mehrere NVMe-Subsysteme verfügbar sind, kann die Datei mit dem nvme connect-all
Befehl verwendet /etc/nvme/config.json
werden.
Verwenden Sie die -o
Option zum Generieren der JSON-Datei. Weitere Syntaxoptionen finden Sie auf den Handseiten für NVMe Connect-all.
-
Konfigurieren Sie die JSON-Datei.
Im folgenden Beispiel dhchap_key
entsprichtdhchap_secret
Unddhchap_ctrl_key
entsprichtdhchap_ctrl_secret
.Beispiel anzeigen
cat /etc/nvme/config.json [ { "hostnqn":"nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33", "hostid":"4c4c4544-0035-5910-804b-c2c04f444d33", "dhchap_key":"DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:", "subsystems":[ { "nqn":"nqn.1992-08.com.netapp:sn.127ade26168811f0a50ed039eab69ad3:subsystem.inband_unidirectional", "ports":[ { "transport":"tcp", "traddr":"192.168.20.17", "host_traddr":"192.168.20.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.20.18", "host_traddr":"192.168.20.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.21.18", "host_traddr":"192.168.21.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.21.17", "host_traddr":"192.168.21.1", "trsvcid":"4420" }]
-
Stellen Sie mithilfe der Konfigurations-JSON-Datei eine Verbindung zum ONTAP Controller her:
nvme connect-all -J /etc/nvme/config.json
Beispiel anzeigen
traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected
-
Überprüfen Sie, ob die DHCP-Geheimnisse für die jeweiligen Controller jedes Subsystems aktiviert wurden.
-
Überprüfen Sie die Host-dhchap-Schlüssel:
cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_secret
Das folgende Beispiel zeigt einen dhchap-Schlüssel:
DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1 aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
Überprüfen Sie die Dhchap-Tasten des Controllers:
cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_ctrl_secret
Sie sollten eine Ausgabe ähnlich dem folgenden Beispiel sehen:
DHHC-1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jT mzEKUbcWu26I33b93bil2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=:
-
Schritt 9: Überprüfen Sie die bekannten Probleme
Es sind keine Probleme bekannt.