Konfigurieren Sie RHEL 10.0 für NVMe-oF mit ONTAP Speicher
Red Hat Enterprise Linux (RHEL)-Hosts unterstützen die Protokolle NVMe over Fibre Channel (NVMe/FC) und NVMe over TCP (NVMe/TCP) mit Asymmetric Namespace Access (ANA). ANA bietet Multipathing-Funktionalität, die dem asymmetrischen logischen Einheitenzugriff (ALUA) in iSCSI- und FCP-Umgebungen entspricht.
Erfahren Sie, wie Sie NVMe over Fabrics (NVMe-oF)-Hosts für RHEL 10.0 konfigurieren. Weitere Informationen zu Support und Funktionen finden Sie unter"NVME-oF-Übersicht" .
NVMe-oF mit RHEL 10.0 weist die folgenden bekannten Einschränkungen auf:
-
DM-Multipath-Unterstützung für NVMe-oF wird nicht unterstützt.
-
Vermeiden Sie die Ausgabe von
nvme disconnect-all
Befehl auf Systemen, die von SAN über NVMe-TCP- oder NVMe-FC-Namespaces booten, da er sowohl Root- als auch Datendateisysteme trennt und zu Systeminstabilität führen kann.
Schritt 1: Aktivieren Sie optional den SAN-Bootvorgang
Sie können Ihren Host für die Verwendung von SAN-Boot konfigurieren, um die Bereitstellung zu vereinfachen und die Skalierbarkeit zu verbessern. Verwenden Sie die"Interoperabilitäts-Matrix-Tool" um zu überprüfen, ob Ihr Linux-Betriebssystem, Ihr Hostbusadapter (HBA), Ihre HBA-Firmware, Ihr HBA-Boot-BIOS und ONTAP -Version das SAN-Booten unterstützen.
-
"Erstellen Sie einen NVMe-Namespace und ordnen Sie ihn dem Host zu" .
-
Aktivieren Sie das SAN-Booten im Server-BIOS für die Ports, denen der SAN-Boot-Namespace zugeordnet ist.
Informationen zum Aktivieren des HBA-BIOS finden Sie in der anbieterspezifischen Dokumentation.
-
Starten Sie den Host neu und überprüfen Sie, ob das Betriebssystem läuft.
Schritt 2: Überprüfen der Softwareversion und der NVMe-Konfiguration
Überprüfen Sie, ob Ihr System die Softwareanforderungen erfüllt, und überprüfen Sie die NVMe-Paketinstallationen und die Hostkonfiguration.
-
Installieren Sie RHEL 10.0 auf dem Server. Überprüfen Sie nach Abschluss der Installation, ob Sie den erforderlichen RHEL 10.0-Kernel ausführen:
uname -r
Beispiel für eine RHEL-Kernelversion:
6.12.0-55.9.1.el10_0.x86_64
-
Installieren Sie den
nvme-cli
Paket:rpm -qa|grep nvme-cli
Das folgende Beispiel zeigt eine
nvme-cli
Paketversion:nvme-cli-2.11-5.el10.x86_64
-
Installieren Sie den
libnvme
Paket:rpm -qa|grep libnvme
Das folgende Beispiel zeigt eine
libnvme
Paketversion:libnvme-1.11.1-1.el10.x86_64
-
Überprüfen Sie auf dem Host die Hostnqn-Zeichenfolge unter
/etc/nvme/hostnqn
:cat /etc/nvme/hostnqn
Das folgende Beispiel zeigt eine
hostnqn
Version:nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-b9c04f425633
-
Überprüfen Sie das
hostnqn
Die Zeichenfolge entspricht derhostnqn
String für das entsprechende Subsystem auf dem ONTAP-Array:::> vserver nvme subsystem host show -vserver vs_nvme_194_rhel10
Beispiel anzeigen
Vserver Subsystem Priority Host NQN ------- --------- -------- ------------------------------------------------ vs_ nvme_194_rhel10 nvme4 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_1 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_2 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_3 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 4 entries were displayed.
|
Wenn die hostnqn Zeichenfolgen nicht übereinstimmen, verwenden Sie die vserver modify Befehl zum Aktualisieren der hostnqn Zeichenfolge auf Ihrem entsprechenden ONTAP -Speichersystem-Subsystem, um die Übereinstimmung mit hostnqn Zeichenfolge von /etc/nvme/hostnqn auf dem Host.
|
Schritt 3: Konfigurieren Sie NVMe/FC und NVMe/TCP
Konfigurieren Sie NVMe/FC mit Broadcom/Emulex- oder Marvell/QLogic-Adaptern oder konfigurieren Sie NVMe/TCP mithilfe manueller Erkennungs- und Verbindungsvorgänge.
Konfigurieren Sie NVMe/FC für einen Broadcom/Emulex-Adapter.
-
Stellen Sie sicher, dass Sie das unterstützte Adaptermodell verwenden:
-
Zeigen Sie die Modellnamen an:
cat /sys/class/scsi_host/host*/modelname
Die folgende Ausgabe sollte angezeigt werden:
LPe36002-M64 LPe36002-M64
-
Zeigen Sie die Modellbeschreibungen an:
cat /sys/class/scsi_host/host*/modeldesc
Sie sollten eine Ausgabe ähnlich dem folgenden Beispiel sehen:
Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter
-
-
Vergewissern Sie sich, dass Sie das empfohlene Broadcom verwenden
lpfc
Firmware und Inbox-Treiber:-
Anzeige der Firmware-Version:
cat /sys/class/scsi_host/host*/fwrev
Der Befehl gibt die Firmware-Versionen zurück:
14.0.539.16, sli-4:6:d 14.0.539.16, sli-4:6:d
-
Zeigen Sie die Posteingangstreiberversion an:
cat /sys/module/lpfc/version
Das folgende Beispiel zeigt eine Treiberversion:
0:14.4.0.6
Die aktuelle Liste der unterstützten Adaptertreiber- und Firmware-Versionen finden Sie im "Interoperabilitäts-Matrix-Tool".
-
-
Verifizieren Sie das
lpfc_enable_fc4_type
Ist auf festgelegt3
:cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
-
Vergewissern Sie sich, dass Sie Ihre Initiator-Ports anzeigen können:
cat /sys/class/fc_host/host*/port_name
Sie sollten eine Ausgabe ähnlich der folgenden sehen:
0x100000109b1c1205
-
Überprüfen Sie, ob Ihre Initiator-Ports online sind:
cat /sys/class/fc_host/host*/port_state
Die folgende Ausgabe sollte angezeigt werden:
Online Online
-
Vergewissern Sie sich, dass die NVMe/FC-Initiator-Ports aktiviert sind und die Ziel-Ports sichtbar sind:
cat /sys/class/scsi_host/host*/nvme_info
Beispiel anzeigen
NVME Initiator Enabled XRI Dist lpfc2 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc2 WWPN x100000109bf044b1 WWNN x200000109bf044b1 DID x022a00 ONLINE NVME RPORT WWPN x202fd039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x021310 TARGET DISCSRVC ONLINE NVME RPORT WWPN x202dd039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x020b10 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000000810 Cmpl 0000000810 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000007b098f07 Issue 000000007aee27c4 OutIO ffffffffffe498bd abort 000013b4 noxri 00000000 nondlp 00000058 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 000013b4 Err 00021443 NVME Initiator Enabled XRI Dist lpfc3 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc3 WWPN x100000109bf044b2 WWNN x200000109bf044b2 DID x021b00 ONLINE NVME RPORT WWPN x2033d039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x020110 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2032d039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x022910 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000000840 Cmpl 0000000840 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000007afd4434 Issue 000000007ae31b83 OutIO ffffffffffe5d74f abort 000014a5 noxri 00000000 nondlp 0000006a qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 000014a5 Err 0002149a
Konfigurieren Sie NVMe/FC für einen Marvell/QLogic-Adapter.
-
Stellen Sie sicher, dass Sie die unterstützten Adaptertreiber- und Firmware-Versionen verwenden:
cat /sys/class/fc_host/host*/symbolic_name
Das folgende Beispiel zeigt Treiber- und Firmwareversionen:
QLE2872 FW:v9.15.00 DVR:v10.02.09.300-k QLE2872 FW:v9.15.00 DVR:v10.02.09.300-k
-
Verifizieren Sie das
ql2xnvmeenable
Ist festgelegt. Dadurch kann der Marvell Adapter als NVMe/FC-Initiator verwendet werden:cat /sys/module/qla2xxx/parameters/ql2xnvmeenable
Die erwartete Ausgabe ist 1.
Das NVMe/TCP-Protokoll unterstützt den automatischen Verbindungsvorgang nicht. Stattdessen können Sie die NVMe/TCP-Subsysteme und Namespaces ermitteln, indem Sie den NVMe/TCP connect
oder connect-all
Vorgänge manuell ausführen.
-
Überprüfen Sie, ob der Initiator-Port die Daten der Erkennungsprotokollseite über die unterstützten NVMe/TCP-LIFs abrufen kann:
nvme discover -t tcp -w host-traddr -a traddr
Beispiel anzeigen
nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.20 Discovery Log Number of Records 8, Generation counter 18 =====Discovery Log Entry 0====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 4 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.21.21 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 1====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 2 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.20.21 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 2====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 3 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.21.20 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 3====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 1 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.20.20 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 4====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 4 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.21.21 eflags: none sectype: none =====Discovery Log Entry 5====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 2 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.20.21 eflags: none sectype: none =====Discovery Log Entry 6====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 3 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.21.20 eflags: none sectype: none =====Discovery Log Entry 7====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 1 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.20.20 eflags: none sectype: none
-
Überprüfen Sie, ob die anderen NVMe/TCP-Initiator-Ziel-LIF-Kombinationen erfolgreich Daten der Erkennungsprotokollseite abrufen können:
nvme discover -t tcp -w host-traddr -a traddr
Beispiel anzeigen
nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.20 nvme discover -t tcp -w 192.168.21.1 -a 192.168.21.20 nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.21 nvme discover -t tcp -w 192.168.21.1 -a 192.168.21.21
-
Führen Sie die aus
nvme connect-all
Befehl über alle unterstützten NVMe/TCP Initiator-Ziel-LIFs der Nodes hinweg:nvme connect-all -t tcp -w host-traddr -a traddr
Beispiel anzeigen
nvme connect-all -t tcp -w 192.168.20.1 -a 192.168.20.20 nvme connect-all -t tcp -w 192.168.21.1 -a 192.168.21.20 nvme connect-all -t tcp -w 192.168.20.1 -a 192.168.20.21 nvme connect-all -t tcp -w 192.168.21.1 -a 192.168.21.21
Ab RHEL 9.4 ist die Einstellung für NVMe/TCP ctrl_loss_tmo timeout
ist automatisch auf „Aus“ gestellt. Das Ergebnis:
-
Es gibt keine Begrenzung für die Anzahl der Wiederholungsversuche (unbegrenzte Wiederholung).
-
Sie müssen kein bestimmtes
ctrl_loss_tmo timeout
Dauer bei Verwendung desnvme connect
odernvme connect-all
Befehle (Option -l ). -
Bei den NVMe/TCP-Controllern kommt es im Falle eines Pfadausfalls nicht zu Timeouts und die Verbindung bleibt unbegrenzt bestehen.
Schritt 4: Optional 1 MB I/O für NVMe/FC aktivieren
ONTAP meldet in den Identify Controller-Daten eine maximale Datenübertragungsgröße (MDTS) von 8. Dies bedeutet, dass die maximale E/A-Anforderungsgröße bis zu 1 MB betragen kann. Um E/A-Anfragen der Größe 1 MB für einen Broadcom NVMe/FC-Host auszugeben, sollten Sie die lpfc
Wert des lpfc_sg_seg_cnt
Parameter vom Standardwert 64 auf 256.
|
Diese Schritte gelten nicht für Qlogic NVMe/FC-Hosts. |
-
Setzen Sie den
lpfc_sg_seg_cnt
Parameter auf 256:cat /etc/modprobe.d/lpfc.conf
Sie sollten eine Ausgabe ähnlich dem folgenden Beispiel sehen:
options lpfc lpfc_sg_seg_cnt=256
-
Führen Sie den Befehl aus
dracut -f
, und starten Sie den Host neu. -
Stellen Sie sicher, dass der Wert für
lpfc_sg_seg_cnt
256 lautet:cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
Schritt 5: Überprüfen der NVMe-Bootdienste
Der nvmefc-boot-connections.service
Und nvmf-autoconnect.service
In NVMe/FC enthaltene Boot-Dienste nvme-cli
Paket werden beim Systemstart automatisch aktiviert.
Überprüfen Sie nach dem Booten, ob die nvmefc-boot-connections.service
Und nvmf-autoconnect.service
Boot-Dienste sind aktiviert.
-
Vergewissern Sie sich, dass
nvmf-autoconnect.service
aktiviert ist:systemctl status nvmf-autoconnect.service
Beispielausgabe anzeigen
nvmf-autoconnect.service - Connect NVMe-oF subsystems automatically during boot Loaded: loaded (/usr/lib/systemd/system/nvmf-autoconnect.service; enabled; preset: disabled) Active: inactive (dead) Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: Starting Connect NVMe-oF subsystems automatically during boot... Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: nvmf-autoconnect.service: Deactivated successfully. Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: Finished Connect NVMe-oF subsystems automatically during boot.
-
Vergewissern Sie sich, dass
nvmefc-boot-connections.service
aktiviert ist:systemctl status nvmefc-boot-connections.service
Beispielausgabe anzeigen
nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot Loaded: loaded (/usr/lib/systemd/system/nvmefc-boot-connections.service; enabled; preset: enabled) Active: inactive (dead) since Tue 2025-06-10 01:08:36 EDT; 2h 59min ago Main PID: 7090 (code=exited, status=0/SUCCESS) CPU: 30ms Jun 10 01:08:36 localhost systemd[1]: Starting Auto-connect to subsystems on FC-NVME devices found during boot... Jun 10 01:08:36 localhost systemd[1]: nvmefc-boot-connections.service: Deactivated successfully. Jun 10 01:08:36 localhost systemd[1]: Finished Auto-connect to subsystems on FC-NVME devices found during boot.
Schritt 6: Überprüfen der Multipathing-Konfiguration
Vergewissern Sie sich, dass der in-Kernel-Multipath-Status, der ANA-Status und die ONTAP-Namespaces für die NVMe-of-Konfiguration richtig sind.
-
Vergewissern Sie sich, dass das in-Kernel NVMe Multipath aktiviert ist:
cat /sys/module/nvme_core/parameters/multipath
Die folgende Ausgabe sollte angezeigt werden:
Y
-
Vergewissern Sie sich, dass die entsprechenden NVMe-of-Einstellungen (z. B. auf NetApp ONTAP-Controller gesetzt auf Modell und Load-Balancing-IOpolicy auf Round-Robin eingestellt) für die jeweiligen ONTAP-Namespaces den Host korrekt widerspiegeln:
-
Zeigen Sie die Subsysteme an:
cat /sys/class/nvme-subsystem/nvme-subsys*/model
Die folgende Ausgabe sollte angezeigt werden:
NetApp ONTAP Controller NetApp ONTAP Controller
-
Zeigen Sie die Richtlinie an:
cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
Die folgende Ausgabe sollte angezeigt werden:
round-robin round-robin
-
-
Überprüfen Sie, ob die Namespaces auf dem Host erstellt und richtig erkannt wurden:
nvme list
Beispiel anzeigen
Node SN Model --------------------------------------------------------- /dev/nvme4n1 81Ix2BVuekWcAAAAAAAB NetApp ONTAP Controller Namespace Usage Format FW Rev ----------------------------------------------------------- 1 21.47 GB / 21.47 GB 4 KiB + 0 B FFFFFFFF
-
Überprüfen Sie, ob der Controller-Status jedes Pfads aktiv ist und den korrekten ANA-Status aufweist:
NVMe/FCnvme list-subsys /dev/nvme5n1
Beispiel anzeigen
nvme-subsys5 - NQN=nqn.1992-08.com.netapp:sn.f7565b15a66911ef9668d039ea951c46:subsystem.nvme1 hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c7c04f425633 \ +- nvme126 fc traddr=nn-0x2036d039ea951c45:pn-0x2038d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c3:pn-0x2100f4c7aa0cd7c3 live optimized +- nvme176 fc traddr=nn-0x2036d039ea951c45:pn-0x2037d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c2:pn-0x2100f4c7aa0cd7c2 live optimized +- nvme5 fc traddr=nn-0x2036d039ea951c45:pn-0x2039d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c2:pn-0x2100f4c7aa0cd7c2 live non-optimized +- nvme71 fc traddr=nn-0x2036d039ea951c45:pn-0x203ad039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c3:pn-0x2100f4c7aa0cd7c3 live non-optimized
NVMe/TCPnvme list-subsys /dev/nvme4n2
Beispiel anzeigen
nvme-subsys4 - NQN=nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.nvme4 hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33 \ +- nvme102 tcp traddr=192.168.21.20,trsvcid=4420,host_traddr=192.168.21.1,src_addr=192.168.21.1 live non-optimized +- nvme151 tcp traddr=192.168.21.21,trsvcid=4420,host_traddr=192.168.21.1,src_addr=192.168.21.1 live optimized +- nvme4 tcp traddr=192.168.20.20,trsvcid=4420,host_traddr=192.168.20.1,src_addr=192.168.20.1 live non-optimized +- nvme53 tcp traddr=192.168.20.21,trsvcid=4420,host_traddr=192.168.20.1,src_addr=192.168.20.1 live optimized
-
Vergewissern Sie sich, dass das NetApp Plug-in für jedes ONTAP Namespace-Gerät die richtigen Werte anzeigt:
Spaltenvme netapp ontapdevices -o column
Beispiel anzeigen
Device Vserver Namespace Path ----------------------- ------------------------------ /dev/nvme10n1 vs_tcp_rhel10 /vol/vol10/ns10 NSID UUID Size ----------------------- ------------------------------ 1 bbf51146-fc64-4197-b8cf-8a24f6f359b3 21.47GB
JSONnvme netapp ontapdevices -o json
Beispiel anzeigen
{ "ONTAPdevices":[ { "Device":"/dev/nvme10n1", "Vserver":"vs_tcp_rhel10", "Namespace_Path":"/vol/vol10/ns10", "NSID":1, "UUID":"bbf51146-fc64-4197-b8cf-8a24f6f359b3", "Size":"21.47GB", "LBA_Data_Size":4096, "Namespace_Size":5242880 } ] }
Schritt 7: Einrichten einer sicheren In-Band-Authentifizierung
Ab ONTAP 9.12.1 wird eine sichere In-Band-Authentifizierung über NVMe/TCP zwischen einem RHEL 10.0-Host und einem ONTAP Controller unterstützt.
Jeder Host oder Controller muss mit einem DH-HMAC-CHAP
Schlüssel zur Einrichtung einer sicheren Authentifizierung . DH-HMAC-CHAP
Der Schlüssel ist eine Kombination aus dem NQN des NVMe-Hosts oder -Controllers und einem vom Administrator konfigurierten Authentifizierungsgeheimnis. Um seinen Peer zu authentifizieren, muss ein NVMe-Host oder -Controller den dem Peer zugeordneten Schlüssel erkennen.
Richten Sie eine sichere In-Band-Authentifizierung mithilfe der CLI oder einer JSON-Konfigurationsdatei ein. Wenn Sie unterschiedliche dhchap-Schlüssel für verschiedene Subsysteme angeben müssen, müssen Sie eine Konfigurations-JSON-Datei verwenden.
Richten Sie die sichere bandinterne Authentifizierung über die CLI ein.
-
Rufen Sie die Host-NQN ab:
cat /etc/nvme/hostnqn
-
Generieren Sie den DHCP-Schlüssel für den RHEL 10.0-Host.
Die folgende Ausgabe beschreibt die
gen-dhchap-key
Befehlsparameter:nvme gen-dhchap-key -s optional_secret -l key_length {32|48|64} -m HMAC_function {0|1|2|3} -n host_nqn • -s secret key in hexadecimal characters to be used to initialize the host key • -l length of the resulting key in bytes • -m HMAC function to use for key transformation 0 = none, 1- SHA-256, 2 = SHA-384, 3=SHA-512 • -n host NQN to use for key transformation
Im folgenden Beispiel wird ein zufälliger Dhchap-Schlüssel mit HMAC auf 3 (SHA-512) generiert.
nvme gen-dhchap-key -m 3 -n nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33 DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
Fügen Sie auf dem ONTAP-Controller den Host hinzu und geben Sie beide dhchap-Schlüssel an:
vserver nvme subsystem host add -vserver <svm_name> -subsystem <subsystem> -host-nqn <host_nqn> -dhchap-host-secret <authentication_host_secret> -dhchap-controller-secret <authentication_controller_secret> -dhchap-hash-function {sha-256|sha-512} -dhchap-group {none|2048-bit|3072-bit|4096-bit|6144-bit|8192-bit}
-
Ein Host unterstützt zwei Arten von Authentifizierungsmethoden, unidirektional und bidirektional. Stellen Sie auf dem Host eine Verbindung zum ONTAP-Controller her, und geben Sie dhchap-Schlüssel basierend auf der gewählten Authentifizierungsmethode an:
nvme connect -t tcp -w <host-traddr> -a <tr-addr> -n <host_nqn> -S <authentication_host_secret> -C <authentication_controller_secret>
-
Validieren Sie den
nvme connect authentication
Durch Überprüfen der dhchap-Schlüssel für Host und Controller:-
Überprüfen Sie die Host-dhchap-Schlüssel:
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_secret
Beispielausgabe für eine unidirektionale Konfiguration anzeigen
cat /sys/class/nvme-subsystem/nvme-subsys1/nvme*/dhchap_secret DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=:
-
Überprüfen Sie die Dhchap-Tasten des Controllers:
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_ctrl_secret
Beispielausgabe für eine bidirektionale Konfiguration anzeigen
cat /sys/class/nvme-subsystem/nvme-subsys6/nvme*/dhchap_ctrl_secret DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
Wenn mehrere NVMe-Subsysteme auf dem ONTAP Controller verfügbar sind, können Sie die /etc/nvme/config.json
Datei mit dem nvme connect-all
Befehl.
Verwenden Sie die -o
Option zum Generieren der JSON-Datei. Weitere Syntaxoptionen finden Sie in den Manpages zu NVMe connect-all.
-
Konfigurieren Sie die JSON-Datei.
Im folgenden Beispiel dhchap_key
entsprichtdhchap_secret
Unddhchap_ctrl_key
entsprichtdhchap_ctrl_secret
.Beispiel anzeigen
cat /etc/nvme/config.json [ { "hostnqn":"nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33", "hostid":"4c4c4544-0035-5910-804b-c2c04f444d33", "dhchap_key":"DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:", "subsystems":[ { "nqn":"nqn.1992-08.com.netapp:sn.127ade26168811f0a50ed039eab69ad3:subsystem.inband_unidirectional", "ports":[ { "transport":"tcp", "traddr":"192.168.20.17", "host_traddr":"192.168.20.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.20.18", "host_traddr":"192.168.20.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.21.18", "host_traddr":"192.168.21.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.21.17", "host_traddr":"192.168.21.1", "trsvcid":"4420" }]
-
Stellen Sie mithilfe der Konfigurations-JSON-Datei eine Verbindung zum ONTAP Controller her:
nvme connect-all -J /etc/nvme/config.json
Beispiel anzeigen
traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected
-
Überprüfen Sie, ob die DHCP-Geheimnisse für die jeweiligen Controller jedes Subsystems aktiviert wurden.
-
Überprüfen Sie die Host-dhchap-Schlüssel:
cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_secret
Das folgende Beispiel zeigt einen dhchap-Schlüssel:
DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1 aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
Überprüfen Sie die Dhchap-Tasten des Controllers:
cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_ctrl_secret
Sie sollten eine Ausgabe ähnlich dem folgenden Beispiel sehen:
DHHC-1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jT mzEKUbcWu26I33b93bil2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=:
-
Schritt 8: Überprüfen Sie die bekannten Probleme
Es sind keine Probleme bekannt.