配置 RHEL 9x 以使用 NVMe-oF 和ONTAP存儲
Red Hat Enterpirse Linux (RHEL) 主機支援具有非對稱命名空間存取 (ANA) 的 NVMe over Fibre Channel (NVMe/FC) 和 NVMe over TCP (NVMe/TCP) 協定。 ANA 提供與 iSCSI 和 FCP 環境中的非對稱邏輯單元存取 (ALUA) 等效的多路徑功能。
了解如何為 RHEL 9x 設定 NVMe over Fabrics (NVMe-oF) 主機。如需更多支援和功能信息,請參閱 "RHEL ONTAP支援與功能"。
NVMe-oF 與 RHEL 9x 有以下已知限制:
-
這 `nvme disconnect-all`此命令會斷開根檔案系統和資料檔案系統,可能會導致系統不穩定。請勿在透過 NVMe-TCP 或 NVMe-FC 命名空間從 SAN 啟動的系統上執行此操作。
步驟 1 :選擇性啟用 SAN 開機
您可以設定主機以使用 SAN 啟動來簡化部署並提高可擴充性。使用"互通性對照表工具"驗證您的 Linux 作業系統、主機匯流排適配器 (HBA)、HBA 韌體、HBA 啟動 BIOS 和ONTAP版本是否支援 SAN 啟動。
-
在伺服器 BIOS 中為 SAN 啟動命名空間對應到的連接埠啟用 SAN 啟動。
如需如何啟用HBA BIOS的相關資訊、請參閱廠商專屬的文件。
-
重新啟動主機並驗證作業系統是否已啟動並正在運行。
步驟 2:安裝 RHEL 和 NVMe 軟體並驗證您的配置
若要為 NVMe-oF 設定主機,您應該安裝主機和 NVMe 軟體包,啟用多路徑,並驗證主機 NQN 設定。
-
在伺服器上安裝 RHEL 9x。安裝完成後,請確認您執行的是所需的 RHEL 9x 核心:
uname -rRHEL 核心版本範例:
5.14.0-611.5.1.el9_7.x86_64
-
安裝「NVMe-CLI(NVMe - CLI)套件:
rpm -qa|grep nvme-cli下面的例子展示了 `nvme-cli`軟體包版本:
nvme-cli-2.13-1.el9.x86_64
-
安裝
libnvme套件:rpm -qa|grep libnvme下面的例子展示了 `libnvme`軟體包版本:
libnvme-1.13-1.el9.x86_64
-
在主機上,檢查 hostnqn 字串
/etc/nvme/hostnqn:cat /etc/nvme/hostnqn下面的例子展示了 `hostnqn`版本:
nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-b9c04f425633
-
在ONTAP系統中,驗證以下資訊: `hostnqn`字串匹配 `hostnqn`ONTAP儲存系統中對應子系統的字串:
::> vserver nvme subsystem host show -vserver vs_188顯示範例
Vserver Subsystem Priority Host NQN ------- --------- -------- ------------------------------------------------ vs_188 Nvme1 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-b9c04f425633 Nvme10 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-b9c04f425633 Nvme11 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-b9c04f425633 Nvme12 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-b9c04f425633 48 entries were displayed.
|
|
如果 `hostnqn`字串不匹配,請使用 `vserver modify`命令來更新 `hostnqn`對應ONTAP儲存系統子系統上的字串以匹配 `hostnqn`字串來自 `/etc/nvme/hostnqn`在主機上。 |
步驟 3:設定 NVMe/FC 和 NVMe/TCP
使用 Broadcom/Emulex 或 Marvell/QLogic 適配器配置 NVMe/FC,或使用手動發現和連接操作來設定 NVMe/TCP。
為 Broadcom / Emulex 介面卡設定 NVMe / FC 。
-
確認您使用的是支援的介面卡機型:
-
顯示模型名稱:
cat /sys/class/scsi_host/host*/modelname您應該會看到下列輸出:
LPe36002-M64 LPe36002-M64
-
顯示模型描述:
cat /sys/class/scsi_host/host*/modeldesc您應該會看到類似以下範例的輸出:
Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter
-
-
驗證您使用的是建議的Broadcom
lpfc韌體與收件匣驅動程式:-
顯示韌體版本:
cat /sys/class/scsi_host/host*/fwrev該命令返回韌體版本:
14.4.393.53, sli-4:6:d 14.4.393.53, sli-4:6:d
-
顯示收件匣驅動程式版本:
cat /sys/module/lpfc/version以下範例顯示了驅動程式版本:
0:14.4.0.9
如需支援的介面卡驅動程式和韌體版本的最新清單,請參閱"互通性對照表工具"。
-
-
請確認
lpfc_enable_fc4_type設為3:cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type -
確認您可以檢視啟動器連接埠:
cat /sys/class/fc_host/host*/port_name以下範例顯示連接埠標識:
0x100000109bf044b1 0x100000109bf044b2
-
驗證啟動器連接埠是否在線上:
cat /sys/class/fc_host/host*/port_state您應該會看到下列輸出:
Online Online
-
確認已啟用 NVMe / FC 啟動器連接埠、且目標連接埠可見:
cat /sys/class/scsi_host/host*/nvme_info顯示範例
NVME Initiator Enabled XRI Dist lpfc0 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc0 WWPN x100000109b954518 WWNN x200000109b954518 DID x020700 ONLINE NVME RPORT WWPN x2022d039eaa7dfc8 WWNN x201fd039eaa7dfc8 DID x020b03 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2023d039eaa7dfc8 WWNN x201fd039eaa7dfc8 DID x020103 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000000548 Cmpl 0000000548 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 0000000000001a68 Issue 0000000000001a68 OutIO 0000000000000000 abort 00000000 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 00000000 Err 00000000 NVME Initiator Enabled XRI Dist lpfc1 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc1 WWPN x100000109b954519 WWNN x200000109b954519 DID x020500 ONLINE NVME RPORT WWPN x2027d039eaa7dfc8 WWNN x2025d039eaa7dfc8 DID x020b01 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 00000005ab Cmpl 00000005ab Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 0000000000086ce1 Issue 0000000000086ce2 OutIO 0000000000000001 abort 0000009c noxri 00000000 nondlp 00000002 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 000000b8 Err 000000b8 NVME Initiator Enabled XRI Dist lpfc2 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc2 WWPN x100000109bf044b1 WWNN x200000109bf044b1 DID x022a00 ONLINE NVME RPORT WWPN x2027d039eaa7dfc8 WWNN x2025d039eaa7dfc8 DID x020b01 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2011d039eaa7dfc8 WWNN x200fd039eaa7dfc8 DID x020b02 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2002d039eaa7dfc8 WWNN x2000d039eaa7dfc8 DID x020b05 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2026d039eaa7dfc8 WWNN x2025d039eaa7dfc8 DID x021301 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2010d039eaa7dfc8 WWNN x200fd039eaa7dfc8 DID x021302 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2001d039eaa7dfc8 WWNN x2000d039eaa7dfc8 DID x021305 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 000000c186 Cmpl 000000c186 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 00000000c348ca37 Issue 00000000c3344057 OutIO ffffffffffeb7620 abort 0000815b noxri 000018b5 nondlp 00000116 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 0000915b Err 000c6091 NVME Initiator Enabled XRI Dist lpfc3 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc3 WWPN x100000109bf044b2 WWNN x200000109bf044b2 DID x021b00 ONLINE NVME RPORT WWPN x2028d039eaa7dfc8 WWNN x2025d039eaa7dfc8 DID x020101 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2012d039eaa7dfc8 WWNN x200fd039eaa7dfc8 DID x020102 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2003d039eaa7dfc8 WWNN x2000d039eaa7dfc8 DID x020105 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2029d039eaa7dfc8 WWNN x2025d039eaa7dfc8 DID x022901 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2013d039eaa7dfc8 WWNN x200fd039eaa7dfc8 DID x022902 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2004d039eaa7dfc8 WWNN x2000d039eaa7dfc8 DID x022905 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 000000c186 Cmpl 000000c186 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 00000000b5761af5 Issue 00000000b564b55e OutIO ffffffffffee9a69 abort 000083d7 noxri 000016ea nondlp 00000195 qdepth 00000000 wqerr 00000002 err 00000000 FCP CMPL: xb 000094a4 Err 000c22e7
為 Marvell/QLogic 介面卡設定 NVMe / FC 。
-
驗證您使用的適配器驅動程式和韌體版本是否受支援:
cat /sys/class/fc_host/host*/symbolic_name以下範例顯示了驅動程式和韌體版本:
QLE2872 FW:v9.15.06 DVR:v10.02.09.400-k QLE2872 FW:v9.15.06 DVR:v10.02.09.400-k
-
請確認
ql2xnvmeenable已設定。這可讓 Marvell 介面卡作為 NVMe / FC 啟動器運作:cat /sys/module/qla2xxx/parameters/ql2xnvmeenable預期輸出為 1 。
NVMe/TCP 協定不支援自動連線操作。相反,您可以透過執行 NVMe/TCP 來發現 NVMe/TCP 子系統和命名空間 `connect`或者 `connect-all`手動操作。
-
檢查啟動器連接埠是否可以跨支援的 NVMe/TCP LIF 取得發現日誌頁面資料:
nvme discover -t tcp -w host-traddr -a traddr顯示範例
nvme discover -t tcp -w 192.168.30.15 -a 192.168.30.48 Discovery Log Number of Records 8, Generation counter 18 =====Discovery Log Entry 0====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 8 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.51a3c9846e0c11f08f5dd039eaa7dfc9:discovery traddr: 192.168.31.49 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 1====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 7 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.51a3c9846e0c11f08f5dd039eaa7dfc9:discovery traddr: 192.168.31.48 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 2====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 6 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.51a3c9846e0c11f08f5dd039eaa7dfc9:discovery traddr: 192.168.30.49 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 3====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 5 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.51a3c9846e0c11f08f5dd039eaa7dfc9:discovery traddr: 192.168.30.48 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 4====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 8 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.51a3c9846e0c11f08f5dd039eaa7dfc9:subsystem.Nvme38 traddr: 192.168.31.49 eflags: none sectype: none =====Discovery Log Entry 5====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 7 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.51a3c9846e0c11f08f5dd039eaa7dfc9:subsystem.Nvme38 traddr: 192.168.31.48 eflags: none sectype: none =====Discovery Log Entry 6====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 6 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.51a3c9846e0c11f08f5dd039eaa7dfc9:subsystem.Nvme38 traddr: 192.168.30.49 eflags: none sectype: none =====Discovery Log Entry 7====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 5 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.51a3c9846e0c11f08f5dd039eaa7dfc9:subsystem.Nvme38 traddr: 192.168.30.48 eflags: none sectype: none
-
驗證其他 NVMe/TCP 啟動器-目標 LIF 組合是否可以成功檢索發現日誌頁面資料:
nvme discover -t tcp -w host-traddr -a traddr顯示範例
nvme discover -t tcp -w 192.168.30.15 -a 192.168.30.48 nvme discover -t tcp -w 192.168.30.15 -a 192.168.30.49 nvme discover -t tcp -w 192.168.31.15 -a 192.168.31.48 nvme discover -t tcp -w 192.168.31.15 -a 192.168.31.49
-
執行
nvme connect-all跨所有節點支援的 NVMe / TCP 啟動器目標生命體執行命令:nvme connect-all -t tcp -w host-traddr -a traddr顯示範例
nvme connect-all -t tcp -w 192.168.30.15 -a 192.168.30.48 nvme connect-all -t tcp -w 192.168.30.15 -a 192.168.30.49 nvme connect-all -t tcp -w 192.168.31.15 -a 192.168.31.48 nvme connect-all -t tcp -w 192.168.31.15 -a 192.168.31.49
從 RHEL 9.4 開始,NVMe/TCP 的設置 `ctrl_loss_tmo timeout`自動設定為“關閉”。因此:
-
重試次數沒有限制(無限重試)。
-
您不需要手動配置特定的 `ctrl_loss_tmo timeout`使用時長 `nvme connect`或者 `nvme connect-all`命令(選項 -l )。
-
如果發生路徑故障,NVMe/TCP 控制器不會逾時,並且會無限期地保持連線。
步驟 4:(可選)修改 udev 規則中的 iopolicy
RHEL 9.6 將 NVMe-oF 的預設 iopolicy 設定為 round-robin。如果您使用的是 RHEL 9.6 並且想要更改 iopolicy,請執行以下操作: `queue-depth`修改 udev 規則檔如下:
-
使用 root 權限在文字編輯器中開啟 udev 規則檔:
/usr/lib/udev/rules.d/71-nvmf-netapp.rules您應該會看到下列輸出:
vi /usr/lib/udev/rules.d/71-nvmf-netapp.rules
-
找到為NetApp ONTAP控制器設定 iopolicy 的行,如下例所示:
ACTION=="add", SUBSYSTEM=="nvme-subsystem", ATTR{subsystype}=="nvm", ATTR{model}=="NetApp ONTAP Controller", ATTR{iopolicy}="round-robin" -
修改規則,以便
round-robin`變成 `queue-depth:ACTION=="add", SUBSYSTEM=="nvme-subsystem", ATTR{subsystype}=="nvm", ATTR{model}=="NetApp ONTAP Controller", ATTR{iopolicy}="queue-depth" -
重新載入udev規則並套用變更:
udevadm control --reload udevadm trigger --subsystem-match=nvme-subsystem -
請檢查子系統的目前 I/O 策略。例如,替換<子系統>
nvme-subsys0。cat /sys/class/nvme-subsystem/<subsystem>/iopolicy您應該會看到下列輸出:
queue-depth.
|
|
新的 iopolicy 會自動套用於相符的NetApp ONTAP控制器設備。您無需重啟。 |
步驟 5:可選,啟用 NVMe/FC 的 1MB I/O。
ONTAP在識別控制器資料中報告最大資料傳輸大小 (MDTS) 為 8。這意味著最大 I/O 請求大小可達 1MB。若要向 Broadcom NVMe/FC 主機發出 1MB 大小的 I/O 要求,您應該會增加 `lpfc`的價值 `lpfc_sg_seg_cnt`參數從預設值 64 更改為 256。
|
|
這些步驟不適用於 Qlogic NVMe / FC 主機。 |
-
將 `lpfc_sg_seg_cnt`參數設定為 256 :
cat /etc/modprobe.d/lpfc.conf您應該會看到類似以下範例的輸出:
options lpfc lpfc_sg_seg_cnt=256
-
執行 `dracut -f`命令,然後重新啟動主機。
-
確認的值 `lpfc_sg_seg_cnt`為 256 :
cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
步驟 6:驗證 NVMe 啟動服務
這 `nvmefc-boot-connections.service`和 `nvmf-autoconnect.service`NVMe/FC 中包含的啟動服務 `nvme-cli`系統啟動時,軟體包會自動啟用。
啟動完成後,驗證 `nvmefc-boot-connections.service`和 `nvmf-autoconnect.service`啟動服務已啟用。
-
確認 `nvmf-autoconnect.service`已啟用:
systemctl status nvmf-autoconnect.service顯示範例輸出
nvmf-autoconnect.service - Connect NVMe-oF subsystems automatically during boot Loaded: loaded (/usr/lib/systemd/system/nvmf-autoconnect.service; enabled; preset: disabled) Active: inactive (dead) since Wed 2025-10-29 00:42:03 EDT; 6h ago Main PID: 8487 (code=exited, status=0/SUCCESS) CPU: 66ms Oct 29 00:42:03 R650-14-188 systemd[1]: Starting Connect NVMe-oF subsystems automatically during boot... Oct 29 00:42:03 R650-14-188 systemd[1]: nvmf-autoconnect.service: Deactivated successfully. Oct 29 00:42:03 R650-14-188 systemd[1]: Finished Connect NVMe-oF subsystems automatically during boot. -
確認 `nvmefc-boot-connections.service`已啟用:
systemctl status nvmefc-boot-connections.service顯示範例輸出
nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot Loaded: loaded (/usr/lib/systemd/system/nvmefc-boot-connections.service; enabled; preset:enabled) Active: inactive (dead) since Wed 2025-10-29 00:41:51 EDT; 6h ago Main PID: 4652 (code=exited, status=0/SUCCESS) CPU: 13ms Oct 29 00:41:51 R650-14-188 systemd[1]: Starting Auto-connect to subsystems on FC-NVME devices found during boot... Oct 29 00:41:51 R650-14-188 systemd[1]: nvmefc-boot-connections.service: Deactivated successfully. Oct 29 00:41:51 R650-14-188 systemd[1]: Finished Auto-connect to subsystems on FC-NVME devices found during boot
步驟 7:驗證多路徑配置
驗證核心內建 NVMe 多重路徑狀態, ANA 狀態和 ONTAP 命名空間是否適用於 NVMe 組態。
-
確認已啟用核心內建 NVMe 多重路徑:
cat /sys/module/nvme_core/parameters/multipath您應該會看到下列輸出:
Y
-
驗證主機上是否正確顯示了對應ONTAP命名空間的 NVMe-oF 設定(例如,型號設定為NetApp ONTAP Controller,負載平衡 iopolicy 設定為 round-robin):
-
顯示子系統:
cat /sys/class/nvme-subsystem/nvme-subsys*/model您應該會看到下列輸出:
NetApp ONTAP Controller NetApp ONTAP Controller
-
顯示策略:
cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy您應該會看到下列輸出:
queue-depth queue-depth
-
-
確認已在主機上建立並正確探索命名空間:
nvme list顯示範例
Node Generic SN Model -------------------------------------------------------------------------------------- /dev/nvme100n1 /dev/ng100n1 81LJCJYaKOHhAAAAAAAf NetApp ONTAP Controller Namespace Usage Format FW Rev ----------------------------------------------------------- 0x1 1.19 GB / 5.37 GB 4 KiB + 0 B 9.18.1
-
確認每個路徑的控制器狀態均為有效、且具有正確的ANA狀態:
NVMe / FCnvme list-subsys /dev/nvme100n1顯示範例
nvme-subsys4 - NQN=nqn.1992-08.com.netapp:sn.3623e199617311f09257d039eaa7dfc9:subsystem.Nvme31 hostnqn=nqn.2014-08.org.nvmexpress:uuid: 4c4c4544-0056-5410-8048-b9c04f42563 \ +- nvme199 fc traddr=nn-0x200fd039eaa7dfc8:pn-0x2010d039eaa7dfc8,host_traddr=nn-0x200000109bf044b1:pn-0x100000109bf044b1 live optimized +- nvme246 fc traddr=nn-0x200fd039eaa7dfc8:pn-0x2011d039eaa7dfc8,host_traddr=nn-0x200000109bf044b1:pn-0x100000109bf044b1 live non-optimized +- nvme249 fc traddr=nn-0x200fd039eaa7dfc8:pn-0x2013d039eaa7dfc8,host_traddr=nn-0x200000109bf044b2:pn-0x100000109bf044b2 live optimized +- nvme251 fc traddr=nn-0x200fd039eaa7dfc8:pn-0x2012d039eaa7dfc8,host_traddr=nn-0x200000109bf044b2:pn-0x100000109bf044b2 live non-optimizedNVMe / TCPnvme list-subsys /dev/nvme0n1顯示範例
nvme-subsys0 - NQN=nqn.1992-08.com.netapp:sn.51a3c9846e0c11f08f5dd039eaa7dfc9:subsystem.Nvme1 hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-b5c04f444d33 \ +- nvme0 tcp traddr=192.168.30.48,trsvcid=4420,host_traddr=192.168.30.15, src_addr=192.168.30.15 live optimized +- nvme1 tcp traddr=192.168.30.49,trsvcid=4420,host_traddr=192.168.30.15, src_addr=192.168.30.15 live non-optimized +- nvme2 tcp traddr=192.168.31.48,trsvcid=4420,host_traddr=192.168.31.15, src_addr=192.168.31.15 live optimized +- nvme3 tcp traddr=192.168.31.49,trsvcid=4420,host_traddr=192.168.31.15, src_addr=192.168.31.15 live non-optimized
-
驗證NetApp外掛程式是否顯示每ONTAP 個版本名稱空間裝置的正確值:
欄位nvme netapp ontapdevices -o column顯示範例
Device Vserver Subsystem Namespace Path NSID ------------ -------- ----------- ----------------- ---- /dev/nvme0n1 vs_iscsi_tcp Nvme1 /vol/Nvmevol1/ns1 1 UUID Size ------------------------------------- ----- d8efef7d-4dde-447f-b50e-b2c009298c66 26.84GB
JSONnvme netapp ontapdevices -o json顯示範例
{ "ONTAPdevices":[ { "Device":"/dev/nvme0n1", "Vserver":"vs_iscsi_tcp", " Subsystem":"Nvme1", "Namespace_Path":"/vol/Nvmevol1/ns1", "NSID":1, "UUID":"d8efef7d-4dde-447f-b50e-b2c009298c66", "LBA_Size":4096, "Namespace_Size":26843545600, }, ] }
步驟 8:設定安全帶內身份驗證
支援透過 NVMe/TCP 在 RHEL 9x 主機和ONTAP控制器之間進行安全的帶內身份驗證。
每個主機或控制器必須與一個 `DH-HMAC-CHAP`金鑰來設定安全身份驗證。 `DH-HMAC-CHAP`金鑰是 NVMe 主機或控制器的 NQN 與管理員配置的身份驗證金鑰的組合。若要驗證其對等端點、 NVMe 主機或控制器必須識別與對等端點相關的金鑰。
使用 CLI 或設定 JSON 檔案設定安全帶內身份驗證。如果您需要為不同的子系統指定不同的 dhchap 金鑰、則必須使用組態 JSON 檔案。
使用 CLI 設定安全的頻內驗證。
-
取得主機 NQN :
cat /etc/nvme/hostnqn -
為 RHEL 9x 主機產生 dhchap 金鑰。
以下輸出描述了 `gen-dhchap-key`命令參數:
nvme gen-dhchap-key -s optional_secret -l key_length {32|48|64} -m HMAC_function {0|1|2|3} -n host_nqn • -s secret key in hexadecimal characters to be used to initialize the host key • -l length of the resulting key in bytes • -m HMAC function to use for key transformation 0 = none, 1- SHA-256, 2 = SHA-384, 3=SHA-512 • -n host NQN to use for key transformation在下列範例中、會產生一個隨機的 dhchap 金鑰、其中 HMAC 設為 3 ( SHA-512 )。
nvme gen-dhchap-key -m 3 -n nqn.2014- 08.org.nvmexpress:uuid:e6dade64-216d-11ec-b7bb-7ed30a5482c3 DHHC-1:03:wSpuuKbBHTzC0W9JZxMBsYd9JFV8Si9aDh22k2BR/4m852vH7KGlrJeMpzhmyjDWOo0PJJM6yZsTeEpGkDHMHQ255+g=:
-
在 ONTAP 控制器上、新增主機並指定兩個 dhchap 金鑰:
vserver nvme subsystem host add -vserver <svm_name> -subsystem <subsystem> -host-nqn <host_nqn> -dhchap-host-secret <authentication_host_secret> -dhchap-controller-secret <authentication_controller_secret> -dhchap-hash-function {sha-256|sha-512} -dhchap-group {none|2048-bit|3072-bit|4096-bit|6144-bit|8192-bit} -
主機支援兩種驗證方法:單向和雙向。在主機上、連線至 ONTAP 控制器、並根據所選的驗證方法指定 dhchap 金鑰:
nvme connect -t tcp -w <host-traddr> -a <tr-addr> -n <host_nqn> -S <authentication_host_secret> -C <authentication_controller_secret> -
驗證
nvme connect authentication命令驗證主機和控制器 dhchap 金鑰:-
驗證主機 dhchap 金鑰:
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_secret顯示單向組態的輸出範例
cat /sys/class/nvme-subsystem/nvme-subsys1/nvme*/dhchap_secret DHHC-1:01:hhdIYK7rGxHiNYS4d421GxHeDRUAuY0vmdqCp/NOaYND2PSc: DHHC-1:01:hhdIYK7rGxHiNYS4d421GxHeDRUAuY0vmdqCp/NOaYND2PSc: DHHC-1:01:hhdIYK7rGxHiNYS4d421GxHeDRUAuY0vmdqCp/NOaYND2PSc: DHHC-1:01:hhdIYK7rGxHiNYS4d421GxHeDRUAuY0vmdqCp/NOaYND2PSc:
-
驗證控制器 dhchap 按鍵:
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_ctrl_secret顯示雙向組態的輸出範例
cat /sys/class/nvme-subsystem/nvme- subsys*/nvme*/dhchap_ctrl_secret DHHC-1:03:ZCRrP9MQOeXhFitT7Fvvf/3P6K/qY1HfSmSfM8nLjESJdOjbjK/J6m00ygJgjm0VrRlrgrnHzjtWJmsnoVBO3rPDGEk=: DHHC-1:03:ZCRrP9MQOeXhFitT7Fvvf/3P6K/qY1HfSmSfM8nLjESJdOjbjK/J6m00ygJgjm0VrRlrgrnHzjtWJmsnoVBO3rPDGEk=: DHHC-1:03:ZCRrP9MQOeXhFitT7Fvvf/3P6K/qY1HfSmSfM8nLjESJdOjbjK/J6m00ygJgjm0VrRlrgrnHzjtWJmsnoVBO3rPDGEk=: DHHC-1:03:ZCRrP9MQOeXhFitT7Fvvf/3P6K/qY1HfSmSfM8nLjESJdOjbjK/J6m00ygJgjm0VrRlrgrnHzjtWJmsnoVBO3rPDGEk=:
-
當ONTAP控制器上有多個 NVMe 子系統可用時,您可以使用 `/etc/nvme/config.json`文件與 `nvme connect-all`命令。
使用 `-o`選項來產生 JSON 檔案。有關更多語法選項,請參閱 NVMe connect-all 手冊頁。
-
配置 JSON 檔案。
在以下範例中, dhchap_key`對應於 `dhchap_secret`和 `dhchap_ctrl_key`對應於 `dhchap_ctrl_secret。顯示範例
cat /etc/nvme/config.json [ { "hostnqn":"nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-b5c04f444d33", "hostid":"4c4c4544-0035-5910-804b-b5c04f444d33", "dhchap_key":"DHHC-1:01:GhgaLS+0h0W/IxKhSa0iaMHg17SOHRTzBduPzoJ6LKEJs3/f:", "subsystems":[ { "nqn":"nqn.1992-08.com.netapp:sn.2c0c80d9873a11f0bc60d039eab6cb6d:subsystem.istpMNTC_subsys", "ports":[ { "transport":"tcp", "traddr":"192.168.30.44", "host_traddr":"192.168.30.15", "trsvcid":"4420", "dhchap_ctrl_key":"DHHC-1:03:GaraCO84o/uM0jF4rKJlgTy22bVoV0dRn1M+9QDfQRNVwJDHfPu2LrK5Y+/XG8iGcRtBCdm3 fYm3ZmO6NiepCORoY5Q=:" }, { "transport":"tcp", "traddr":"192.168.30.45" "host_traddr":"192.168.30.15", "trsvcid":"4420", "dhchap_ctrl_key":"DHHC-1:03:GaraCO84o/uM0jF4rKJlgTy22bVoV0dRn1M+9QDfQRNVwJDHfPu2LrK5Y+/XG8iGcRtBCdm3 fYm3ZmO6NiepCORoY5Q=:" }, { "transport":"tcp", "traddr":"192.168.31.44", "host_traddr":"192.168.31.15", "trsvcid":"4420", "dhchap_ctrl_key":"DHHC- 1:03: GaraCO84o/uM0jF4rKJlgTy22bVoV0dRn1M+9QDfQRNVwJDHfPu2LrK5Y+/XG8iGc RtBCdm3fYm3ZmO6NiepCORoY5Q=:" }, { "transport":"tcp", "traddr":"192.168.31.45", "host_traddr":"192.168.31.15", "trsvcid":"4420", "dhchap_ctrl_key":"DHHC- 1:03: GaraCO84o/uM0jF4rKJlgTy22bVoV0dRn1M+9QDfQRNVwJDHfPu2LrK5Y+/XG8iGcRtBCdm3fYm3ZmO6NiepCORoY5Q=:" } ] ] } ] -
使用組態 JSON 檔案連線至 ONTAP 控制器:
nvme connect-all -J /etc/nvme/config.json顯示範例
already connected to hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-b5c04f444d33,nqn=nqn.1992-08.com.netapp:sn.2c0c80d9873a11f0bc60d039eab6cb6d:subsystem.istpMNTC_subsys,transport=tcp,traddr=192.168.30.44,trsvcid=4420 already connected to hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-b5c04f444d33,nqn=nqn.1992-08.com.netapp:sn.2c0c80d9873a11f0bc60d039eab6cb6d:subsystem.istpMNTC_subsys,transport=tcp,traddr=192.168.31.44,trsvcid=4420 already connected to hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-b5c04f444d33,nqn=nqn.1992-08.com.netapp:sn.2c0c80d9873a11f0bc60d039eab6cb6d:subsystem.istpMNTC_subsys,transport=tcp,traddr=192.168.30.45,trsvcid=4420 already connected to hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-b5c04f444d33,nqn=nqn.1992-08.com.netapp:sn.2c0c80d9873a11f0bc60d039eab6cb6d:subsystem.istpMNTC_subsys,transport=tcp,traddr=192.168.31.45,trsvcid=4420
-
確認已為每個子系統的個別控制器啟用 dhchap 機密:
-
驗證主機 dhchap 金鑰:
cat /sys/class/nvme-subsystem/nvme-subsys96/nvme96/dhchap_secret以下範例顯示了 dhchap 金鑰:
DHHC-1:01:hhdIYK7rGxHiNYS4d421GxHeDRUAuY0vmdqCp/NOaYND2PSc:
-
驗證控制器 dhchap 按鍵:
cat /sys/class/nvme-subsystem/nvme-subsys96/nvme96/dhchap_ctrl_secret您應該會看到類似以下範例的輸出:
DHHC-1:03:ZCRrP9MQOeXhFitT7Fvvf/3P6K/qY1HfSmSfM8nLjESJdOjbjK/J6m00ygJgjm0VrRlrgrnHzjtWJmsnoVBO3rPDGEk=:
-
步驟 9 :檢閱已知問題
這些是已知問題:
| NetApp錯誤ID | 標題 | 說明 |
|---|---|---|
1503468 |
在 RHEL 9.1 中, `nvme list-subsys`該命令傳回給定子系統的重複 NVMe 控制器列表 |
這 `nvme list-subsys`指令傳回給定子系統的 NVMe 控制器清單。在 RHEL 9.1 中,此指令顯示子系統中所有命名空間的控制器及其 ANA 狀態。由於 ANA 狀態是每個命名空間的屬性,因此此指令應顯示具有每個命名空間的路徑狀態的唯一控制器條目。 |
RHEL 9.0 NVMe-oF 主機建立重複的持久發現控制器 (PDC) |
在 NVMe-oF 主機上,您可以使用 |