適用於 ONTAP 的 RHEL 9.1 的 NVMe 主機組態
RHEL 9.1支援NVMe over Fabrics或NVMe(包括NVMe / FC和NVMe / TCP)、並具備非對稱命名空間存取(ANA)、ONTAP 可在不間斷的儲存容錯移轉(SFO)上執行。ANA是NVMe環境中的非對稱邏輯單元存取(ALUA)、目前是以核心內建NVMe多重路徑來實作。使用此程序、您可以使用 RHEL 9.1 上的 ANA 和 ONTAP 作為目標、來啟用內核心 NVMe 多重路徑的 NVMe 。
下列支援適用於 ONTAP 的 RHEL 9.1 NVMe 主機組態:
-
支援 NVMe over TCP ( NVMe / TCP )、以及 NVMe / FC 。原生 NVMe - CLI 套件中的 NetApp 外掛程式會同時顯示 NVMe / FC 和 NVMe / TCP 命名空間的 ONTAP 詳細資料。
-
在指定主機匯流排介面卡( HBA )上的同一主機上使用 NVMe 和 SCSI 共存流量、而不使用明確的 dm-multipath 設定、以避免使用 NVMe 命名空間。
請參閱 "NetApp 互通性對照表工具" 以取得所支援組態的正確詳細資料。
功能
RHEL 9.1支援預設啟用的NVMe命名空間內核心NVMe多重路徑、不需要明確設定。
已知限制
目前不支援使用 NVMe 型傳輸協定進行 SAN 開機。
啟用核心內建NVMe多重路徑
您可以使用下列程序來啟用核心內建 NVMe 多重路徑。
-
在伺服器上安裝 RHEL 9.1 。
-
安裝完成後、請確認您正在執行指定的RHEL 9.1核心。請參閱 "NetApp 互通性對照表工具" 以取得最新的支援版本清單。
範例:
# uname -r 5.14.0-162.6.1.el9_1.x86_64
-
安裝「NVMe-CLI(NVMe - CLI)套件:
範例:
# rpm -qa|grep nvme-cli nvme-cli-2.0-4.el9.x86_64
-
在主機上、檢查位於「/etc/nape/hostnqn」的主機NQN字串、並驗證其是否符合ONTAP 位於「the」(子系統)上之對應子系統的主機NQN字串。範例:
# cat /etc/nvme/hostnqn nqn.2014-08.org.nvmexpress:uuid:325e7554-1f9b-11ec-8489-3a68dd61a4df ::> vserver nvme subsystem host show -vserver vs_nvme207 Vserver Subsystem Host NQN ----------- --------------- ---------------------------------------------------------- vs_nvme207 rhel_207_LPe32002 nqn.2014-08.org.nvmexpress:uuid:325e7554-1f9b-11ec-8489-3a68dd61a4df
如果主機NQN字串不相符、您應該使用「vserver modify」命令來更新對應ONTAP 的NVMe子系統上的主機NQN字串、以符合主機上的主機NQN字串「/etc/nvm/hostnqn」。 -
重新啟動主機。
設定NVMe/FC
您可以為 Broadcom / Emulex 或 Marvell/Qlogic 介面卡設定 NVMe / FC 。
-
確認您使用的是支援的介面卡。請參閱 "NetApp 互通性對照表工具" 以取得最新的支援介面卡清單。
# cat /sys/class/scsi_host/host*/modelname LPe32002-M2 LPe32002-M2 # cat /sys/class/scsi_host/host*/modeldesc Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
-
請確認您使用的是建議的Broadcom lfit韌體和收件匣驅動程式。請參閱 "NetApp 互通性對照表工具" 以取得最新的支援介面卡驅動程式和韌體版本清單。
# cat /sys/class/scsi_host/host*/fwrev 14.0.505.11, sli-4:2:c 14.0.505.11, sli-4:2:c
# cat /sys/module/lpfc/version 0:14.2.0.5
-
確認「lffc_enable _FC4_type]已設定為3
# cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type 3
-
驗證啟動器連接埠是否已啟動並正在執行、以及您是否可以看到目標LIF。
# cat /sys/class/fc_host/host*/port_name 0x100000109b1b95ef 0x100000109b1b95f0
# cat /sys/class/fc_host/host*/port_state Online Online
# cat /sys/class/scsi_host/host*/nvme_info NVME Initiator Enabled XRI Dist lpfc0 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc0 WWPN x100000109b1b95ef WWNN x200000109b1b95ef DID x061700 ONLINE NVME RPORT WWPN x2035d039ea1308e5 WWNN x2082d039ea1308e5 DID x062f05 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2083d039ea1308e5 WWNN x2082d039ea1308e5 DID x062407 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 000000000e Cmpl 000000000e Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000000001df6c Issue 000000000001df6e OutIO 0000000000000002 abort 00000000 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 00000000 Err 00000004 NVME Initiator Enabled XRI Dist lpfc1 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc1 WWPN x100000109b1b95f0 WWNN x200000109b1b95f0 DID x061400 ONLINE NVME RPORT WWPN x2036d039ea1308e5 WWNN x2082d039ea1308e5 DID x061605 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2037d039ea1308e5 WWNN x2082d039ea1308e5 DID x062007 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 000000000e Cmpl 000000000e Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000000001dd28 Issue 000000000001dd29 OutIO 0000000000000001 abort 00000000 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 00000000 Err 00000004
RHEL 9.1 核心中隨附的原生收件匣 `qla2xxx`驅動程式具有最新的修正程式。這些修正對於 ONTAP 支援至關重要。
-
使用下列命令、確認您執行的是支援的介面卡驅動程式和韌體版本:
# cat /sys/class/fc_host/host*/symbolic_name QLE2772 FW:v9.08.02 DVR:v10.02.07.400-k-debug QLE2772 FW:v9.08.02 DVR:v10.02.07.400-k-debug
-
驗證
ql2xnvmeenable
已設定、可讓Marvell介面卡以NVMe / FC啟動器的形式運作、使用下列命令:# cat /sys/module/qla2xxx/parameters/ql2xnvmeenable 1
啟用 1MB I/O (選用)
ONTAP 會在識別控制器資料中報告 8 的 MDTS ( MAX Data 傳輸大小)。這表示最大 I/O 要求大小最多可達 1MB 。若要針對 Broadcom NVMe / FC 主機發出大小為 1 MB 的 I/O 要求、您必須將 lpfc
`lpfc_sg_seg_cnt`參數值從預設值 64 增加至 256 。
下列步驟不適用於 Qlogic NVMe / FC 主機。 |
-
將 `lpfc_sg_seg_cnt`參數設定為 256 :
cat /etc/modprobe.d/lpfc.conf
輸出範例options lpfc lpfc_sg_seg_cnt=256
-
執行 `dracut -f`命令,然後重新啟動主機:
-
確認 `lpfc_sg_seg_cnt`為 256 :
cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
預期值為 256 。
設定NVMe/TCP
NVMe / TCP 沒有自動連線功能。因此、如果某個路徑發生故障、且在 10 分鐘的預設逾時期間內未恢復、則 NVMe / TCP 無法自動重新連線。若要避免逾時、您應該將容錯移轉事件的重試期間設為至少 30 分鐘。
-
驗證啟動器連接埠是否可在支援的NVMe/TCP LIF中擷取探索記錄頁面資料:
# nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.51 Discovery Log Number of Records 10, Generation counter 119 =====Discovery Log Entry 0====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 0 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.56e362e9bb4f11ebbaded039ea165abc:subsystem.nvme_118_tcp_1 traddr: 192.168.2.56 sectype: none =====Discovery Log Entry 1====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 1 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.56e362e9bb4f11ebbaded039ea165abc:subsystem.nvme_118_tcp_1 traddr: 192.168.1.51 sectype: none =====Discovery Log Entry 2====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 0 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.56e362e9bb4f11ebbaded039ea165abc:subsystem.nvme_118_tcp_2 traddr: 192.168.2.56 sectype: none ...
-
確認其他NVMe / TCP啟動器目標LIF組合可以成功擷取探索記錄頁面資料。例如:
# nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.51 # nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.52 # nvme discover -t tcp -w 192.168.2.9 -a 192.168.2.56 # nvme discover -t tcp -w 192.168.2.9 -a 192.168.2.57
-
執行
nvme connect-all
跨節點執行所有支援的NVMe/TCP啟動器目標LIF命令。請務必設定更長的時間ctrl_loss_tmo
定時器重試期間(例如30分鐘、可透過設定-l 1800
)connect-all
命令、以便在路徑遺失時重試更長時間。例如:# nvme connect-all -t tcp -w 192.168.1.8 -a 192.168.1.51 -l 1800 # nvme connect-all -t tcp -w 192.168.1.8 -a 192.168.1.52 -l 1800 # nvme connect-all -t tcp -w 192.168.2.9 -a 192.168.2.56 -l 1800 # nvme connect-all -t tcp -w 192.168.2.9 -a 192.168.2.57 -l 1800
驗證NVMe
您可以使用下列程序來驗證 NVMe 。
-
檢查下列項目、確認內核NVMe多重路徑確實已啟用:
# cat /sys/module/nvme_core/parameters/multipath Y
-
驗證ONTAP 適當的NVMe設定值(例如、將「model」設為「NetApp還原控制器」、並將負載平衡「iopolicy」設為「循環」)、以正確ONTAP 反映在主機上:
# cat /sys/class/nvme-subsystem/nvme-subsys*/model NetApp ONTAP Controller NetApp ONTAP Controller
# cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy round-robin round-robin
-
確認ONTAP 支援的名稱空間能正確反映在主機上。例如:
# nvme list Node SN Model Namespace ------------ --------------------- --------------------------------- /dev/nvme0n1 81CZ5BQuUNfGAAAAAAAB NetApp ONTAP Controller 1 Usage Format FW Rev ------------------- ----------- -------- 85.90 GB / 85.90 GB 4 KiB + 0 B FFFFFFFF
-
確認每個路徑的控制器狀態均為有效、且具有適當的ANA狀態。例如:
範例(A):
# nvme list-subsys /dev/nvme0n1 nvme-subsys10 - NQN=nqn.1992-08.com.netapp:sn.82e7f9edc72311ec8187d039ea14107d:subsystem.rhel_131_QLe2742 \ +- nvme2 fc traddr=nn-0x2038d039ea1308e5:pn-0x2039d039ea1308e5,host_traddr=nn-0x20000024ff171d30:pn-0x21000024ff171d30 live non-optimized +- nvme3 fc traddr=nn-0x2038d039ea1308e5:pn-0x203cd039ea1308e5,host_traddr=nn-0x20000024ff171d31:pn-0x21000024ff171d31 live optimized +- nvme4 fc traddr=nn-0x2038d039ea1308e5:pn-0x203bd039ea1308e5,host_traddr=nn-0x20000024ff171d30:pn-0x21000024ff171d30 live optimized +- nvme5 fc traddr=nn-0x2038d039ea1308e5:pn-0x203ad039ea1308e5,host_traddr=nn-0x20000024ff171d31:pn-0x21000024ff171d31 live non-optimized
範例(b):
# nvme list-subsys /dev/nvme0n1 nvme-subsys1 - NQN=nqn.1992-08.com.netapp:sn.bf0691a7c74411ec8187d039ea14107d:subsystem.rhel_tcp_133 \ +- nvme1 tcp traddr=192.168.166.21,trsvcid=4420,host_traddr=192.168.166.5 live non-optimized +- nvme2 tcp traddr=192.168.166.20,trsvcid=4420,host_traddr=192.168.166.5 live optimized +- nvme3 tcp traddr=192.168.167.21,trsvcid=4420,host_traddr=192.168.167.5 live non-optimized +- nvme4 tcp traddr=192.168.167.20,trsvcid=4420,host_traddr=192.168.167.5 live optimized
-
驗證NetApp外掛程式是否顯示每ONTAP 個支援的名稱空間設備的正確值。
範例(A):
# nvme netapp ontapdevices -o column Device Vserver Namespace Path --------- ------- -------------------------------------------------- /dev/nvme0n1 vs_tcp79 /vol/vol1/ns1 NSID UUID Size ---- ------------------------------ ------ 1 79c2c569-b7fa-42d5-b870-d9d6d7e5fa84 21.47GB # nvme netapp ontapdevices -o json { "ONTAPdevices" : [ { "Device" : "/dev/nvme0n1", "Vserver" : "vs_tcp79", "Namespace_Path" : "/vol/vol1/ns1", "NSID" : 1, "UUID" : "79c2c569-b7fa-42d5-b870-d9d6d7e5fa84", "Size" : "21.47GB", "LBA_Data_Size" : 4096, "Namespace_Size" : 5242880 }, ] }
範例(b):
# nvme netapp ontapdevices -o column Device Vserver Namespace Path ---------------- ------------------------- ----------------------------------- /dev/nvme1n1 vs_tcp_133 /vol/vol1/ns1 NSID UUID Size ------------------------------------------------------- 1 1ef7cb56-bfed-43c1-97c1-ef22eeb92657 21.47GB # nvme netapp ontapdevices -o json { "ONTAPdevices":[ { "Device":"/dev/nvme1n1", "Vserver":"vs_tcp_133", "Namespace_Path":"/vol/vol1/ns1", "NSID":1, "UUID":"1ef7cb56-bfed-43c1-97c1-ef22eeb92657", "Size":"21.47GB", "LBA_Data_Size":4096, "Namespace_Size":5242880 }, ] }
已知問題
採用 ONTAP 的 RHEL 9.1 的 NVMe 主機組態有下列已知問題:
NetApp錯誤ID | 標題 | 說明 |
---|---|---|
1503468 |
|
。 |