使用ONTAP儲存為 NVMe-oF 設定 RHEL 8.3
Red Hat Enterpirse Linux (RHEL) 主機支援具有非對稱命名空間存取 (ANA) 的 NVMe over Fibre Channel (NVMe/FC) 和 NVMe over TCP (NVMe/TCP) 協定。 ANA 提供與 iSCSI 和 FCP 環境中的非對稱邏輯單元存取 (ALUA) 等效的多路徑功能。
了解如何為 RHEL 8.3 設定 NVMe over Fabrics (NVMe-oF) 主機。有關更多支援和功能信息,請參閱"NVME-oF 概述"。
RHEL 8.3 的 NVMe-oF 有以下已知限制:
-
目前不支援使用 NVMe-oF 協定的 SAN 啟動。
-
預設情況下,RHEL 8.3 中的 NVMe-oF 主機上會停用核心 NVMe 多路徑;您必須手動啟用它。
步驟 1 :選擇性啟用 SAN 開機
您可以設定主機以使用 SAN 啟動來簡化部署並提高可擴充性。使用"互通性對照表工具"驗證您的 Linux 作業系統、主機匯流排適配器 (HBA)、HBA 韌體、HBA 啟動 BIOS 和ONTAP版本是否支援 SAN 啟動。
-
在伺服器 BIOS 中為 SAN 啟動命名空間對應到的連接埠啟用 SAN 啟動。
如需如何啟用HBA BIOS的相關資訊、請參閱廠商專屬的文件。
-
重新啟動主機並驗證作業系統是否已啟動並正在運行。
步驟 2:驗證軟體版本和 NVMe 配置
檢查您的系統是否符合軟體要求並驗證 NVMe 套件安裝和主機配置。
-
在伺服器上安裝 RHEL 8.3。安裝完成後,請驗證您是否正在執行所需的 RHEL 8.3 核心:
uname -rRHEL 核心版本範例:
4.18.0-240.el8.x86_64
-
安裝「NVMe-CLI(NVMe - CLI)套件:
rpm -qa|grep nvme-cli以下範例顯示了 nvme-cli 軟體包版本:
nvme-cli-1.12-2.el8.x86_64
-
安裝
libnvme套件:rpm -qa|grep libnvme以下範例顯示了 libnvme 軟體包版本:
libnvme-1.0-1.el8.x86_64
-
啟用核心內建NVMe多重路徑:
grubby --args=nvme_core.multipath=Y --update-kernel /boot/vmlinuz-4.18.0-240.el8.x86_64 -
在 RHEL 8.3 主機上,檢查 hostnqn 字串
/etc/nvme/hostnqn:cat /etc/nvme/hostnqn以下範例顯示了 hostnqn 版本:
nqn.2014-08.org.nvmexpress:uuid:9ed5b327-b9fc-4cf5-97b3-1b5d986345d1
-
確認
hostnqn字串符合hostnqnONTAP 陣列上對應子系統的字串:::> vserver nvme subsystem host show -vserver vs_fcnvme_141顯示範例
Vserver Subsystem Host NQN ----------- --------------- ---------------------------------------------------------- vs_fcnvme_141 nvme_141_1 nqn.2014-08.org.nvmexpress:uuid:9ed5b327-b9fc-4cf5-97b3-1b5d986345d1
如果是 hostnqn字串不相符、請使用vserver modify命令來更新hostnqn對應 ONTAP 陣列子系統上的字串、以符合hostnqn字串來源/etc/nvme/hostnqn在主機上。 -
重新啟動主機。
-
您也可以選擇更新
enable_foreign設定:為了在同一台主機上執行 NVMe 和 SCSI 流量, NetApp建議對ONTAP命名空間使用核心 NVMe 多路徑,對ONTAP LUN 使用 dm-multipath。為了防止 dm-multipath 聲明ONTAP命名空間設備,請透過添加 `enable_foreign`設定為 `/etc/multipath.conf`文件:
cat /etc/multipath.conf defaults { enable_foreign NONE } -
執行「stystemctl重新啟動多路徑d」來重新啟動多路徑精靈。
步驟 3:設定 NVMe/FC Broadcom/Emulex 轉接器
使用 Broadcom/Emulex 適配器配置 NVMe/FC。
-
確認您使用的是支援的介面卡機型:
-
顯示模型名稱:
cat /sys/class/scsi_host/host*/modelname您應該會看到下列輸出:
LPe32002-M2 LPe32002-M2
-
顯示模型描述:
cat /sys/class/scsi_host/host*/modeldesc您應該會看到類似以下內容的輸出:
Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
-
-
驗證的預期輸出是否
lpfc_enable_fc4_type`設置爲 `3:cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type -
驗證啟動器連接埠是否已啟動並正在運行,並且可以看到目標 LIF:
cat /sys/class/fc_host/host*/port_name您應該會看到類似以下內容的輸出:
0x100000109b1c1204 0x100000109b1c1205
-
驗證啟動器連接埠是否在線上:
cat /sys/class/fc_host/host*/port_state您應該會看到下列輸出:
Online Online
-
確認已啟用 NVMe / FC 啟動器連接埠、且目標連接埠可見:
cat /sys/class/scsi_host/host*/nvme_info顯示範例
NVME Initiator Enabled XRI Dist lpfc0 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc0 WWPN x100000109b1c1204 WWNN x200000109b1c1204 DID x011d00 ONLINE NVME RPORT WWPN x203800a098dfdd91 WWNN x203700a098dfdd91 DID x010c07 TARGET DISCSRVC ONLINE NVME RPORT WWPN x203900a098dfdd91 WWNN x203700a098dfdd91 DID x011507 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000000f78 Cmpl 0000000f78 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000002fe29bba Issue 000000002fe29bc4 OutIO 000000000000000a abort 00001bc7 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 00001e15 Err 0000d906 NVME Initiator Enabled XRI Dist lpfc1 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc1 WWPN x100000109b1c1205 WWNN x200000109b1c1205 DID x011900 ONLINE NVME RPORT WWPN x203d00a098dfdd91 WWNN x203700a098dfdd91 DID x010007 TARGET DISCSRVC ONLINE NVME RPORT WWPN x203a00a098dfdd91 WWNN x203700a098dfdd91 DID x012a07 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000000fa8 Cmpl 0000000fa8 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000002e14f170 Issue 000000002e14f17a OutIO 000000000000000a abort 000016bb noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 00001f50 Err 0000d9f8
步驟 4:(可選)為 NVMe/FC 啟用 1MB I/O
ONTAP在識別控制器資料中報告最大資料傳輸大小 (MDTS) 為 8。這意味著最大 I/O 請求大小可達 1MB。若要向 Broadcom NVMe/FC 主機發出 1MB 大小的 I/O 要求,您應該會增加 `lpfc`的價值 `lpfc_sg_seg_cnt`參數從預設值 64 更改為 256。
|
|
這些步驟不適用於 Qlogic NVMe / FC 主機。 |
-
將 `lpfc_sg_seg_cnt`參數設定為 256 :
cat /etc/modprobe.d/lpfc.conf您應該會看到類似以下範例的輸出:
options lpfc lpfc_sg_seg_cnt=256
-
執行 `dracut -f`命令,然後重新啟動主機。
-
確認的值 `lpfc_sg_seg_cnt`為 256 :
cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
步驟 5:驗證 NVMe-oF
驗證核心內建 NVMe 多重路徑狀態, ANA 狀態和 ONTAP 命名空間是否適用於 NVMe 組態。
-
確認已啟用核心內建 NVMe 多重路徑:
cat /sys/module/nvme_core/parameters/multipath您應該會看到下列輸出:
Y
-
驗證個別 ONTAP 命名空間的適當 NVMe 設定(例如、模型設定為 NetApp ONTAP 控制器、負載平衡 iopolicing 設定為循環)是否正確反映在主機上:
-
顯示子系統:
cat /sys/class/nvme-subsystem/nvme-subsys*/model您應該會看到下列輸出:
NetApp ONTAP Controller NetApp ONTAP Controller
-
顯示策略:
cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy您應該會看到下列輸出:
round-robin round-robin
-
-
確認已在主機上建立並正確探索命名空間:
nvme list顯示範例
Node SN Model --------------------------------------------------------- /dev/nvme4n1 81Ix2BVuekWcAAAAAAAB NetApp ONTAP Controller Namespace Usage Format FW Rev ----------------------------------------------------------- 1 21.47 GB / 21.47 GB 4 KiB + 0 B FFFFFFFF
-
確認每個路徑的控制器狀態均為有效、且具有正確的ANA狀態:
nvme list-subsys /dev/nvme1n1顯示範例
nvme-subsys0 - NQN=nqn.1992-08.com.netapp:sn.5f5f2c4aa73b11e9967e00a098df41bd:subsystem.nvme_141_1 \ +- nvme0 fc traddr=nn-0x203700a098dfdd91:pn-0x203800a098dfdd91 host_traddr=nn-0x200000109b1c1204:pn-0x100000109b1c1204 live inaccessible +- nvme1 fc traddr=nn-0x203700a098dfdd91:pn-0x203900a098dfdd91 host_traddr=nn-0x200000109b1c1204:pn-0x100000109b1c1204 live inaccessible +- nvme2 fc traddr=nn-0x203700a098dfdd91:pn-0x203a00a098dfdd91 host_traddr=nn-0x200000109b1c1205:pn-0x100000109b1c1205 live optimized +- nvme3 fc traddr=nn-0x203700a098dfdd91:pn-0x203d00a098dfdd91 host_traddr=nn-0x200000109b1c1205:pn-0x100000109b1c1205 live optimized
-
驗證NetApp外掛程式是否顯示每ONTAP 個版本名稱空間裝置的正確值:
欄位nvme netapp ontapdevices -o column顯示範例
Device Vserver Namespace Path NSID UUID Size --------------- --------------- --------------------------------------------- -------- -------------------------------------- --------- /dev/nvme0n1 vs_fcnvme_141 /vol/fcnvme_141_vol_1_1_0/fcnvme_141_ns 1 72b887b1-5fb6-47b8-be0b-33326e2542e2 85.90GB /dev/nvme0n2 vs_fcnvme_141 /vol/fcnvme_141_vol_1_0_0/fcnvme_141_ns 2 04bf9f6e-9031-40ea-99c7-a1a61b2d7d08 85.90GB /dev/nvme0n3 vs_fcnvme_141 /vol/fcnvme_141_vol_1_1_1/fcnvme_141_ns 3 264823b1-8e03-4155-80dd-e904237014a4 85.90GB
JSONnvme netapp ontapdevices -o json顯示範例
{ "ONTAPdevices" : [ { "Device" : "/dev/nvme0n1", "Vserver" : "vs_fcnvme_141", "Namespace_Path" : "/vol/fcnvme_141_vol_1_1_0/fcnvme_141_ns", "NSID" : 1, "UUID" : "72b887b1-5fb6-47b8-be0b-33326e2542e2", "Size" : "85.90GB", "LBA_Data_Size" : 4096, "Namespace_Size" : 20971520 }, { "Device" : "/dev/nvme0n2", "Vserver" : "vs_fcnvme_141", "Namespace_Path" : "/vol/fcnvme_141_vol_1_0_0/fcnvme_141_ns", "NSID" : 2, "UUID" : "04bf9f6e-9031-40ea-99c7-a1a61b2d7d08", "Size" : "85.90GB", "LBA_Data_Size" : 4096, "Namespace_Size" : 20971520 }, { "Device" : "/dev/nvme0n3", "Vserver" : "vs_fcnvme_141", "Namespace_Path" : "/vol/fcnvme_141_vol_1_1_1/fcnvme_141_ns", "NSID" : 3, "UUID" : "264823b1-8e03-4155-80dd-e904237014a4", "Size" : "85.90GB", "LBA_Data_Size" : 4096, "Namespace_Size" : 20971520 }, ]
步驟 6 :檢閱已知問題
沒有已知問題。