使用ONTAP存储为 NVMe-oF 配置 RHEL 8.7
Red Hat Enterpirse Linux (RHEL) 主机支持具有非对称命名空间访问 (ANA) 的 NVMe over Fibre Channel (NVMe/FC) 和 NVMe over TCP (NVMe/TCP) 协议。 ANA 提供与 iSCSI 和 FCP 环境中的非对称逻辑单元访问 (ALUA) 等效的多路径功能。
了解如何为 RHEL 8.7 配置 NVMe over Fabrics (NVMe-oF) 主机。有关更多支持和功能信息,请参阅"NVME-oF 概述"。
RHEL 8.7 的 NVMe-oF 具有以下已知限制:
-
目前不支持使用 NVMe-oF 协议的 SAN 启动。
-
默认情况下,RHEL 8.7 中的 NVMe-oF 主机上禁用内核 NVMe 多路径;您必须手动启用它。
-
由于已知问题,NVMe/TCP 可作为技术预览使用。
第1步:(可选)启用SAN启动
您可以配置主机以使用 SAN 启动来简化部署并提高可扩展性。使用"互操作性表工具"验证您的 Linux 操作系统、主机总线适配器 (HBA)、HBA 固件、HBA 启动 BIOS 和ONTAP版本是否支持 SAN 启动。
-
在服务器 BIOS 中为 SAN 启动命名空间映射到的端口启用 SAN 启动。
有关如何启用 HBA BIOS 的信息,请参见供应商专用文档。
-
重新启动主机并验证操作系统是否已启动并正在运行。
步骤 2:验证软件版本和 NVMe 配置
检查您的系统是否满足软件要求并验证 NVMe 包安装和主机配置。
-
在服务器上安装 RHEL 8.7。安装完成后,验证您是否正在运行所需的 RHEL 8.7 内核:
uname -r
RHEL 内核版本示例:
4.18.0-425.3.1.el8.x86_64
-
安装
NVMe-CLI
软件包:rpm -qa|grep nvme-cli
以下示例显示了 nvme-cli 软件包版本:
nvme-cli-1.16-5.el8.x86_64
-
安装
libnvme
软件包:rpm -qa|grep libnvme
以下示例显示了 libnvme 软件包版本:
libnvme-1.2-3.el8.x86_64
-
启用内核 NVMe 多路径。
grubby --args=nvme_core.multipath=Y --update-kernel /boot/vmlinuz-4.18.0-425.3.1.el8.x86_64
-
在 RHEL 8.7 主机上,检查
hostnqn`字符串位于 `/etc/nvme/hostnqn
:cat /etc/nvme/hostnqn
下面的例子展示了 `hostnqn`版本:
nqn.2014-08.org.nvmexpress:uuid:a7f7a1d4-311a-11e8-b634-7ed30aef10b7
-
验证 `hostnqn`字符串匹配 `hostnqn`ONTAP存储系统上相应子系统的字符串:
::> vserver nvme subsystem host show -vserver vs_nvme167
显示示例
Vserver Subsystem Host NQN ----------- --------------- ---------------------------------------------------------- vs_nvme167 rhel_167_LPe35002 nqn.2014-08.org.nvmexpress:uuid:a7f7a1d4-311a-11e8-b634-7ed30aef10b7
如果 `hostnqn`字符串不匹配,请使用 `vserver modify`命令来更新 `hostnqn`相应ONTAP存储系统子系统上的字符串以匹配 `hostnqn`字符串来自 `/etc/nvme/hostnqn`在主机上。 -
重新启动主机。
为了在同一主机上运行 NVMe 和 SCSI 流量, NetApp建议对ONTAP命名空间使用内核 NVMe 多路径,对ONTAP LUN 使用 dm-multipath。为了防止 dm-multipath 声明ONTAP命名空间设备,请通过添加 `enable_foreign`设置为 `/etc/multipath.conf`文件:
cat /etc/multipath.conf defaults { enable_foreign NONE }
-
运行
systemctl restart multipathd
以重新启动 multipathd 守护进程。
步骤 3:配置 NVMe/FC 和 NVMe/TCP
使用 Broadcom/Emulex 或 Marvell/QLogic 适配器配置 NVMe/FC,或使用手动发现和连接操作配置 NVMe/TCP。
为Broadcom/Emulex适配器配置NVMe/FC。
-
验证您使用的适配器型号是否受支持:
-
显示模型名称:
cat /sys/class/scsi_host/host*/modelname
您应该看到类似于以下示例的输出:
LPe35002-M2 LPe35002-M2
-
显示模型描述:
cat /sys/class/scsi_host/host*/modeldesc
您应该看到类似于以下示例的输出:
Emulex LightPulse LPe35002-M2 2-Port 32Gb Fibre Channel Adapter Emulex LightPulse LPe35002-M2 2-Port 32Gb Fibre Channel Adapter
-
-
确认您使用的是建议的Broadcom
lpfc
固件和内置驱动程序:-
显示固件版本:
cat /sys/class/scsi_host/host*/fwrev
该命令返回固件版本:
14.0.505.12, sli-4:6:d 14.0.505.12, sli-4:6:d
-
显示收件箱驱动程序版本:
cat /sys/module/lpfc/version
以下示例显示了驱动程序版本:
0:14.0.0.15
有关支持的适配器驱动程序和固件版本的最新列表,请参见"互操作性表工具"。
-
-
请验证
lpfc_enable_fc4_type
设置为3
:cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
-
验证是否可以查看启动程序端口:
cat /sys/class/fc_host/host*/port_name
您应该看到类似于以下示例的输出:
0x100000109b95467c 0x100000109b95467b
-
验证启动程序端口是否联机:
cat /sys/class/fc_host/host*/port_state
您应看到以下输出:
Online Online
-
验证NVMe/FC启动程序端口是否已启用且目标端口是否可见:
cat /sys/class/scsi_host/host*/nvme_info
显示示例
NVME Initiator Enabled XRI Dist lpfc1 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc1 WWPN x100000109b95467c WWNN x200000109b95467c DID x0a1500 ONLINE NVME RPORT WWPN x2071d039ea36a105 WWNN x206ed039ea36a105 DID x0a0907 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2072d039ea36a105 WWNN x206ed039ea36a105 DID x0a0805 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 00000001c7 Cmpl 00000001c7 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 0000000004909837 Issue 0000000004908cfc OutIO fffffffffffff4c5 abort 0000004a noxri 00000000 nondlp 00000458 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 00000061 Err 00017f43 NVME Initiator Enabled XRI Dist lpfc0 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc0 WWPN x100000109b95467b WWNN x200000109b95467b DID x0a1100 ONLINE NVME RPORT WWPN x2070d039ea36a105 WWNN x206ed039ea36a105 DID x0a1007 TARGET DISCSRVC ONLINE NVME RPORT WWPN x206fd039ea36a105 WWNN x206ed039ea36a105 DID x0a0c05 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 00000001c7 Cmpl 00000001c7 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 0000000004909464 Issue 0000000004908531 OutIO fffffffffffff0cd abort 0000004f noxri 00000000 nondlp 00000361 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 0000006b Err 00017f99
为Marvell/QLogic适配器配置NVMe/FC。
-
验证您使用的适配器驱动程序和固件版本是否受支持:
cat /sys/class/fc_host/host*/symbolic_name
以下示例显示了驱动程序和固件版本:
QLE2772 FW:v9.08.02 DVR:v10.02.07.400-k-debug QLE2772 FW:v9.08.02 DVR:v10.02.07.400-k-debug
-
请验证
ql2xnvmeenable
已设置。这样、Marvell适配器便可用作NVMe/FC启动程序:cat /sys/module/qla2xxx/parameters/ql2xnvmeenable
预期输出为1。
NVMe/TCP 协议不支持自动连接操作。相反,您可以通过执行 NVMe/TCP 来发现 NVMe/TCP 子系统和命名空间 `connect`或者 `connect-all`手动操作。
-
检查启动器端口是否可以跨支持的 NVMe/TCP LIF 获取发现日志页面数据:
nvme discover -t tcp -w host-traddr -a traddr
显示示例
nvme discover -t tcp -w 192.168.211.5 -a 192.168.211.14 Discovery Log Number of Records 8, Generation counter 10 =====Discovery Log Entry 0====== trtype: tcp adrfam: ipv4 subtype: unrecognized treq: not specified portid: 0 trsvcid: 8009 subnqn: nqn.199208.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:discovery traddr: 192.168.211.15 sectype: none =====Discovery Log Entry 1====== trtype: tcp adrfam: ipv4 subtype: unrecognized treq: not specified portid: 1 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:discovery traddr: 192.168.111.15 sectype: none =====Discovery Log Entry 2====== trtype: tcp adrfam: ipv4 subtype: unrecognized treq: not specified portid: 2 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:discovery traddr: 192.168.211.14 sectype: none =====Discovery Log Entry 3====== trtype: tcp adrfam: ipv4 subtype: unrecognized treq: not specified portid: 3 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:discovery traddr: 192.168.111.14 sectype: none =====Discovery Log Entry 4====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 0 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:subsystem.rhel_tcp_165 traddr: 192.168.211.15 sectype: none =====Discovery Log Entry 5====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 1 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:subsystem.rhel_tcp_165 traddr: 192.168.111.15 sectype: none =====Discovery Log Entry 6====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 2 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:subsystem.rhel_tcp_165 traddr: 192.168.211.14 sectype: none =====Discovery Log Entry 7====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 3 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:subsystem.rhel_tcp_165 traddr: 192.168.111.14 sectype: none [root@R650-13-79 ~]#
-
验证其他NVMe/TCP启动程序-目标LIF组合是否可以成功提取发现日志页面数据:
nvme discover -t tcp -w host-traddr -a traddr
显示示例
nvme discover -t tcp -w 192.168.211.5 -a 192.168.211.14 nvme discover -t tcp -w 192.168.211.5 -a 192.168.211.15 nvme discover -t tcp -w 192.168.111.5 -a 192.168.111.14 nvme discover -t tcp -w 192.168.111.5 -a 192.168.111.15
-
运行
nvme connect-all
在节点中所有受支持的NVMe/TCP启动程序-目标SIP上运行命令:nvme connect-all -t tcp -w host-traddr -a traddr -1 1800
显示示例
nvme connect-all -t tcp -w 192.168.211.5-a 192.168.211.14 -l 1800 nvme connect-all -t tcp -w 192.168.211.5 -a 192.168.211.15 -l 1800 nvme connect-all -t tcp -w 192.168.111.5 -a 192.168.111.14 -l 1800 nvme connect-all -t tcp -w 192.168.111.5 -a 192.168.111.15 -l 1800
步骤 4:(可选)为 NVMe/FC 启用 1MB I/O
ONTAP在识别控制器数据中报告最大数据传输大小 (MDTS) 为 8。这意味着最大 I/O 请求大小可达 1MB。要向 Broadcom NVMe/FC 主机发出 1MB 大小的 I/O 请求,您应该增加 `lpfc`的价值 `lpfc_sg_seg_cnt`参数从默认值 64 更改为 256。
|
这些步骤不适用于逻辑NVMe/FC主机。 |
-
将 `lpfc_sg_seg_cnt`参数设置为256:
cat /etc/modprobe.d/lpfc.conf
您应该会看到类似于以下示例的输出:
options lpfc lpfc_sg_seg_cnt=256
-
运行 `dracut -f`命令并重新启动主机。
-
验证的值是否 `lpfc_sg_seg_cnt`为256:
cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
步骤 5:验证 NVMe-oF
验证内核NVMe多路径状态、ANA状态和ONTAP命名空间是否适用于NVMe-oF配置。
-
验证是否已启用内核NVMe多路径:
cat /sys/module/nvme_core/parameters/multipath
您应看到以下输出:
Y
-
验证相应ONTAP命名库的适当NVMe-oF设置(例如、型号设置为NetApp ONTAP控制器、负载平衡iopolicy设置为循环)是否正确反映在主机上:
-
显示子系统:
cat /sys/class/nvme-subsystem/nvme-subsys*/model
您应看到以下输出:
NetApp ONTAP Controller NetApp ONTAP Controller
-
显示策略:
cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
您应看到以下输出:
round-robin round-robin
-
-
验证是否已在主机上创建并正确发现命名空间:
nvme list
显示示例
Node SN Model --------------------------------------------------------- /dev/nvme4n1 81Ix2BVuekWcAAAAAAAB NetApp ONTAP Controller Namespace Usage Format FW Rev ----------------------------------------------------------- 1 21.47 GB / 21.47 GB 4 KiB + 0 B FFFFFFFF
-
验证每个路径的控制器状态是否为活动状态且是否具有正确的ANA状态:
nvme list-subsys /dev/nvme1n1
显示示例
nvme-subsys0 - NQN=nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:subsystem.rhel_tcp_165 \ +- nvme0 tcp traddr=192.168.211.15 trsvcid=4420 host_traddr=192.168.211.5 live non-optimized +- nvme1 tcp traddr=192.168.211.14 trsvcid=4420 host_traddr=192.168.211.5 live optimized +- nvme2 tcp traddr=192.168.111.15 trsvcid=4420 host_traddr=192.168.111.5 live non-optimized +- nvme3 tcp traddr=192.168.111.14 trsvcid=4420 host_traddr=192.168.111.5 live optimized
-
验证NetApp插件是否为每个ONTAP 命名空间设备显示正确的值:
列nvme netapp ontapdevices -o column
显示示例
Device Vserver Namespace Path --------- ------- -------------------------------------------------- /dev/nvme0n1 vs_tcp79 /vol/vol1/ns1 NSID UUID Size ---- ------------------------------ ------ 1 79c2c569-b7fa-42d5-b870-d9d6d7e5fa84 21.47GB
JSONnvme netapp ontapdevices -o json
显示示例
{ "ONTAPdevices" : [ { "Device" : "/dev/nvme0n1", "Vserver" : "vs_tcp79", "Namespace_Path" : "/vol/vol1/ns1", "NSID" : 1, "UUID" : "79c2c569-b7fa-42d5-b870-d9d6d7e5fa84", "Size" : "21.47GB", "LBA_Data_Size" : 4096, "Namespace_Size" : 5242880 }, ] }
第6步:查看已知问题
这些是已知问题:
NetApp 错误 ID | 标题 | Description |
---|---|---|
RHEL 8.7 NVMe-oF 主机创建重复的持久发现控制器 (PDC) |
在 NVMe-oF 主机上,您可以使用“nvme discover -p”命令创建 PDC。使用此命令时,每个启动器-目标组合只能创建一个 PDC。但是,如果您在 NVMe-oF 主机上运行 RHEL 8.8,则每次执行“nvme discover -p”时都会创建重复的 PDC。这会导致主机和目标上资源的不必要使用。 |