Skip to main content
ONTAP SAN Host Utilities
简体中文版经机器翻译而成,仅供参考。如与英语版出现任何冲突,应以英语版为准。

使用ONTAP存储为 NVMe-oF 配置 RHEL 9.1

贡献者 netapp-sarajane

Red Hat Enterpirse Linux (RHEL) 主机支持具有非对称命名空间访问 (ANA) 的 NVMe over Fibre Channel (NVMe/FC) 和 NVMe over TCP (NVMe/TCP) 协议。 ANA 提供与 iSCSI 和 FCP 环境中的非对称逻辑单元访问 (ALUA) 等效的多路径功能。

了解如何为 RHEL 9.1 配置 NVMe over Fabrics (NVMe-oF) 主机。有关更多支持和功能信息,请参阅"NVME-oF 概述"

RHEL 9.1 的 NVMe-oF 具有以下已知限制:

  • 目前不支持使用 NVMe-oF 协议的 SAN 启动。

第1步:(可选)启用SAN启动

您可以配置主机以使用 SAN 启动来简化部署并提高可扩展性。使用"互操作性表工具"验证您的 Linux 操作系统、主机总线适配器 (HBA)、HBA 固件、HBA 启动 BIOS 和ONTAP版本是否支持 SAN 启动。

步骤
  1. "创建 NVMe 命名空间并将其映射到主机"

  2. 在服务器 BIOS 中为 SAN 启动命名空间映射到的端口启用 SAN 启动。

    有关如何启用 HBA BIOS 的信息,请参见供应商专用文档。

  3. 重新启动主机并验证操作系统是否已启动并正在运行。

步骤 2:验证软件版本和 NVMe 配置

检查您的系统是否满足软件要求并验证 NVMe 包安装和主机配置。

步骤
  1. 在服务器上安装 RHEL 9.1。安装完成后,验证您是否正在运行所需的 RHEL 9.1 内核:

    uname -r

    RHEL 内核版本示例:

    5.14.0-162.6.1.el9_1.x86_64
  2. 安装 NVMe-CLI 软件包:

    rpm -qa|grep nvme-cli

    以下示例显示了 nvme-cli 软件包版本:

    nvme-cli-2.0-4.el9.x86_64
  3. 安装 libnvme 软件包:

    rpm -qa|grep libnvme

    以下示例显示了 libnvme 软件包版本:

    libnvme-1.0-3.el9.x86_64
  4. 在 RHEL 9.1 主机上,检查 hostnqn`字符串位于 `/etc/nvme/hostnqn

    cat /etc/nvme/hostnqn

    下面的例子展示了 `hostnqn`版本:

    nqn.2014-08.org.nvmexpress:uuid:325e7554-1f9b-11ec-8489-3a68dd61a4df
  5. 验证 `hostnqn`字符串匹配 `hostnqn`ONTAP存储系统上相应子系统的字符串:

    ::> vserver nvme subsystem host show -vserver vs_nvme207
    显示示例
    Vserver     Subsystem          Host NQN
    ----------- --------------- ----------------------------------------------------------
    vs_nvme207   rhel_207_LPe32002    nqn.2014-08.org.nvmexpress:uuid:325e7554-1f9b-11ec-8489-3a68dd61a4df
    备注 如果 `hostnqn`字符串不匹配,请使用 `vserver modify`命令来更新 `hostnqn`相应ONTAP存储系统子系统上的字符串以匹配 `hostnqn`字符串来自 `/etc/nvme/hostnqn`在主机上。

步骤 3:配置 NVMe/FC 和 NVMe/TCP

使用 Broadcom/Emulex 或 Marvell/QLogic 适配器配置 NVMe/FC,或使用手动发现和连接操作配置 NVMe/TCP。

FC——Broadcom/Emulex

为Broadcom/Emulex适配器配置NVMe/FC。

步骤
  1. 验证您使用的适配器型号是否受支持:

    1. 显示模型名称:

      cat /sys/class/scsi_host/host*/modelname

      您应看到以下输出:

      LPe32002-M2
      LPe32002-M2
    2. 显示模型描述:

      cat /sys/class/scsi_host/host*/modeldesc

      您应该看到类似于以下示例的输出:

    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
  2. 确认您使用的是建议的Broadcom lpfc 固件和内置驱动程序:

    1. 显示固件版本:

      cat /sys/class/scsi_host/host*/fwrev

      该命令返回固件版本:

      14.0.505.11, sli-4:2:c
      14.0.505.11, sli-4:2:c
    2. 显示收件箱驱动程序版本:

      cat /sys/module/lpfc/version

      以下示例显示了驱动程序版本:

    0:14.2.0.5

    +
    有关支持的适配器驱动程序和固件版本的最新列表,请参见"互操作性表工具"

  3. 请验证 lpfc_enable_fc4_type 设置为 3

    cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
  4. 验证是否可以查看启动程序端口:

    cat /sys/class/fc_host/host*/port_name

    您应该看到类似以下内容的输出:

    0x100000109b1b95ef
    0x100000109b1b95f0
  5. 验证启动程序端口是否联机:

    cat /sys/class/fc_host/host*/port_state

    您应看到以下输出:

    Online
    Online
  6. 验证NVMe/FC启动程序端口是否已启用且目标端口是否可见:

    cat /sys/class/scsi_host/host*/nvme_info
    显示示例
    NVME Initiator Enabled
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x100000109b1b95ef WWNN x200000109b1b95ef DID x061700 ONLINE
    NVME RPORT       WWPN x2035d039ea1308e5 WWNN x2082d039ea1308e5 DID x062f05 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2083d039ea1308e5 WWNN x2082d039ea1308e5 DID x062407 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 000000000e Cmpl 000000000e Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000000001df6c Issue 000000000001df6e OutIO 0000000000000002
      abort 00000000 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000000 Err 00000004
    
    NVME Initiator Enabled
    XRI Dist lpfc1 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc1 WWPN x100000109b1b95f0 WWNN x200000109b1b95f0 DID x061400 ONLINE
    NVME RPORT       WWPN x2036d039ea1308e5 WWNN x2082d039ea1308e5 DID x061605 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2037d039ea1308e5 WWNN x2082d039ea1308e5 DID x062007 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 000000000e Cmpl 000000000e Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000000001dd28 Issue 000000000001dd29 OutIO 0000000000000001
      abort 00000000 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000000 Err 00000004
FC——Marvell/QLogic

为Marvell/QLogic适配器配置NVMe/FC。

步骤
  1. 验证您使用的适配器驱动程序和固件版本是否受支持:

    cat /sys/class/fc_host/host*/symbolic_name

    以下示例显示了驱动程序和固件版本:

    QLE2772 FW:v9.08.02 DVR:v10.02.07.400-k-debug
    QLE2772 FW:v9.08.02 DVR:v10.02.07.400-k-debug
  2. 请验证 ql2xnvmeenable 已设置。这样、Marvell适配器便可用作NVMe/FC启动程序:

    cat /sys/module/qla2xxx/parameters/ql2xnvmeenable

    预期输出为1。

TCP

NVMe/TCP 协议不支持自动连接操作。相反,您可以通过执行 NVMe/TCP 来发现 NVMe/TCP 子系统和命名空间 `connect`或者 `connect-all`手动操作。

步骤
  1. 检查启动器端口是否可以跨支持的 NVMe/TCP LIF 获取发现日志页面数据:

    nvme discover -t tcp -w host-traddr -a traddr
    显示示例
    nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.51
    
    Discovery Log Number of Records 10, Generation counter 119
    =====Discovery Log Entry 0======
    trtype: tcp
    adrfam: ipv4
    subtype: nvme subsystem
    treq: not specified
    trsvcid: 4420
    traddr: 192.168.2.56
    =====Discovery Log Entry 1======
    trtype: tcp
    adrfam: ipv4
    subtype: nvme subsystem
    treq: not specified
    trsvcid: 4420
    traddr: 192.168.1.51
    sectype: none
    =====Discovery Log Entry 2======
    trtype: tcp
    adrfam: ipv4
    subtype: nvme subsystem
    treq: not specified
    trsvcid: 4420
    traddr: 192.168.2.56
  2. 验证其他 NVMe/TCP 启动器-目标 LIF 组合是否可以成功检索发现日志页面数据:

    nvme discover -t tcp -w host-traddr -a traddr
    显示示例
    nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.51
    nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.52
    nvme discover -t tcp -w 192.168.2.9 -a 192.168.2.56
    nvme discover -t tcp -w 192.168.2.9 -a 192.168.2.57
  3. 运行 nvme connect-all 在节点中所有受支持的NVMe/TCP启动程序-目标SIP上运行命令:

    nvme connect-all -t tcp -w host-traddr -a traddr
    显示示例
    nvme connect-all -t tcp -w 192.168.1.8 -a 192.168.1.51 -l 1800
    nvme connect-all -t tcp -w 192.168.1.8 -a 192.168.1.52 -l 1800
    nvme connect-all -t tcp -w 192.168.2.9 -a 192.168.2.56 -l 1800
    nvme connect-all -t tcp -w 192.168.2.9 -a 192.168.2.57 -l 1800

步骤 4:(可选)为 NVMe/FC 启用 1MB I/O

ONTAP在识别控制器数据中报告最大数据传输大小 (MDTS) 为 8。这意味着最大 I/O 请求大小可达 1MB。要向 Broadcom NVMe/FC 主机发出 1MB 大小的 I/O 请求,您应该增加 `lpfc`的价值 `lpfc_sg_seg_cnt`参数从默认值 64 更改为 256。

备注 这些步骤不适用于逻辑NVMe/FC主机。
步骤
  1. 将 `lpfc_sg_seg_cnt`参数设置为256:

    cat /etc/modprobe.d/lpfc.conf

    您应该会看到类似于以下示例的输出:

    options lpfc lpfc_sg_seg_cnt=256
  2. 运行 `dracut -f`命令并重新启动主机。

  3. 验证的值是否 `lpfc_sg_seg_cnt`为256:

    cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt

步骤 5:验证多路径配置

验证内核NVMe多路径状态、ANA状态和ONTAP命名空间是否适用于NVMe-oF配置。

步骤
  1. 验证是否已启用内核NVMe多路径:

    cat /sys/module/nvme_core/parameters/multipath

    您应看到以下输出:

    Y
  2. 验证相应ONTAP命名库的适当NVMe-oF设置(例如、型号设置为NetApp ONTAP控制器、负载平衡iopolicy设置为循环)是否正确反映在主机上:

    1. 显示子系统:

      cat /sys/class/nvme-subsystem/nvme-subsys*/model

      您应看到以下输出:

      NetApp ONTAP Controller
      NetApp ONTAP Controller
    2. 显示策略:

      cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy

      您应看到以下输出:

    round-robin
    round-robin
  3. 验证是否已在主机上创建并正确发现命名空间:

    nvme list
    显示示例
    Node         SN                   Model
    ---------------------------------------------------------
    /dev/nvme4n1 81Ix2BVuekWcAAAAAAAB	NetApp ONTAP Controller
    
    
    Namespace Usage    Format             FW             Rev
    -----------------------------------------------------------
    1                 21.47 GB / 21.47 GB	4 KiB + 0 B   FFFFFFFF
  4. 验证每个路径的控制器状态是否为活动状态且是否具有正确的ANA状态:

    NVMe/FC
    nvme list-subsys /dev/nvme0n1
    显示示例
    nvme-subsys10 - NQN=nqn.1992-08.com.netapp:sn.82e7f9edc72311ec8187d039ea14107d:subsystem.rhel_131_QLe2742
    \
     +- nvme2 fc traddr=nn-0x2038d039ea1308e5:pn-0x2039d039ea1308e5,host_traddr=nn-0x20000024ff171d30:pn-0x21000024ff171d30 live non-optimized
     +- nvme3 fc traddr=nn-0x2038d039ea1308e5:pn-0x203cd039ea1308e5,host_traddr=nn-0x20000024ff171d31:pn-0x21000024ff171d31 live optimized
     +- nvme4 fc traddr=nn-0x2038d039ea1308e5:pn-0x203bd039ea1308e5,host_traddr=nn-0x20000024ff171d30:pn-0x21000024ff171d30 live optimized
     +- nvme5 fc traddr=nn-0x2038d039ea1308e5:pn-0x203ad039ea1308e5,host_traddr=nn-0x20000024ff171d31:pn-0x21000024ff171d31 live non-optimized
    NVMe/TCP
    nvme list-subsys /dev/nvme0n1
    显示示例
    nvme-subsys1 - NQN=nqn.1992-08.com.netapp:sn.bf0691a7c74411ec8187d039ea14107d:subsystem.rhel_tcp_133
    \
     +- nvme1 tcp traddr=192.168.166.21,trsvcid=4420,host_traddr=192.168.166.5 live non-optimized
     +- nvme2 tcp traddr=192.168.166.20,trsvcid=4420,host_traddr=192.168.166.5 live optimized
     +- nvme3 tcp traddr=192.168.167.21,trsvcid=4420,host_traddr=192.168.167.5 live non-optimized
     +- nvme4 tcp traddr=192.168.167.20,trsvcid=4420,host_traddr=192.168.167.5 live optimized
  5. 验证NetApp插件是否为每个ONTAP 命名空间设备显示正确的值:

    nvme netapp ontapdevices -o column
    显示示例
    Device       Vserver          Namespace Path
    ---------    -------          --------------------------------------------------
    /dev/nvme0n1 vs_tcp79     /vol/vol1/ns1 
    
    NSID  UUID                                   Size
    ----  ------------------------------         ------
    1     79c2c569-b7fa-42d5-b870-d9d6d7e5fa84  21.47GB
    JSON
    nvme netapp ontapdevices -o json
    显示示例
    {
    
      "ONTAPdevices" : [
      {
    
          "Device" : "/dev/nvme0n1",
          "Vserver" : "vs_tcp79",
          "Namespace_Path" : "/vol/vol1/ns1",
          "NSID" : 1,
          "UUID" : "79c2c569-b7fa-42d5-b870-d9d6d7e5fa84",
          "Size" : "21.47GB",
          "LBA_Data_Size" : 4096,
          "Namespace_Size" : 5242880
        },
    
    ]
    
    }

第6步:查看已知问题

这些是已知问题:

NetApp 错误 ID 标题 Description

1503468

nvme list-subsys 命令返回给定子系统的重复NVMe控制器列表

这 `nvme list-subsys`命令返回给定子系统的 NVMe 控制器列表。在 RHEL 9.1 中,此命令显示子系统中所有命名空间的控制器及其 ANA 状态。由于 ANA 状态是每个命名空间的属性,因此该命令应显示具有每个命名空间的路径状态的唯一控制器条目。