Skip to main content
ONTAP SAN Host Utilities
简体中文版经机器翻译而成,仅供参考。如与英语版出现任何冲突,应以英语版为准。

配置 Proxmox VE 9.x 以支持 NVMe-oF 和ONTAP存储

贡献者 netapp-pcarriga netapp-camdenc netapp-sarajane

Proxmox VE 9.x 主机支持基于光纤通道的 NVMe (NVMe/FC) 和基于 TCP 的 NVMe (NVMe/TCP) 协议,并支持非对称命名空间访问 (ANA)。ANA 提供与 iSCSI 和 FCP 环境中的非对称逻辑单元访问 (ALUA) 等效的多路径功能。

了解如何为 Proxmox VE 9.x 配置 NVMe over Fabrics (NVMe-oF) 主机。如需更多支持和功能信息,请参阅 "ONTAP支持和功能"

NVMe-oF 与 Proxmox VE 9.x 存在以下已知限制:

  • 不支持 NVMe-FC 的 SAN 启动配置。

步骤 1:安装 Proxmox VE 和 NVMe 软件并验证您的配置

要为 NVMe-oF 配置主机,您需要安装主机和 NVMe 软件包,启用多路径,并验证主机 NQN 配置。

步骤
  1. 在服务器上安装 Proxmox VE 9.x。安装完成后,请确认您运行的是所需的 Proxmox VE 9.x 内核:

    uname -r

    Proxmox VE 9.x 内核版本示例:

    6.17.2-2-pve
  2. 安装 NVMe-CLI 软件包:

    apt list|grep nvme-cli

    下面的例子展示了 `nvme-cli`软件包版本:

    nvme-cli/stable,now 2.13-2 amd64
  3. 安装 libnvme 软件包:

    apt list|grep libnvme

    下面的例子展示了 `libnvme`软件包版本:

    libnvme-dev/stable 1.13-2 amd64
  4. 在主机上,检查 hostnqn 字符串 /etc/nvme/hostnqn

    cat /etc/nvme/hostnqn

    下面的例子展示了 `hostnqn`价值:

    nqn.2014-08.org.nvmexpress:uuid:3933xxxx-3333-xxxx-4844-325xxxxa524c
  5. 在ONTAP系统中,验证以下信息: `hostnqn`字符串匹配 `hostnqn`ONTAP数组中对应子系统的字符串:

    ::> vserver nvme subsystem host show -vserver vs_proxmox_FC_NVMeFC
    显示示例
    Vserver Subsystem Priority  Host NQN
    ------- --------- --------  -----------------------------------------------
    vs_proxmox_FC_NVMeFC
            sub_176
                      regular   nqn.2014-08.org.nvmexpress:uuid:3933xxxx-3333-xxxx-4844-325xxxxa4834
                      regular   nqn.2014-08.org.nvmexpress:uuid:3933xxxx-3333-xxxx-4844-325xxxxa524c
    2 entries were displayed
    备注 如果 `hostnqn`字符串不匹配,请使用 `vserver modify`命令来更新 `hostnqn`相应ONTAP存储系统子系统上的字符串以匹配 `hostnqn`字符串来自 `/etc/nvme/hostnqn`在主机上。

步骤 2:配置 NVMe/FC 和 NVMe/TCP

使用 Broadcom/Emulex 或 Marvell/QLogic 适配器配置 NVMe/FC,或使用手动发现和连接操作配置 NVMe/TCP。

NVMe/FC - 博通/Emulex

为Broadcom/Emulex适配器配置NVMe/FC。

步骤
  1. 验证您使用的适配器型号是否受支持:

    1. 显示模型名称:

      cat /sys/class/scsi_host/host*/modelname

      您应看到以下输出:

      SN1700E2P
      SN1700E2P
    2. 显示模型描述:

      cat /sys/class/scsi_host/host*/modeldesc

      您应该会看到类似于以下示例的输出:

    HPE SN1700E 64Gb 2p FC HBA
    HPE SN1700E 64Gb 2p FC HBA
  2. 确认您使用的是建议的Broadcom lpfc 固件和内置驱动程序:

    1. 显示固件版本:

      cat /sys/class/scsi_host/host*/fwrev

      该命令返回固件版本:

      14.4.473.14, sli-4:6:d
      14.4.473.14, sli-4:6:d
    2. 显示收件箱驱动程序版本:

      cat /sys/module/lpfc/version

      以下示例显示了驱动程序版本:

      0:14.4.0.10

    有关支持的适配器驱动程序和固件版本的最新列表,请参见"互操作性表工具"

  3. 请验证 lpfc_enable_fc4_type 设置为 3

    cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
  4. 验证是否可以查看启动程序端口:

    cat /sys/class/fc_host/host*/port_name

    此时应显示类似于以下内容的输出:

    0x10005ced8c531948
    0x10005ced8c531949
  5. 验证启动程序端口是否联机:

    cat /sys/class/fc_host/host*/port_state

    您应看到以下输出:

    Online
    Online
  6. 验证NVMe/FC启动程序端口是否已启用且目标端口是否可见:

    cat /sys/class/scsi_host/host*/nvme_info
    显示示例
    NVME Initiator Enabled
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x10005ced8c531948 WWNN x20005ced8c531948 DID x082400 ONLINE
    NVME RPORT       WWPN x200ed039eac79573 WWNN x200dd039eac79573 DID x060902 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2001d039eac79573 WWNN x2000d039eac79573 DID x060904 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 0000000034 Cmpl 0000000034 Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 0000000000142cfb Issue 0000000000142cfc OutIO 0000000000000001
            abort 00000005 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000005 Err 00000005
    
    NVME Initiator Enabled
    XRI Dist lpfc1 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc1 WWPN x10005ced8c531949 WWNN x20005ced8c531949 DID x082500 ONLINE
    NVME RPORT       WWPN x2010d039eac79573 WWNN x200dd039eac79573 DID x062902 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2007d039eac79573 WWNN x2000d039eac79573 DID x062904 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 0000000034 Cmpl 0000000034 Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 00000000000d39f1 Issue 00000000000d39f2 OutIO 0000000000000001
            abort 00000005 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000005 Err 00000005
NVMe/FC - Marvell/QLogic

为Marvell/QLogic适配器配置NVMe/FC。

步骤
  1. 验证您使用的适配器驱动程序和固件版本是否受支持:

    cat /sys/class/fc_host/host*/symbolic_name

    以下示例显示了驱动程序和固件版本:

    SN1700Q FW:v9.15.05 DVR:v10.02.09.400-k
    SN1700Q FW:v9.15.05 DVR:v10.02.09.400-k
  2. 请验证 ql2xnvmeenable 已设置。这样、Marvell适配器便可用作NVMe/FC启动程序:

    cat /sys/module/qla2xxx/parameters/ql2xnvmeenable

    预期输出为1。

NVMe/TCP

NVMe/TCP 协议不支持自动连接操作。相反,您可以通过执行 NVMe/TCP 来发现 NVMe/TCP 子系统和命名空间 `connect`或者 `connect-all`手动操作。

步骤
  1. 检查启动器端口是否可以跨支持的 NVMe/TCP LIF 获取发现日志页面数据:

    nvme discover -t tcp -w host-traddr -a traddr
    显示示例
    nvme discover -t tcp -w 192.168.165.72 -a 192.168.165.51
    Discovery Log Number of Records 4, Generation counter 47
    =====Discovery Log Entry 0======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  3
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.c770be5d934811f0b624d039eac809ba:discovery
    traddr:  192.168.165.51
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 1======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  1
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.c770be5d934811f0b624d039eac809ba:discovery
    traddr:  192.168.166.50
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 2======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  3
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.c770be5d934811f0b624d039eac809ba:subsystem.sub_176
    traddr:  192.168.165.51
    eflags:  none
    sectype: none
    =====Discovery Log Entry 3======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  1
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.c770be5d934811f0b624d039eac809ba:subsystem.sub_176
    traddr:  192.168.166.50
    eflags:  none
    sectype: none
  2. 运行 nvme connect-all 在节点中所有受支持的NVMe/TCP启动程序-目标SIP上运行命令:

    nvme connect-all -t tcp -w host-traddr -a traddr
    显示示例
    nvme connect-all -t tcp -w 192.168.166.73 -a 192.168.166.50
    nvme connect-all -t tcp -w 192.168.166.73 -a 192.168.166.51
    nvme connect-all -t tcp -w 192.168.165.73 -a 192.168.165.50
    nvme connect-all -t tcp -w 192.168.165.73 -a 192.168.165.51

NVMe/TCP 的设置 `ctrl_loss_tmo timeout`自动设置为“关闭”。因此:

  • 重试次数没有限制(无限重试)。

  • 您不需要手动配置特定的 `ctrl_loss_tmo timeout`使用时长 `nvme connect`或者 `nvme connect-all`命令(选项 -l )。

  • 如果发生路径故障,NVMe/TCP 控制器不会超时,并且会无限期地保持连接。

步骤 3:(可选)修改 udev 规则中的 iopolicy

从 Proxmox VE 9.0 开始,NVMe-oF 的默认 iopolicy 设置为 queue-depth。如果要将 iopolicy 更改为 round-robin(也可作为可配置选项使用),请按如下所示修改 udev 规则文件:

步骤
  1. 使用 root 权限在文本编辑器中打开 udev 规则文件:

    /usr/lib/udev/rules.d/71-nvmf-netapp.rules

    您应看到以下输出:

    vi /usr/lib/udev/rules.d/71-nvmf-netapp.rules
  2. 找到为NetApp ONTAP控制器设置 iopolicy 的行,如下例所示:

    ACTION=="add", SUBSYSTEM=="nvme-subsystem", ATTR{subsystype}=="nvm", ATTR{model}=="NetApp ONTAP Controller", ATTR{iopolicy}="queue-depth"
  3. 修改规则,使 queue-depth 更改为 round-robin,如以下示例中所示:

    ACTION=="add", SUBSYSTEM=="nvme-subsystem", ATTR{subsystype}=="nvm", ATTR{model}=="NetApp ONTAP Controller", ATTR{iopolicy}="round-robin"
  4. 重新加载udev规则并应用更改:

    udevadm control --reload
    udevadm trigger --subsystem-match=nvme-subsystem
  5. 验证子系统的当前 iopolicy。将 <subsystem> 替换为子系统的名称,例如 nvme-subsys0。

    cat /sys/class/nvme-subsystem/<subsystem>/iopolicy

    您应看到以下输出:

    round-robin
备注 新的 iopolicy 会自动应用于匹配的NetApp ONTAP控制器设备。无需重启。

步骤 4:(可选)为 NVMe/FC 启用 1MB I/O

ONTAP在识别控制器数据中报告最大数据传输大小 (MDTS) 为 8。这意味着最大 I/O 请求大小可达 1MB。要向 Broadcom NVMe/FC 主机发出 1MB 大小的 I/O 请求,您应该增加 `lpfc`的价值 `lpfc_sg_seg_cnt`参数从默认值 64 更改为 256。

备注 这些步骤不适用于逻辑NVMe/FC主机。
步骤
  1. 将 `lpfc_sg_seg_cnt`参数设置为256:

    cat /etc/modprobe.d/lpfc.conf

    您应该会看到类似于以下示例的输出:

    options lpfc lpfc_sg_seg_cnt=256
  2. 运行 `update-initramfs`命令并重启主机。

  3. 验证的值是否 `lpfc_sg_seg_cnt`为256:

    cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt

步骤 5:验证 NVMe 启动服务

这 `nvmefc-boot-connections.service`和 `nvmf-autoconnect.service`NVMe/FC 中包含的启动服务 `nvme-cli`系统启动时,软件包会自动启用。

启动完成后,验证 `nvmefc-boot-connections.service`和 `nvmf-autoconnect.service`启动服务已启用。

步骤
  1. 验证是否 `nvmf-autoconnect.service`已启用:

    systemctl status nvmf-autoconnect.service
    显示示例输出
    ○ nvmf-autoconnect.service - Connect NVMe-oF subsystems automatically during boot
         Loaded: loaded (/usr/lib/systemd/system/nvmf-autoconnect.service; enabled; preset: enabled)
         Active: inactive (dead) since Fri 2026-02-20 22:00:40 IST; 2 days ago
     Invocation: 48e3574eef064ff98928f840a62d787a
        Process: 3507 ExecStart=/usr/sbin/nvme connect-all --context=autoconnect (code=exited, status=0/SUCCESS)
       Main PID: 3507 (code=exited, status=0/SUCCESS)
       Mem peak: 6.9M
            CPU: 46ms
  2. 验证是否 `nvmefc-boot-connections.service`已启用:

    systemctl status nvmefc-boot-connections.service
    显示示例输出
    nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot
         Loaded: loaded (/usr/lib/systemd/system/nvmefc-boot-connections.service; enabled; preset: enabled)
         Active: inactive (dead) since Fri 2026-02-20 22:00:11 IST; 2 days ago
     Invocation: 6f6d180fdbcd4fa6ad861c50ba6a15e6
        Process: 1193 ExecStart=/bin/sh -c echo add > /sys/class/fc/fc_udev_device/nvme_discovery (code=exited, status=0/SUCCESS)
       Main PID: 1193 (code=exited, status=0/SUCCESS)
       Mem peak: 2.2M
            CPU: 10ms
    
    Feb 20 22:00:11 HPE-DL365-14-176 systemd[1]: nvmefc-boot-connections.service: Deactivated successfully.
    Feb 20 22:00:11 HPE-DL365-14-176 systemd[1]: Finished nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot.

步骤 6:验证多路径配置

验证内核NVMe多路径状态、ANA状态和ONTAP命名空间是否适用于NVMe-oF配置。

步骤
  1. 验证是否已启用内核NVMe多路径:

    cat /sys/module/nvme_core/parameters/multipath

    您应看到以下输出:

    Y
  2. 验证主机上是否正确显示了ONTAP命名空间的相应 NVMe-oF 设置(例如,将型号设置为NetApp ONTAP Controller,并将负载均衡 iopolicy 设置为 round-robin):

    1. 显示子系统:

      cat /sys/class/nvme-subsystem/nvme-subsys*/model

      您应看到以下输出:

      NetApp ONTAP Controller
      NetApp ONTAP Controller
    2. 显示策略:

      cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy

      您应看到以下输出:

    queue-depth
    queue-depth
  3. 验证是否已在主机上创建并正确发现命名空间:

    nvme list
    显示示例
    Node          Generic     SN                   Model                    Namespace  Usage                      Format           FW Rev
    ------------- ----------- -------------------- ------------------------ ---------- -------------------------- ---------------- --------
    /dev/nvme2n1  /dev/ng2n1  81PqYFYq2aVAAAAAAAAB NetApp ONTAP Controller   0x1         17.88  GB / 171.80  GB      4 KiB +  0 B   9.17.1
  4. 验证每个路径的控制器状态是否为活动状态且是否具有正确的ANA状态:

    nvme list-subsys /dev/<controller_ID>
    备注 从 ONTAP 9.16.1 开始,NVMe/FC 和 NVMe/TCP 报告 ASA r2 系统上的所有优化路径。
    NVMe/FC

    以下示例输出显示了托管在双节点 ONTAP 控制器上的命名空间,该命名空间适用于具有 NVMe/FC 的 AFF、FAS、ASA 或 ASA r2 系统。

    显示 AFF、FAS 或 ASA 示例输出
     nvme-subsys114 - NQN=nqn.1992-08.com.netapp:sn.9e30b9760a4911f08c87d039eab67a95:subsystem.sles_161_27
                     hostnqn=nqn.2014-08.org.nvmexpress:uuid:f651xxxx-3133-xxxx-bbff-7edxxxxf123f iopolicy=round-robin\
    +- nvme114 fc traddr=nn-0x234ed039ea359e4a:pn-0x2360d039ea359e4a,host_traddr=nn-0x20000090fae0ec88:pn-0x10000090fae0ec88 live optimized
    +- nvme115 fc traddr=nn-0x234ed039ea359e4a:pn-0x2362d039ea359e4a,host_traddr=nn-0x20000090fae0ec88:pn-0x10000090fae0ec88 live non-optimized
    +- nvme116 fc traddr=nn-0x234ed039ea359e4a:pn-0x2361d039ea359e4a,host_traddr=nn-0x20000090fae0ec89:pn-0x10000090fae0ec89 live optimized
    +- nvme117 fc traddr=nn-0x234ed039ea359e4a:pn-0x2363d039ea359e4a,host_traddr=nn-0x20000090fae0ec89:pn-0x10000090fae0ec89 live non-optimized
    显示 ASA r2 示例输出
    nvme-subsys3 - NQN=nqn.1992-08.com.netapp:sn.94929fdb84eb11f0b624d039eac809ba:subsystem.sub_176
                   hostnqn=nqn.2014-08.org.nvmexpress:uuid:3933xxxx-3333-xxxx-4844-325xxxxa524c
    \
    +- nvme1 fc traddr=nn-0x200dd039eac79573:pn-0x2010d039eac79573,host_traddr=nn-0x20005ced8c531949:pn-0x10005ced8c531949 live optimized
    +- nvme3 fc traddr=nn-0x200dd039eac79573:pn-0x200ed039eac79573,host_traddr=nn-0x20005ced8c531948:pn-0x10005ced8c531948 live optimized
    +- nvme5 fc traddr=nn-0x200dd039eac79573:pn-0x200fd039eac79573,host_traddr=nn-0x20005ced8c531949:pn-0x10005ced8c531949 live optimized
    +- nvme7 fc traddr=nn-0x200dd039eac79573:pn-0x2011d039eac79573,host_traddr=nn-0x20005ced8c531948:pn-0x10005ced8c531948 live optimized
    NVMe/TCP

    以下示例输出显示了托管在双节点 ONTAP 控制器上的命名空间,适用于具有 NVMe/TCP 的 AFF、FAS、ASA 或 ASA r2 系统。

    显示 AFF、FAS 或 ASA 示例输出
    nvme-subsys2 - NQN=nqn.1992-08.com.netapp:sn.c770be5d934811f0b624d039eac809ba:subsystem.sub_176
                   hostnqn=nqn.2014-08.org.nvmexpress:uuid:3933xxxx-3333-xxxx-4844-325xxxxa524c
    \
    +- nvme2 tcp traddr=192.168.166.50,trsvcid=4420,host_traddr=192.168.166.73,src_addr=192.168.166.73 live optimized
    +- nvme4 tcp traddr=192.168.165.51,trsvcid=4420,host_traddr=192.168.165.73,src_addr=192.168.165.73 live optimized
    +- nvme6 tcp traddr=192.168.166.51,trsvcid=4420,host_traddr=192.168.166.73,src_addr=192.168.166.73 live non-optimized
    +- nvme8 tcp traddr=192.168.165.50,trsvcid=4420,host_traddr=192.168.165.73,src_addr=192.168.165.73 live non-optimized
    显示 ASA r2 示例输出
    nvme-subsys9 - NQN=nqn.1992-08.com.netapp:sn.9927e165694211f0b4f4d039eab31e9d:subsystem.nvme10
                   hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4cxxxx-0035-xxxx-804b-b7cxxxx44d33
    \
     +- nvme105 tcp traddr=192.168.39.10,trsvcid=4420,host_traddr=192.168.39.20,src_addr=192.168.39.20 live optimized
     +- nvme153 tcp traddr=192.168.39.11,trsvcid=4420,host_traddr=192.168.39.20,src_addr=192.168.39.20 live optimized
     +- nvme57 tcp traddr=192.168.38.11,trsvcid=4420,host_traddr=192.168.38.20,src_addr=192.168.38.20 live optimized
     +- nvme9 tcp traddr=192.168.38.10,trsvcid=4420,host_traddr=192.168.38.20,src_addr=192.168.38.20 live optimized
  5. 验证NetApp插件是否为每个ONTAP 命名空间设备显示正确的值:

    nvme netapp ontapdevices -o column
    显示示例
    Device        Vserver               Namespace Path
    ------------- --------------------- ------------------------------
    /dev/nvme2n9  vs_proxmox_FC_NVMeFC  /vol/vol_180_data_nvmefc4/ns
    
    NSID       UUID                            Size
    ---- ------------------------------------  --------
    1    e3d3d544-de8b-4787-93af-bfec7769e909  32.21GB
    JSON
    nvme netapp ontapdevices -o json
    显示示例
    {
          "Device":"/dev/nvme2n9",
          "Vserver":"vs_proxmox_FC_NVMeFC",
          "Subsystem":"sub_176",
          "Namespace_Path":"/vol/vol_180_data_nvmefc4/ns",
          "NSID":9,
          "UUID":"e3d3d544-de8b-4787-93af-bfec7769e909",
          "LBA_Size":4096,
          "Namespace_Size":32212254720,
          "UsedBytes":67899392,
          "Version":"9.17.1"
        }
      ]

第 7 步:查看已知问题

没有已知问题。