Skip to main content
ONTAP SAN Host Utilities
简体中文版经机器翻译而成,仅供参考。如与英语版出现任何冲突,应以英语版为准。

配置 RHEL 10x 以使用 NVMe-oF 和ONTAP存储

贡献者 netapp-sarajane

Red Hat Enterpirse Linux (RHEL) 主机支持具有非对称命名空间访问 (ANA) 的 NVMe over Fibre Channel (NVMe/FC) 和 NVMe over TCP (NVMe/TCP) 协议。 ANA 提供与 iSCSI 和 FCP 环境中的非对称逻辑单元访问 (ALUA) 等效的多路径功能。

了解如何为 RHEL 10x 配置 NVMe over Fabrics (NVMe-oF) 主机。如需更多支持和功能信息,请参阅 "RHEL ONTAP支持和功能"

NVMe-oF 与 RHEL 10x 存在以下已知限制:

  • 这 `nvme disconnect-all`该命令会断开根文件系统和数据文件系统,可能会导致系统不稳定。请勿在通过 NVMe-TCP 或 NVMe-FC 命名空间从 SAN 启动的系统上执行此操作。

第1步:(可选)启用SAN启动

您可以配置主机以使用 SAN 启动来简化部署并提高可扩展性。使用"互操作性表工具"验证您的 Linux 操作系统、主机总线适配器 (HBA)、HBA 固件、HBA 启动 BIOS 和ONTAP版本是否支持 SAN 启动。

步骤
  1. "创建 NVMe 命名空间并将其映射到主机"

  2. 在服务器 BIOS 中为 SAN 启动命名空间映射到的端口启用 SAN 启动。

    有关如何启用 HBA BIOS 的信息,请参见供应商专用文档。

  3. 重新启动主机并验证操作系统是否已启动并正在运行。

步骤 2:安装 RHEL 和 NVMe 软件并验证您的配置

要为 NVMe-oF 配置主机,您需要安装主机和 NVMe 软件包,启用多路径,并验证主机 NQN 配置。

步骤
  1. 在服务器上安装 RHEL 10x。安装完成后,请确认您运行的是所需的 RHEL 10x 内核:

    uname -r

    RHEL 内核版本示例:

    6.12.0-124.8.1.el10_1.x86_64
  2. 安装 NVMe-CLI 软件包:

    rpm -qa|grep nvme-cli

    下面的例子展示了 `nvme-cli`软件包版本:

    nvme-cli-2.13-2.el10.x86_64
  3. 安装 libnvme 软件包:

    rpm -qa|grep libnvme

    下面的例子展示了 `libnvme`软件包版本:

    libnvme-1.13-1.el10.x86_64
  4. 在主机上,检查 hostnqn 字符串 /etc/nvme/hostnqn

    cat /etc/nvme/hostnqn

    下面的例子展示了 `hostnqn`版本:

    nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c7c04f425633
  5. 在ONTAP系统中,验证以下信息: `hostnqn`字符串匹配 `hostnqn`ONTAP存储系统中相应子系统的字符串:

    ::> vserver nvme subsystem host show -vserver vs_coexistence_QLE2872
    显示示例
    Vserver Subsystem Priority  Host NQN
    ------- --------- --------  ------------------------------------------------
    vs_coexistence_QLE2872
                   subsystem_1
                             regular   nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c7c04f425633
                   subsystem_10
                             regular   nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c7c04f425633
                   subsystem_11
                             regular   nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c7c04f425633
备注 如果 `hostnqn`字符串不匹配,请使用 `vserver modify`命令来更新 `hostnqn`相应ONTAP存储系统子系统上的字符串以匹配 `hostnqn`字符串来自 `/etc/nvme/hostnqn`在主机上。

步骤 3:配置 NVMe/FC 和 NVMe/TCP

使用 Broadcom/Emulex 或 Marvell/QLogic 适配器配置 NVMe/FC,或使用手动发现和连接操作配置 NVMe/TCP。

NVMe/FC - 博通/Emulex

为Broadcom/Emulex适配器配置NVMe/FC。

  1. 验证您使用的适配器型号是否受支持:

    1. 显示模型名称:

      cat /sys/class/scsi_host/host*/modelname

      您应看到以下输出:

      SN1700E2P
      SN1700E2P
    2. 显示模型描述:

      cat /sys/class/scsi_host/host*/modeldesc

      您应该看到类似于以下示例的输出:

    HPE SN1700E 64Gb 2p FC HBA
    HPE SN1700E 64Gb 2p FC HBA
  2. 确认您使用的是建议的Broadcom lpfc 固件和内置驱动程序:

    1. 显示固件版本:

      cat /sys/class/scsi_host/host*/fwrev

      该命令返回固件版本:

      14.4.393.25, sli-4:6:d
      14.4.393.25, sli-4:6:d
    2. 显示收件箱驱动程序版本:

      cat /sys/module/lpfc/version

      以下示例显示了驱动程序版本:

      0:14.4.0.9

    有关支持的适配器驱动程序和固件版本的最新列表,请参见"互操作性表工具"

  3. 请验证 lpfc_enable_fc4_type 设置为 3

    cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
  4. 验证是否可以查看启动程序端口:

    cat /sys/class/fc_host/host*/port_name

    您应该看到类似以下内容的输出:

    0x10005cba2cfca7de
    0x10005cba2cfca7df
  5. 验证启动程序端口是否联机:

    cat /sys/class/fc_host/host*/port_state

    您应看到以下输出:

    Online
    Online
  6. 验证NVMe/FC启动程序端口是否已启用且目标端口是否可见:

    cat /sys/class/scsi_host/host*/nvme_info
    显示示例
    NVME Initiator Enabled
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x10005cba2cfca7de WWNN x20005cba2cfca7de DID x080f00 ONLINE
    NVME RPORT       WWPN x2023d039eac03c33 WWNN x2021d039eac03c33 DID x082209 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x200ed039eac03c33 WWNN x200cd039eac03c33 DID x082203 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2022d039eac03c33 WWNN x2021d039eac03c33 DID x082609 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x200dd039eac03c33 WWNN x200cd039eac03c33 DID x082604 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 0000000501 Cmpl 0000000501 Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 00000000000583b7 Issue 000000000005840d OutIO 0000000000000056
    abort 0000010f noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000   err 00000000
    FCP CMPL: xb 0000010f Err 0000010f
    
    NVME Initiator Enabled
    XRI Dist lpfc1 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc1 WWPN x10005cba2cfca7df WWNN x20005cba2cfca7df DID x080b00 ONLINE
    NVME RPORT       WWPN x2024d039eac03c33 WWNN x2021d039eac03c33 DID x082309 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x200fd039eac03c33 WWNN x200cd039eac03c33 DID x082304 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2025d039eac03c33 WWNN x2021d039eac03c33 DID x082708 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2010d039eac03c33 WWNN x200cd039eac03c33 DID x082703 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 00000006eb Cmpl 00000006eb Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000000004d600 Issue 000000000004d65f OutIO 000000000000005f
    abort 000001c1 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 000001c1 Err 000001c2
NVMe/FC - Marvell/QLogic

为Marvell/QLogic适配器配置NVMe/FC。

  1. 验证您使用的适配器驱动程序和固件版本是否受支持:

    cat /sys/class/fc_host/host*/symbolic_name

    以下示例显示了驱动程序和固件版本:

    QLE2872 FW:v9.15.06 DVR:v10.02.09.400-k
    QLE2872 FW:v9.15.06 DVR:v10.02.09.400-k
  2. 请验证 ql2xnvmeenable 已设置。这样、Marvell适配器便可用作NVMe/FC启动程序:

    cat /sys/module/qla2xxx/parameters/ql2xnvmeenable

    预期输出为1。

NVMe/TCP

NVMe/TCP 协议不支持自动连接操作。相反,您可以通过执行 NVMe/TCP 来发现 NVMe/TCP 子系统和命名空间 `connect`或者 `connect-all`手动操作。

  1. 检查启动器端口是否可以跨支持的 NVMe/TCP LIF 获取发现日志页面数据:

    nvme discover -t tcp -w host-traddr -a traddr
    显示示例
    nvme discover -t tcp -w 192.168.20.21 -a 192.168.20.28
    Discovery Log Number of Records 8, Generation counter 10
    =====Discovery Log Entry 0======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  8
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.17e32b6e8c7f11f09545d039eac03c33:discovery
    traddr:  192.168.21.29
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 1======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  6
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.17e32b6e8c7f11f09545d039eac03c33:discovery
    traddr:  192.168.20.29
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 2======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  7
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.17e32b6e8c7f11f09545d039eac03c33:discovery
    traddr:  192.168.21.28
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 3======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  5
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.17e32b6e8c7f11f09545d039eac03c33:discovery
    traddr:  192.168.20.28
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 4======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  8
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.17e32b6e8c7f11f09545d039eac03c33:subsystem.Bidirectional_DHCP_1_0
    traddr:  192.168.21.29
    eflags:  none
    sectype: none
    =====Discovery Log Entry 5======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  6
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.17e32b6e8c7f11f09545d039eac03c33:subsystem.Bidirectional_DHCP_1_0
    traddr:  192.168.20.29
    eflags:  none
    sectype: none
    =====Discovery Log Entry 6======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  7
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.17e32b6e8c7f11f09545d039eac03c33:subsystem.Bidirectional_DHCP_1_0
    traddr:  192.168.21.28
    eflags:  none
    sectype: none
    =====Discovery Log Entry 7======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  5
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.17e32b6e8c7f11f09545d039eac03c33:subsystem.Bidirectional_DHCP_1_0
    traddr:  192.168.20.28
    eflags:  none
    sectype: non
  2. 验证其他 NVMe/TCP 启动器-目标 LIF 组合是否可以成功检索发现日志页面数据:

    nvme discover -t tcp -w host-traddr -a traddr
    显示示例
    nvme discover -t tcp -w 192.168.20.21 -a 192.168.20.28
    nvme discover -t tcp -w 192.168.21.21 -a 192.168.21.28
    nvme discover -t tcp -w 192.168.20.21 -a 192.168.20.29
    nvme discover -t tcp -w 192.168.21.21 -a 192.168.21.29
  3. 运行 nvme connect-all 在节点中所有受支持的NVMe/TCP启动程序-目标SIP上运行命令:

    nvme connect-all -t tcp -w host-traddr -a traddr
    显示示例
    nvme	connect-all -t	tcp -w	192.168.20.21	-a 192.168.20.28
    nvme	connect-all -t	tcp -w	192.168.21.21	-a 192.168.21.28
    nvme	connect-all -t	tcp -w	192.168.20.21	-a 192.168.20.29
    nvme	connect-all -t	tcp -w	192.168.21.21	-a 192.168.21.29

从 RHEL 9.4 开始,NVMe/TCP 的设置 `ctrl_loss_tmo timeout`自动设置为“关闭”。因此:

  • 重试次数没有限制(无限重试)。

  • 您不需要手动配置特定的 `ctrl_loss_tmo timeout`使用时长 `nvme connect`或者 `nvme connect-all`命令(选项 -l )。

  • 如果发生路径故障,NVMe/TCP 控制器不会超时,并且会无限期地保持连接。

步骤 4:(可选)修改 udev 规则中的 iopolicy

RHEL 10.0 将 NVMe-oF 的默认 iopolicy 设置为 round-robin。如果您使用的是 RHEL 10.0 并且想要更改 iopolicy,请执行以下操作: `queue-depth`修改 udev 规则文件如下:

步骤
  1. 使用 root 权限在文本编辑器中打开 udev 规则文件:

    /usr/lib/udev/rules.d/71-nvmf-netapp.rules

    您应看到以下输出:

    vi /usr/lib/udev/rules.d/71-nvmf-netapp.rules
  2. 找到为NetApp ONTAP控制器设置 iopolicy 的行,如下例所示:

    ACTION=="add", SUBSYSTEM=="nvme-subsystem", ATTR{subsystype}=="nvm", ATTR{model}=="NetApp ONTAP Controller", ATTR{iopolicy}="round-robin"
  3. 修改规则,以便 round-robin`变成 `queue-depth

    ACTION=="add", SUBSYSTEM=="nvme-subsystem", ATTR{subsystype}=="nvm", ATTR{model}=="NetApp ONTAP Controller", ATTR{iopolicy}="queue-depth"
  4. 重新加载udev规则并应用更改:

    udevadm control --reload
    udevadm trigger --subsystem-match=nvme-subsystem
  5. 请检查子系统的当前 I/O 策略。例如,替换<子系统> nvme-subsys0

    cat /sys/class/nvme-subsystem/<subsystem>/iopolicy

    您应看到以下输出:

    queue-depth.
备注 新的 iopolicy 会自动应用于匹配的NetApp ONTAP控制器设备。您无需重启。

步骤 5:可选,启用 NVMe/FC 的 1MB I/O。

ONTAP在识别控制器数据中报告最大数据传输大小 (MDTS) 为 8。这意味着最大 I/O 请求大小可达 1MB。要向 Broadcom NVMe/FC 主机发出 1MB 大小的 I/O 请求,您应该增加 `lpfc`的价值 `lpfc_sg_seg_cnt`参数从默认值 64 更改为 256。

备注 这些步骤不适用于逻辑NVMe/FC主机。
步骤
  1. 将 `lpfc_sg_seg_cnt`参数设置为256:

    cat /etc/modprobe.d/lpfc.conf

    您应该会看到类似于以下示例的输出:

    options lpfc lpfc_sg_seg_cnt=256
  2. 运行 `dracut -f`命令并重新启动主机。

  3. 验证的值是否 `lpfc_sg_seg_cnt`为256:

    cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt

步骤 6:验证 NVMe 启动服务

这 `nvmefc-boot-connections.service`和 `nvmf-autoconnect.service`NVMe/FC 中包含的启动服务 `nvme-cli`系统启动时,软件包会自动启用。

启动完成后,验证 `nvmefc-boot-connections.service`和 `nvmf-autoconnect.service`启动服务已启用。

步骤
  1. 验证是否 `nvmf-autoconnect.service`已启用:

    systemctl status nvmf-autoconnect.service
    显示示例输出
    nvmf-autoconnect.service - Connect NVMe-oF subsystems automatically during boot
         Loaded: loaded (/usr/lib/systemd/system/nvmf-autoconnect.service; enabled; preset: disabled)
         Active: inactive (dead) since Sun 2025-10-12 19:41:15 IST; 1 day 1h ago
     Invocation: 7b5b99929c6b41199d493fa25b629f6c
       Main PID: 10043 (code=exited, status=0/SUCCESS)
       Mem peak: 2.9M
            CPU: 50ms
    
    Oct 12 19:41:15 localhost.localdomain systemd[1]: Starting nvmf-autoconnect.service - Connect NVMe-oF subsystems automatically during boot...
    Oct 12 19:41:15 localhost.localdomain systemd[1]: nvmf-autoconnect.service: Deactivated successfully.
    Oct 12 19:41:15 localhost.localdomain systemd[1]: Finished nvmf-autoconnect.service - Connect NVMe-oF subsystems automatically during boot.
  2. 验证是否 `nvmefc-boot-connections.service`已启用:

    systemctl status nvmefc-boot-connections.service
    显示示例输出
    nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot
         Loaded: loaded (/usr/lib/systemd/system/nvmefc-boot-connections.service; enabled; preset: enabled)
         Active: inactive (dead) since Sun 2025-10-12 19:40:33 IST; 1 day 1h ago
     Invocation: 0ec258a9f8c342ffb82408086d409bc6
       Main PID: 4151 (code=exited, status=0/SUCCESS)
       Mem peak: 2.9M
            CPU: 17ms
    
    Oct 12 19:40:33 localhost systemd[1]: Starting nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot...
    Oct 12 19:40:33 localhost systemd[1]: nvmefc-boot-connections.service: Deactivated successfully.
    Oct 12 19:40:33 localhost systemd[1]: Finished nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot.

步骤 7:验证多路径配置

验证内核NVMe多路径状态、ANA状态和ONTAP命名空间是否适用于NVMe-oF配置。

步骤
  1. 验证主机上是否正确显示了相应ONTAP命名空间的 NVMe-oF 设置(例如,型号设置为NetApp ONTAP Controller,负载均衡 iopolicy 设置为 round-robin):

    1. 显示子系统:

      cat /sys/class/nvme-subsystem/nvme-subsys*/model

      您应看到以下输出:

      NetApp ONTAP Controller
      NetApp ONTAP Controller
    2. 显示策略:

      cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy

      您应看到以下输出:

    queue-depth
    queue-depth
  2. 验证是否已在主机上创建并正确发现命名空间:

    nvme list
    显示示例
    Node                  Generic               SN                   Model
    --------------------- --------------------- -------------------- ----------------------------------------
    /dev/nvme11n1         /dev/ng11n1           81OcqJXhgWtsAAAAAAAI NetApp ONTAP Controller
    
    Namespace  Usage                      Format           FW Rev
    ---------- -------------------------- ---------------- --------
    0x1        951.90  MB /  21.47  GB    4 KiB +  0 B     9.18.1
  3. 验证每个路径的控制器状态是否为活动状态且是否具有正确的ANA状态:

    NVMe/FC
    nvme list-subsys /dev/nvme9n2
    显示示例
    nvme-subsys9 - NQN=nqn.1992-08.com.netapp:sn.7c34ab26675e11f0a6c0d039eac03c33:subsystem.subsystem_46
                   hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c7c04f425633
    \
     +- nvme105 fc traddr=nn-0x2018d039eac03c33:pn-0x201bd039eac03c33,host_traddr=nn-0x2000f4c7aa0cd7c3:pn-0x2100f4c7aa0cd7c3 live optimized
     +- nvme107 fc traddr=nn-0x2018d039eac03c33:pn-0x2019d039eac03c33,host_traddr=nn-0x2000f4c7aa0cd7c2:pn-0x2100f4c7aa0cd7c2 live optimized
     +- nvme42 fc traddr=nn-0x2018d039eac03c33:pn-0x201cd039eac03c33,host_traddr=nn-0x2000f4c7aa0cd7c3:pn-0x2100f4c7aa0cd7c3 live optimized
     +- nvme44 fc traddr=nn-0x2018d039eac03c33:pn-0x201ad039eac03c33,host_traddr=nn-0x2000f4c7aa0cd7c2:pn-0x2100f4c7aa0cd7c2 live optimized
    NVMe/TCP
    nvme list-subsys /dev/nvme4n2
    显示示例
    nvme-subsys4 - NQN=nqn.1992-08.com.netapp:sn.17e32b6e8c7f11f09545d039eac03c33:subsystem.Bidirectional_DHCP_1_0
                   hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0054-5110-8039-c3c04f523034
    \
     +- nvme4 tcp traddr=192.168.20.28,trsvcid=4420,host_traddr=192.168.20.21,src_addr=192.168.20.21 live optimized
     +- nvme5 tcp traddr=192.168.20.29,trsvcid=4420,host_traddr=192.168.20.21,src_addr=192.168.20.21 live optimized
     +- nvme6 tcp traddr=192.168.21.28,trsvcid=4420,host_traddr=192.168.21.21,src_addr=192.168.21.21 live optimized
     +- nvme7 tcp traddr=192.168.21.29,trsvcid=4420,host_traddr=192.168.21.21,src_addr=192.168.21.21 live optimized
  4. 验证NetApp插件是否为每个ONTAP 命名空间设备显示正确的值:

    nvme netapp ontapdevices -o column
    显示示例
    Device           Vserver                   Subsystem                 Namespace Path
    ---------------- ------------------------- ------------------------- ------------------
    /dev/nvme0n1     vs_nvme_sanboot_tcp       rhel_sanboot_tcp170       tcp_97
    
    NSID UUID                                   Size
    ---- -------------------------------------- ---------
    1    982c0f2a-6b8b-11f0-a6c0-d039eac03c33   322.12GB
    JSON
    nvme netapp ontapdevices -o json
    显示示例
    {
      "ONTAPdevices":[
        {
          "Device":"/dev/nvme0n1",
          "Vserver":"vs_nvme_sanboot_tcp",
          "Subsystem":"rhel_sanboot_tcp170",
          "Namespace_Path":"tcp_97",
          "NSID":1,
          "UUID":"982c0f2a-6b8b-11f0-a6c0-d039eac03c33",
          "LBA_Size":4096,
          "Namespace_Size":322122547200,
          "UsedBytes":16285069312,
          "Version":"9.18.1"
        }
    ]
    }

步骤 8:设置安全带内身份验证

支持通过 NVMe/TCP 在 RHEL 10x 主机和ONTAP控制器之间进行安全的带内身份验证。

每个主机或控制器必须与一个 `DH-HMAC-CHAP`密钥来设置安全身份验证。 `DH-HMAC-CHAP`密钥是 NVMe 主机或控制器的 NQN 与管理员配置的身份验证密钥的组合。要对其对等方进行身份验证、NVMe主机或控制器必须识别与对等方关联的密钥。

使用 CLI 或配置 JSON 文件设置安全带内身份验证。如果需要为不同的子系统指定不同的dhchap密钥、则必须使用config JSON文件。

命令行界面

使用命令行界面设置安全带内身份验证。

  1. 获取主机NQN:

    cat /etc/nvme/hostnqn
  2. 为 RHEL 10x 主机生成 dhchap 密钥。

    以下输出描述了 `gen-dhchap-key`命令参数:

    nvme gen-dhchap-key -s optional_secret -l key_length {32|48|64} -m HMAC_function {0|1|2|3} -n host_nqn
    •	-s secret key in hexadecimal characters to be used to initialize the host key
    •	-l length of the resulting key in bytes
    •	-m HMAC function to use for key transformation
    0 = none, 1- SHA-256, 2 = SHA-384, 3=SHA-512
    •	-n host NQN to use for key transformation

    在以下示例中、将生成一个随机dhchap密钥、其中HMAC设置为3 (SHA-512)。

    nvme gen-dhchap-key -m 3 -n nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0054-5110-8039-c3c04f523034
    DHHC-1:03:AppJHkJygA6ZC4BxyQNtJST+4k4IOv47MAJk0xBITwFOHIC2nV/uE04RoSpy1z2SXYqNW1bhLe9hJ+MDHigGexaG2Ig=:
  3. 在ONTAP控制器上、添加主机并指定两个dhchap密钥:

    vserver nvme subsystem host add -vserver <svm_name> -subsystem <subsystem> -host-nqn <host_nqn> -dhchap-host-secret <authentication_host_secret> -dhchap-controller-secret <authentication_controller_secret> -dhchap-hash-function {sha-256|sha-512} -dhchap-group {none|2048-bit|3072-bit|4096-bit|6144-bit|8192-bit}
  4. 主机支持两种类型的身份验证方法:单向和双向。在主机上、连接到ONTAP控制器并根据所选身份验证方法指定dhchap密钥:

    nvme connect -t tcp -w <host-traddr> -a <tr-addr> -n <host_nqn> -S <authentication_host_secret> -C <authentication_controller_secret>
  5. 验证 nvme connect authentication 命令、验证主机和控制器dhchap密钥:

    1. 验证主机dhchap密钥:

      cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_secret
      显示单向配置的示例输出
      cat /sys/class/nvme-subsystem/nvme-subsys4/nvme*/dhchap_secret
      DHHC-1:01:2G7lsg9PMO00h1Wf1g4QtP0XT11kREz0qVuLm2xvZdbaWR/g:
      DHHC-1:01:2G7lsg9PMO00h1Wf1g4QtP0XT11kREz0qVuLm2xvZdbaWR/g:
      DHHC-1:01:2G7lsg9PMO00h1Wf1g4QtP0XT11kREz0qVuLm2xvZdbaWR/g:
      DHHC-1:01:2G7lsg9PMO00h1Wf1g4QtP0XT11kREz0qVuLm2xvZdbaWR/g:
    2. 验证控制器dhchap密钥:

      cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_ctrl_secret
      显示双向配置的示例输出
      cat /sys/class/nvme-subsystem/nvme- subsys4/nvme*/dhchap_ctrl_secret
      DHHC-1:03:5CgWULVnU5HUOwP1MNg95pkiUAwayiO+IvrALZR8HpeJIHw3xyHdGlTnvEJ81HDjBb+fGteUgIn0fj8ASHZIgkuFIx8=:
      DHHC-1:03:5CgWULVnU5HUOwP1MNg95pkiUAwayiO+IvrALZR8HpeJIHw3xyHdGlTnvEJ81HDjBb+fGteUgIn0fj8ASHZIgkuFIx8=:
      DHHC-1:03:5CgWULVnU5HUOwP1MNg95pkiUAwayiO+IvrALZR8HpeJIHw3xyHdGlTnvEJ81HDjBb+fGteUgIn0fj8ASHZIgkuFIx8=:
      DHHC-1:03:5CgWULVnU5HUOwP1MNg95pkiUAwayiO+IvrALZR8HpeJIHw3xyHdGlTnvEJ81HDjBb+fGteUgIn0fj8ASHZIgkuFIx8=:
JSON

当ONTAP控制器上有多个 NVMe 子系统可用时,您可以使用 `/etc/nvme/config.json`文件与 `nvme connect-all`命令。

使用 `-o`选项来生成 JSON 文件。有关更多语法选项,请参阅 NVMe connect-all 手册页。

  1. 配置 JSON 文件。

    备注 在以下示例中, dhchap_key`对应于 `dhchap_secret`和 `dhchap_ctrl_key`对应于 `dhchap_ctrl_secret
    显示示例
    [
      {
        "hostnqn":"nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0054-5110-8039-c3c04f523034",
        "hostid":"44454c4c-5400-1051-8039-c3c04f523034",
        "dhchap_key":"DHHC-1:01:2G7lsg9PMO00h1Wf1g4QtP0XT11kREz0qVuLm2xvZdbaWR/g:",
        "subsystems":[
          {
            "nqn":"nqn.1992-08.com.netapp:sn.5857c8c9b22411f08d0ed039eac03c33:subsystem.Bidirectional_DHCP_1_0",
            "ports":[
              {
                "transport":"tcp",
                "traddr":"192.168.20.28",
                "host_traddr":"192.168.20.21",
                "trsvcid":"4420",
                "dhchap_ctrl_key":"DHHC-1:03:5CgWULVnU5HUOwP1MNg95pkiUAwayiO+IvrALZR8HpeJIHw3xyHdGlTnvEJ81HDjBb+fGteUgIn0fj8ASHZIgkuFIx8=:"
              },
              {
                "transport":"tcp",
                "traddr":"192.168.20.29",
                "host_traddr":"192.168.20.21",
                "trsvcid":"4420",
                "dhchap_ctrl_key":"DHHC-1:03:5CgWULVnU5HUOwP1MNg95pkiUAwayiO+IvrALZR8HpeJIHw3xyHdGlTnvEJ81HDjBb+fGteUgIn0fj8ASHZIgkuFIx8=:"
              },
              {
                "transport":"tcp",
                "traddr":"192.168.21.28",
                "host_traddr":"192.168.21.21",
                "trsvcid":"4420",
                "dhchap_ctrl_key":"DHHC-1:03:5CgWULVnU5HUOwP1MNg95pkiUAwayiO+IvrALZR8HpeJIHw3xyHdGlTnvEJ81HDjBb+fGteUgIn0fj8ASHZIgkuFIx8=:"
              },
              {
                "transport":"tcp",
                "traddr":"192.168.21.29",
                "host_traddr":"192.168.21.21",
                "trsvcid":"4420",
                "dhchap_ctrl_key":"DHHC-1:03:5CgWULVnU5HUOwP1MNg95pkiUAwayiO+IvrALZR8HpeJIHw3xyHdGlTnvEJ81HDjBb+fGteUgIn0fj8ASHZIgkuFIx8=:"
              }
            ]
          }
        ]
      }
    ]
  2. 使用config JSON文件连接到ONTAP控制器:

    nvme connect-all -J /etc/nvme/config.json
    显示示例
    traddr=192.168.20.28 is already connected
    traddr=192.168.20.28 is already connected
    traddr=192.168.20.29 is already connected
    traddr=192.168.20.29 is already connected
  3. 验证每个子系统的相应控制器是否已启用 dhchap 机密。

    1. 验证主机dhchap密钥:

      cat /sys/class/nvme-subsystem/nvme-subsys4/nvme4/dhchap_secret

      以下示例显示了 dhchap 密钥:

      DHHC-1:01:2G7lsg9PMO00h1Wf1g4QtP0XT11kREz0qVuLm2xvZdbaWR/g:
    2. 验证控制器dhchap密钥:

      cat /sys/class/nvme-subsystem/nvme- subsys4/nvme4/dhchap_ctrl_secret

      您应该看到类似于以下示例的输出:

    DHHC-1:03:5CgWULVnU5HUOwP1MNg95pkiUAwayiO+IvrALZR8HpeJIHw3xyHdGlTnvEJ81HDjBb+fGteUgIn0fj8ASHZIgkuFIx8=:

第9步:查看已知问题

没有已知问题。