Skip to main content
ONTAP SAN Host Utilities
简体中文版经机器翻译而成,仅供参考。如与英语版出现任何冲突,应以英语版为准。

配置 Oracle Linux 9.x 和 NVMe-oF 以用于ONTAP存储

贡献者 netapp-pcarriga netapp-sarajane

Oracle Linux 主机支持基于光纤通道的 NVMe (NVMe/FC) 和基于 TCP 的 NVMe (NVMe/TCP) 协议,并支持非对称命名空间访问 (ANA)。ANA 提供与 iSCSI 和 FCP 环境中的非对称逻辑单元访问 (ALUA) 等效的多路径功能。

了解如何为 Oracle Linux 9.x 配置 NVMe over Fabrics (NVMe-oF) 主机。如需更多支持和功能信息,请参阅 "Oracle Linux ONTAP支持和功能"

NVMe-oF 与 Oracle Linux 9.x 存在以下已知限制:

  • 这 `nvme disconnect-all`该命令会断开根文件系统和数据文件系统,可能会导致系统不稳定。请勿在通过 NVMe-TCP 或 NVMe-FC 命名空间从 SAN 启动的系统上执行此操作。

第1步:(可选)启用SAN启动

您可以配置主机以使用 SAN 启动来简化部署并提高可扩展性。使用"互操作性表工具"验证您的 Linux 操作系统、主机总线适配器 (HBA)、HBA 固件、HBA 启动 BIOS 和ONTAP版本是否支持 SAN 启动。

步骤
  1. "创建 NVMe 命名空间并将其映射到主机"

  2. 在服务器 BIOS 中为 SAN 启动命名空间映射到的端口启用 SAN 启动。

    有关如何启用 HBA BIOS 的信息,请参见供应商专用文档。

  3. 重新启动主机并验证操作系统是否已启动并正在运行。

步骤 2:安装 Oracle Linux 和 NVMe 软件并验证配置

使用以下步骤验证支持的最低 Oracle Linux 9.x 软件版本。

步骤
  1. 在服务器上安装Oracle Linux 9.x。安装完成后,请确认您运行的是指定的 Oracle Linux 9.x 内核。

    uname -r

    Oracle Linux 内核版本示例:

    6.12.0-1.23.3.2.el9uek.x86_64
  2. 安装 NVMe-CLI 软件包:

    rpm -qa|grep nvme-cli

    下面的例子展示了 `nvme-cli`软件包版本:

    nvme-cli-2.11-5.el9.x86_64
  3. 安装 libnvme 软件包:

    rpm -qa|grep libnvme

    下面的例子展示了 `libnvme`软件包版本:

    libnvme-1.11.1-1.el9.x86_64
  4. 在 Oracle Linux 9.x 主机上,检查 hostnqn`字符串 `/etc/nvme/hostnqn

    cat /etc/nvme/hostnqn

    下面的例子展示了 `hostnqn`版本:

    nqn.2014-08.org.nvmexpress:uuid:b1d95cd0-1f7c-11ec-b8d1-3a68dd61a1cb
  5. 在ONTAP系统中,验证以下信息: `hostnqn`字符串匹配 `hostnqn`ONTAP存储系统中相应子系统的字符串:

    vserver nvme subsystem host show -vserver vs_203
    显示示例
    Vserver Subsystem Priority  Host NQN
    ------- --------- --------  --------------------------------------------------------------------
    vs_203  Nvme1     regular   nqn.2014-08.org.nvmexpress:uuid:b1d95cd0-1f7c-11ec-b8d1-3a68dd61a1cb
            Nvme10    regular   nqn.2014-08.org.nvmexpress:uuid:b1d95cd0-1f7c-11ec-b8d1-3a68dd61a1cb
            Nvme11    regular   nqn.2014-08.org.nvmexpress:uuid:b1d95cd0-1f7c-11ec-b8d1-3a68dd61a1cb
            Nvme12    regular   nqn.2014-08.org.nvmexpress:uuid:b1d95cd0-1f7c-11ec-b8d1-3a68dd61a1cb
            Nvme13    regular   nqn.2014-08.org.nvmexpress:uuid:b1d95cd0-1f7c-11ec-b8d1-3a68dd61a1cb
            Nvme14    regular   nqn.2014-08.org.nvmexpress:uuid:b1d95cd0-1f7c-11ec-b8d1-3a68dd61a1cb
    备注 如果 hostnqn`字符串不匹配、您可以使用 `vserver modify`命令更新 `hostnqn`相应ONTAP阵列子系统上的字符串、使其与主机上的字符串 `/etc/nvme/hostnqn`匹配 `hostnqn

步骤 3:配置 NVMe/FC 和 NVMe/TCP

使用 Broadcom/Emulex 或 Marvell/QLogic 适配器配置 NVMe/FC,或使用手动发现和连接操作配置 NVMe/TCP。

NVMe/FC - 博通/Emulex

为Broadcom/Emulex适配器配置NVMe/FC。

  1. 确认您使用的是受支持的适配器型号:

    1. 显示模型名称:

      cat /sys/class/scsi_host/host*/modelname

      您应看到以下输出:

      LPe36002-M64-D
      LPe36002-M64-D
    2. 显示模型描述:

      cat /sys/class/scsi_host/host*/modeldesc

      您应该会看到类似于以下示例的输出:

    Emulex LPe36002-M64-D 2-Port 64Gb Fibre Channel Adapter
    Emulex LPe36002-M64-D 2-Port 64Gb Fibre Channel Adapter
  2. 确认您使用的是建议的Broadcom lpfc 固件和内置驱动程序:

    1. 显示固件版本:

      cat /sys/class/scsi_host/host*/fwrev

      以下示例显示固件版本:

      14.4.576.17, sli-4:6:d
      14.4.576.17, sli-4:6:d
    2. 显示收件箱驱动程序版本:

      cat /sys/module/lpfc/version

      以下示例显示了驱动程序版本:

    0:14.4.0.8

    +
    有关支持的适配器驱动程序和固件版本的最新列表,请参见"互操作性表工具"

  3. 请验证 lpfc_enable_fc4_type 设置为 3

    cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
  4. 验证是否可以查看启动程序端口:

    cat /sys/class/fc_host/host*/<port_name>

    以下示例显示端口标识:

    0x2100f4c7aa9d7c5c
    0x2100f4c7aa9d7c5d
  5. 验证启动程序端口是否联机:

    cat /sys/class/fc_host/host*/port_state

    您应看到以下输出:

    Online
    Online
  6. 验证NVMe/FC启动程序端口是否已启用且目标端口是否可见:

    cat /sys/class/scsi_host/host*/nvme_info
    显示示例
    NVME Initiator Enabled
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x100000620b3c0869 WWNN x200000620b3c0869 DID x080e00 ONLINE
    NVME RPORT       WWPN x2001d039eabac36f WWNN x2000d039eabac36f DID x021401 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x20e2d039eabac36f WWNN x20e1d039eabac36f DID x02141f TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2011d039eabac36f WWNN x2010d039eabac36f DID x021429 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2002d039eabac36f WWNN x2000d039eabac36f DID x021003 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x20e4d039eabac36f WWNN x20e1d039eabac36f DID x02100f TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2012d039eabac36f WWNN x2010d039eabac36f DID x021015 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 0000027ccf Cmpl 0000027cca Abort 00000014
    LS XMIT: Err 00000005  CMPL: xb 00000014 Err 00000014
    Total FCP Cmpl 00000000000613ff Issue 00000000000613fc OutIO fffffffffffffffd
            abort 00000007 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 0000000a Err 0000000d
    
    NVME Initiator Enabled
    XRI Dist lpfc1 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc1 WWPN x100000620b3c086a WWNN x200000620b3c086a DID x080000 ONLINE
    NVME RPORT       WWPN x2004d039eabac36f WWNN x2000d039eabac36f DID x021501 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x20e3d039eabac36f WWNN x20e1d039eabac36f DID x02150f TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2014d039eabac36f WWNN x2010d039eabac36f DID x021515 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2003d039eabac36f WWNN x2000d039eabac36f DID x02110b TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x20e5d039eabac36f WWNN x20e1d039eabac36f DID x02111f TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2013d039eabac36f WWNN x2010d039eabac36f DID x021129 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 0000027ca3 Cmpl 0000027ca2 Abort 00000017
    LS XMIT: Err 00000001  CMPL: xb 00000017 Err 00000017
    Total FCP Cmpl 000000000006369d Issue 000000000006369a OutIO fffffffffffffffd
            abort 00000007 noxri 00000000 nondlp 00000011 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000008 Err 0000000c
NVMe/FC - Marvell/QLogic

为Marvell/QLogic适配器配置NVMe/FC。

  1. 验证您是否正在运行受支持的适配器驱动程序和固件版本:

    cat /sys/class/fc_host/host*/symbolic_name

    以下示例显示了驱动程序和固件版本:

    QLE2872 FW:v9.15.03 DVR:v10.02.09.300-k
  2. 请验证 ql2xnvmeenable 已设置。这样、Marvell适配器便可用作NVMe/FC启动程序:

    cat /sys/module/qla2xxx/parameters/ql2xnvmeenable

    预期输出为1。

NVMe/TCP

NVMe/TCP 协议不支持自动连接操作。相反,您可以通过执行 NVMe/TCP 来发现 NVMe/TCP 子系统和命名空间 `connect`或者 `connect-all`手动操作。

  1. 验证启动程序端口是否可以通过受支持的NVMe/TCP LIF提取发现日志页面数据:

    nvme discover -t tcp -w host-traddr -a traddr
    显示示例
    nvme discover -t tcp -w 192.168.30.10 -a 192.168.30.58
    =====Discovery Log Entry 0======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  8
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:discovery
    traddr:  192.168.31.99
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 1======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  6
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:discovery
    traddr:  192.168.30.99
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 2======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  7
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:discovery
    traddr:  192.168.31.98
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 3======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  5
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:discovery
    traddr:  192.168.30.98
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 4======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  8
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:subsystem.subsys_kvm
    traddr:  192.168.31.99
    eflags:  none
    sectype: none
    =====Discovery Log Entry 5======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  6
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:subsystem.subsys_kvm
    traddr:  192.168.30.99
    eflags:  none
    sectype: none
    =====Discovery Log Entry 6======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  7
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:subsystem.subsys_kvm
    traddr:  192.168.31.98
    eflags:  none
    sectype: none
    =====Discovery Log Entry 7======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  5
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:subsystem.subsys_kvm
    traddr:  192.168.30.98
    eflags:  none
    sectype: none
  2. 验证其他NVMe/TCP启动程序-目标LIF组合是否可以成功提取发现日志页面数据:

    nvme discover -t tcp -w host-traddr -a traddr
    显示示例
    nvme discover -t tcp -w 192.168.30.10 -a 192.168.30.58
    nvme discover -t tcp -w 192.168.30.10 -a 192.168.30.59
    nvme discover -t tcp -w 192.168.31.10 -a 192.168.31.58
    nvme discover -t tcp -w 192.168.31.10 -a 192.168.31.59
  3. 运行 nvme connect-all 在节点中所有受支持的NVMe/TCP启动程序-目标SIP上运行命令:

    nvme connect-all -t tcp -w host-traddr -a traddr
    显示示例
    nvme connect-all -t tcp -w 192.168.30.10 -a 192.168.30.58
    nvme connect-all -t tcp -w 192.168.30.10 -a 192.168.30.59
    nvme connect-all -t tcp -w 192.168.31.10 -a 192.168.31.58
    nvme connect-all -t tcp -w 192.168.31.10 -a 192.168.31.59

从 Oracle Linux 9.4 开始,NVMe/TCP 的设置 `ctrl_loss_tmo timeout`自动设置为“关闭”。因此:

  • 重试次数没有限制(无限重试)。

  • 您不需要手动配置特定的 `ctrl_loss_tmo timeout`使用时长 `nvme connect`或者 `nvme connect-all`命令(选项 -l )。

  • 如果发生路径故障,NVMe/TCP 控制器不会超时,并且会无限期地保持连接。

步骤 4:(可选)修改 udev 规则中的 iopolicy

主机上的 Oracle Linux 9.x 将 NVMe-oF 的默认 iopolicy 设置为 round-robin。从 Oracle Linux 9.6 开始,您可以将 iopolicy 更改为 queue-depth 通过修改 udev 规则文件。

步骤
  1. 使用 root 权限在文本编辑器中打开 udev 规则文件:

    /usr/lib/udev/rules.d/71-nvmf-netapp.rules

    您应看到以下输出:

    vi /usr/lib/udev/rules.d/71-nvmf-netapp.rules
  2. 找到设置NetApp ONTAP控制器 iopolicy 的那行代码。

    以下示例展示了一条示例规则:

    ACTION=="add", SUBSYSTEM=="nvme-subsystem", ATTR{subsystype}=="nvm", ATTR{model}=="NetApp ONTAP Controller", ATTR{iopolicy}="round-robin"
  3. 修改规则,以便 round-robin`变成 `queue-depth

    ACTION=="add", SUBSYSTEM=="nvme-subsystem", ATTR{subsystype}=="nvm", ATTR{model}=="NetApp ONTAP Controller", ATTR{iopolicy}="queue-depth"
  4. 重新加载udev规则并应用更改:

    udevadm control --reload
    udevadm trigger --subsystem-match=nvme-subsystem
  5. 请检查子系统的当前 I/O 策略。例如,替换<子系统> nvme-subsys0

    cat /sys/class/nvme-subsystem/<subsystem>/iopolicy

    您应看到以下输出:

    queue-depth.
备注 新的 iopolicy 会自动应用于匹配的NetApp ONTAP控制器设备。无需重启。

步骤 5:可选,启用 NVMe/FC 的 1MB I/O。

ONTAP在识别控制器数据中报告最大数据传输大小 (MDTS) 为 8。这意味着最大 I/O 请求大小可达 1MB。要向 Broadcom NVMe/FC 主机发出 1MB 大小的 I/O 请求,您应该增加 `lpfc`的价值 `lpfc_sg_seg_cnt`参数从默认值 64 更改为 256。

备注 这些步骤不适用于逻辑NVMe/FC主机。
步骤
  1. 将 `lpfc_sg_seg_cnt`参数设置为256:

    cat /etc/modprobe.d/lpfc.conf

    您应该会看到类似于以下示例的输出:

    options lpfc lpfc_sg_seg_cnt=256
  2. 运行 `dracut -f`命令并重新启动主机。

  3. 验证的值是否 `lpfc_sg_seg_cnt`为256:

    cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt

步骤 6:验证 NVMe 启动服务

从 Oracle Linux 9.5 开始, `nvmefc-boot-connections.service`和 `nvmf-autoconnect.service`NVMe/FC 中包含的启动服务 `nvme-cli`系统启动时会自动启用软件包。

启动完成后,验证 `nvmefc-boot-connections.service`和 `nvmf-autoconnect.service`启动服务已启用。

步骤
  1. 验证是否 `nvmf-autoconnect.service`已启用:

    systemctl status nvmf-autoconnect.service
    显示示例输出
    nvmf-autoconnect.service - Connect NVMe-oF subsystems automatically during boot
         Loaded: loaded (/usr/lib/systemd/system/nvmf-autoconnect.service; enabled; preset: disabled)
         Active: inactive (dead) since Tue 2025-10-07 09:48:11 EDT; 1 week 0 days ago
       Main PID: 2620 (code=exited, status=0/SUCCESS)
            CPU: 19ms
    
    Oct 07 09:48:11 R650xs-13-211 systemd[1]: Starting Connect NVMe-oF subsystems automatically during boot...
    Oct 07 09:48:11 R650xs-13-211 systemd[1]: nvmf-autoconnect.service: Deactivated successfully.
    Oct 07 09:48:11 R650xs-13-211 systemd[1]: Finished Connect NVMe-oF subsystems automatically during boot.
  2. 验证是否 `nvmefc-boot-connections.service`已启用:

    systemctl status nvmefc-boot-connections.service
    显示示例输出
    nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot
         Loaded: loaded (/usr/lib/systemd/system/nvmefc-boot-connections.service; enabled; preset: enabled)
         Active: inactive (dead) since Tue 2025-10-07 09:47:07 EDT; 1 week 0 days ago
       Main PID: 1651 (code=exited, status=0/SUCCESS)
            CPU: 14ms
    
    Oct 07 09:47:07 R650xs-13-211 systemd[1]: Starting Auto-connect to subsystems on FC-NVME devices found during boot...
    Oct 07 09:47:07 R650xs-13-211 systemd[1]: nvmefc-boot-connections.service: Deactivated successfully.
    Oct 07 09:47:07 R650xs-13-211 systemd[1]: Finished Auto-connect to subsystems on FC-NVME devices found during boot.

步骤 7:验证多路径配置

验证内核NVMe多路径状态、ANA状态和ONTAP命名空间是否适用于NVMe-oF配置。

步骤
  1. 验证是否已启用内核NVMe多路径:

    cat /sys/module/nvme_core/parameters/multipath

    您应看到以下输出:

    Y
  2. 验证相应ONTAP命名库的适当NVMe-oF设置(例如、型号设置为NetApp ONTAP控制器、负载平衡iopolicy设置为循环)是否正确反映在主机上:

    1. 显示子系统:

      cat /sys/class/nvme-subsystem/nvme-subsys*/model

      您应看到以下输出:

      NetApp ONTAP Controller
      NetApp ONTAP Controller
    2. 显示策略:

      cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy

      您应该能看到 iopolicy 的值设置,例如:

    queue-depth
    queue-depth
  3. 验证是否已在主机上创建并正确发现命名空间:

    nvme list
    显示示例
    Node            Generic         SN                   Model                    Namespace  Usage                      Format         FW Rev
    --------------- --------------- -------------------- ------------------------ ---------- -------------------------- -------------  --------
    /dev/nvme102n1  /dev/ng102n1    81LLqNYTindCAAAAAAAk NetApp ONTAP Controller   0x1          2.25  GB /   5.37  GB   4 KiB +  0 B   9.17.1
    /dev/nvme102n2  /dev/ng102n2    81LLqNYTindCAAAAAAAk NetApp ONTAP Controller   0x2          2.25  GB /   5.37  GB   4 KiB +  0 B   9.17.1
    /dev/nvme106n1  /dev/ng106n1    81LLqNYTindCAAAAAAAs NetApp ONTAP Controller   0x1          2.25  GB /   5.37  GB   4 KiB +  0 B   9.17.1
    /dev/nvme106n2  /dev/ng106n2    81LLqNYTindCAAAAAAAs NetApp ONTAP Controller   0x2          2.25  GB /   5.37  GB   4 KiB +  0 B   9.17.1
  4. 验证每个路径的控制器状态是否为活动状态且是否具有正确的ANA状态:

    NVMe/FC
    nvme list-subsys /dev/nvme4n5
    显示示例
    nvme-subsys4 - NQN=nqn.1992-08.com.netapp:sn.f9c6d0cb4fef11f08579d039eaa8138c:discovery hostnqn=nqn.2014-08.org.nvmexpress:uuid:b1d95cd0-1f7c-11ec-b8d1-3a68dd61a1cb \ +- nvme2 fc traddr=nn-0x201ad039eabac36f:pn-0x201bd039eabac36f,host_traddr=nn-0x2000f4c7aa9d7c5c:pn-0x2100f4c7aa9d7c5c live optimized
    +- nvme8 fc traddr=nn-0x201ad039eabac36f:pn-0x201dd039eabac36f,host_traddr=nn-0x2000f4c7aa9d7c5d:pn-0x2100f4c7aa9d7c5d live non-optimized
    +- nvme2 fc traddr=nn-0x201ad039eabac36f:pn-0x201bd039eabac36f,host_traddr=nn-0x2000f4c7aa9d7c5c:pn-0x2100f4c7aa9d7c5c live non-optimized
    +- nvme8 fc traddr=nn-0x201ad039eabac36f:pn-0x201dd039eabac36f,host_traddr=nn-0x2000f4c7aa9d7c5d:pn-0x2100f4c7aa9d7c5d live optimized
    NVMe/TCP
    nvme list-subsys /dev/nvme1n1
    显示示例
    nvme-subsys98 - NQN=nqn.1992-08.com.netapp:sn.f9c6d0cb4fef11f08579d039eaa8138c:subsystem.Nvme9
                    hostnqn=nqn.2014-08.org.nvmexpress:uuid:b1d95cd0-1f7c-11ec-b8d1-3a68dd61a1cb
    \
     +- nvme100 fc traddr=nn-0x201ad039eabac36f:pn-0x201dd039eabac36f,host_traddr=nn-0x2000f4c7aa9d7c5d:pn-0x2100f4c7aa9d7c5d live non-optimized
     +- nvme101 fc traddr=nn-0x201ad039eabac36f:pn-0x201cd039eabac36f,host_traddr=nn-0x2000f4c7aa9d7c5c:pn-0x2100f4c7aa9d7c5c live non-optimized
     +- nvme98 fc traddr=nn-0x201ad039eabac36f:pn-0x201bd039eabac36f,host_traddr=nn-0x2000f4c7aa9d7c5c:pn-0x2100f4c7aa9d7c5c live optimized
     +- nvme99 fc traddr=nn-0x201ad039eabac36f:pn-0x201ed039eabac36f,host_traddr=nn-0x2000f4c7aa9d7c5d:pn-0x2100f4c7aa9d7c5d live optimized
    [root@SR630-13-203 ~]#
  5. 验证NetApp插件是否为每个ONTAP 命名空间设备显示正确的值:

    nvme netapp ontapdevices -o column
    显示示例
    Device           Vserver    Namespace Path          NSID UUID                                   Size
    ---------------- ---------- ----------------------- ---- -------------------------------------- ------
    /dev/nvme102n1   vs_203     /vol/Nvmevol35/ns35     1    00e760c9-e4ca-4d9f-b1d4-e9a930bf53c0   5.37GB
    /dev/nvme102n2   vs_203     /vol/Nvmevol83/ns83     2    1fa97524-7dc2-4dbc-b4cf-5dda9e7095c0   5.37GB
    JSON
    nvme netapp ontapdevices -o json
    显示示例
    {
      "ONTAPdevices":[
        {
          "Device":"/dev/nvme11n1",
          "Vserver":"vs_203",
          "Namespace_Path":"/vol/Nvmevol16/ns16",
          "NSID":1,
          "UUID":"18a88771-8b5b-4eb7-bff0-2ae261f488e4",
          "LBA_Size":4096,
          "Namespace_Size":5368709120,
          "UsedBytes":2262282240,
          "Version":"9.17.1"
            }
      ]
    }

步骤 8:设置安全带内身份验证

Oracle Linux 9.x 主机和ONTAP控制器之间通过 NVMe/TCP 支持安全的带内身份验证。

每个主机或控制器都必须与一个 DH-HMAC-CHAP 密钥关联,才能建立安全身份验证。 DH-HMAC-CHAP 密钥是 NVMe 主机或控制器的 NQN 与管理员配置的身份验证密钥的组合。为了验证对等方的身份,NVMe 主机或控制器必须识别与对等方关联的密钥。

使用 CLI 或配置 JSON 文件设置安全的带内身份验证。如果需要为不同的子系统指定不同的 dhchap 密钥,请使用 config JSON 文件。

命令行界面

使用命令行界面设置安全带内身份验证。

  1. 获取主机NQN:

    cat /etc/nvme/hostnqn
  2. 为 Linux 主机生成 dhchap 密钥。

    以下输出说明了 `gen-dhchap-key`命令参数:

    nvme gen-dhchap-key -s optional_secret -l key_length {32|48|64} -m HMAC_function {0|1|2|3} -n host_nqn
    •	-s secret key in hexadecimal characters to be used to initialize the host key
    •	-l length of the resulting key in bytes
    •	-m HMAC function to use for key transformation
    0 = none, 1- SHA-256, 2 = SHA-384, 3=SHA-512
    •	-n host NQN to use for key transformation

    在以下示例中、将生成一个随机dhchap密钥、其中HMAC设置为3 (SHA-512)。

    # nvme gen-dhchap-key -m 3 -n nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c4c04f425633
    DHHC-1:03:xhAfbAD5IVLZDxiVbmFEOA5JZ3F/ERqTXhHzZQJKgkYkTbPI9dhRyVtr4dBD+SGiAJO3by4FbnVtov1Lmk+86+nNc6k=:
  3. 在ONTAP控制器上、添加主机并指定两个dhchap密钥:

    vserver nvme subsystem host add -vserver <svm_name> -subsystem <subsystem> -host-nqn <host_nqn> -dhchap-host-secret <authentication_host_secret> -dhchap-controller-secret <authentication_controller_secret> -dhchap-hash-function {sha-256|sha-512} -dhchap-group {none|2048-bit|3072-bit|4096-bit|6144-bit|8192-bit}
  4. 主机支持两种类型的身份验证方法:单向和双向。在主机上、连接到ONTAP控制器并根据所选身份验证方法指定dhchap密钥:

    nvme connect -t tcp -w <host-traddr> -a <tr-addr> -n <host_nqn> -S <authentication_host_secret> -C <authentication_controller_secret>
  5. 验证 nvme connect authentication 命令、验证主机和控制器dhchap密钥:

    1. 验证主机dhchap密钥:

      cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_secret
      显示单向配置的示例输出
      cat /sys/class/nvme-subsystem/nvme-subsys1/nvme*/dhchap_secret
      DHHC-1:03:Y5VkkESgmtTGNdX842qemNpFK6BXYVwwnqErgt3IQKP5Fbjje\/JSBOjG5Ea3NBLRfuiAuUSDUto6eY\/GwKoRp6AwGkw=:
      DHHC-1:03:Y5VkkESgmtTGNdX842qemNpFK6BXYVwwnqErgt3IQKP5Fbjje\/JSBOjG5Ea3NBLRfuiAuUSDUto6eY\/GwKoRp6AwGkw=:
      DHHC-1:03:Y5VkkESgmtTGNdX842qemNpFK6BXYVwwnqErgt3IQKP5Fbjje\/JSBOjG5Ea3NBLRfuiAuUSDUto6eY\/GwKoRp6AwGkw=:
      DHHC-1:03:Y5VkkESgmtTGNdX842qemNpFK6BXYVwwnqErgt3IQKP5Fbjje\/JSBOjG5Ea3NBLRfuiAuUSDUto6eY\/GwKoRp6AwGkw=:
    2. 验证控制器dhchap密钥:

      cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_ctrl_secret
      显示双向配置的示例输出
      cat /sys/class/nvme-subsystem/nvme-subsys6/nvme*/dhchap_ctrl_secret
      DHHC-1:03:frpLlTrnOYtcWDxPzq4ccxU1UrH2FjV7hYw5s2XEDB+lo+TjMsOwHR\/NFtM0nBBidx+gdoyUcC5s6hOOtTLDGcz0Kbs=:
      DHHC-1:03:frpLlTrnOYtcWDxPzq4ccxU1UrH2FjV7hYw5s2XEDB+lo+TjMsOwHR\/NFtM0nBBidx+gdoyUcC5s6hOOtTLDGcz0Kbs=:
      DHHC-1:03:frpLlTrnOYtcWDxPzq4ccxU1UrH2FjV7hYw5s2XEDB+lo+TjMsOwHR\/NFtM0nBBidx+gdoyUcC5s6hOOtTLDGcz0Kbs=:
      DHHC-1:03:frpLlTrnOYtcWDxPzq4ccxU1UrH2FjV7hYw5s2XEDB+lo+TjMsOwHR\/NFtM0nBBidx+gdoyUcC5s6hOOtTLDGcz0Kbs=:
JSON

如果ONTAP控制器配置中有多个NVMe子系统、则可以将文件与命令结合 nvme connect-all`使用 `/etc/nvme/config.json

使用 `-o`选项来生成 JSON 文件。有关更多语法选项、请参见NVMe Connect-all手册页。

  1. 配置 JSON 文件:

    显示示例
    [
      {
        "hostnqn":"nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c4c04f425633",
        "hostid":"4c4c4544-0056-5410-8048-c4c04f425633",
        "dhchap_key":"DHHC-1:01:nFg06gV0FNpXqoiLOF0L+swULQpZU/PjU9v/McDeJHjTZFlF:",
        "subsystems":[
          {
            "nqn":"nqn.1992-08.com.netapp:sn.09035a8d8c8011f0ac0fd039eabac370:subsystem.subsys",
            "ports":[
              {
                "transport":"tcp",
                "traddr":"192.168.30.69",
                "host_traddr":"192.168.30.10",
                "trsvcid":"4420",
                "dhchap_ctrl_key":"DHHC-1:03:n3F8d+bvxKW/s+lEhqXaOohI2sxrQ9iLutzduuFq49JgdjjaFtTpDSO9kQl/bvZj+Bo3rdHh3xPXeP6a4xyhcRyqdds=:"
              }
            ]
          }
        ]
      }
    ]
    备注 在上述示例中, dhchap_key`对应于, `dhchap_ctrl_key`对应 `dhchap_ctrl_secret`于 `dhchap_secret
  2. 使用config JSON文件连接到ONTAP控制器:

    nvme connect-all -J /etc/nvme/config.json
  3. 验证是否已为每个子系统的相应控制器启用dhchap密码:

    1. 验证主机dhchap密钥:

      cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_secret

      以下示例显示了 dhchap 密钥:

      DHHC-1:01:nFg06gV0FNpXqoiLOF0L+swULQpZU/PjU9v/McDeJHjTZFlF:
    2. 验证控制器dhchap密钥:

      cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_ctrl_secret

      您应该会看到类似于以下示例的输出:

    DHHC-1:03:n3F8d+bvxKW/s+lEhqXaOohI2sxrQ9iLutzduuFq49JgdjjaFtTpDSO9kQl/bvZj+Bo3rdHh3xPXeP6a4xyhcRyqdds=:

第9步:查看已知问题

没有已知问题。