Skip to main content
ONTAP SAN Host Utilities
本繁體中文版使用機器翻譯,譯文僅供參考,若與英文版本牴觸,應以英文版本為準。

使用ONTAP儲存為 NVMe-oF 設定 RHEL 9.0

貢獻者 netapp-sarajane

Red Hat Enterpirse Linux (RHEL) 主機支援具有非對稱命名空間存取 (ANA) 的 NVMe over Fibre Channel (NVMe/FC) 和 NVMe over TCP (NVMe/TCP) 協定。 ANA 提供與 iSCSI 和 FCP 環境中的非對稱邏輯單元存取 (ALUA) 等效的多路徑功能。

了解如何為 RHEL 9.0 設定 NVMe over Fabrics (NVMe-oF) 主機。有關更多支援和功能信息,請參閱"NVME-oF 概述"

RHEL 9.0 的 NVMe-oF 有以下已知限制:

  • 目前不支援使用 NVMe-oF 協定的 SAN 啟動。

步驟 1 :選擇性啟用 SAN 開機

您可以設定主機以使用 SAN 啟動來簡化部署並提高可擴充性。使用"互通性對照表工具"驗證您的 Linux 作業系統、主機匯流排適配器 (HBA)、HBA 韌體、HBA 啟動 BIOS 和ONTAP版本是否支援 SAN 啟動。

步驟
  1. "建立 NVMe 命名空間並將其對應到主機"

  2. 在伺服器 BIOS 中為 SAN 啟動命名空間對應到的連接埠啟用 SAN 啟動。

    如需如何啟用HBA BIOS的相關資訊、請參閱廠商專屬的文件。

  3. 重新啟動主機並驗證作業系統是否已啟動並正在運行。

步驟 2:驗證軟體版本和 NVMe 配置

檢查您的系統是否符合軟體要求並驗證 NVMe 套件安裝和主機配置。

步驟
  1. 在伺服器上安裝 RHEL 9.0。安裝完成後,請驗證您是否正在執行所需的 RHEL 9.0 核心:

    uname -r

    RHEL 核心版本範例:

    5.14.0-70.13.1.el9_0.x86_64
  2. 安裝「NVMe-CLI(NVMe - CLI)套件:

    rpm -qa|grep nvme-cli

    下面的例子展示了 `nvme-cli`軟體包版本:

    nvme-cli-1.16-3.el9.x86_64
  3. 安裝 libnvme 套件:

    rpm -qa|grep libnvme

    下面的例子展示了 `libnvme`軟體包版本:

    libnvme-1.0-1.el9.x86_64
  4. 在 RHEL 9.0 主機上,檢查 hostnqn`字串位於 `/etc/nvme/hostnqn

    cat /etc/nvme/hostnqn

    下面的例子展示了 `hostnqn`版本:

    nqn.2014-08.org.nvmexpress:uuid:xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
  5. 驗證 `hostnqn`字串匹配 `hostnqn`ONTAP儲存系統上對應子系統的字串:

    ::> vserver nvme subsystem host show -vserver <vserver_name>
    顯示範例
    Vserver     Subsystem          Host NQN
    ----------- --------------- ----------------------------------------------------------
    vs_nvme90   rhel_90_LPe32002   nqn.2014-08.org.nvmexpress:uuid:xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
註 如果 `hostnqn`字串不匹配,請使用 `vserver modify`命令來更新 `hostnqn`對應ONTAP儲存系統子系統上的字串以匹配 `hostnqn`字串來自 `/etc/nvme/hostnqn`在主機上。

步驟 3:設定 NVMe/FC 和 NVMe/TCP

使用 Broadcom/Emulex 或 Marvell/QLogic 適配器配置 NVMe/FC,或使用手動發現和連接操作來設定 NVMe/TCP。

FC——Broadcom/Emulex

為 Broadcom / Emulex 介面卡設定 NVMe / FC 。

步驟
  1. 確認您使用的是支援的介面卡機型:

    1. 顯示模型名稱:

      cat /sys/class/scsi_host/host*/modelname

      您應該會看到下列輸出:

      LPe32002-M2
    2. 顯示模型描述:

      cat /sys/class/scsi_host/host*/modeldesc

      您應該會看到類似以下範例的輸出:

    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
  2. 驗證您使用的是建議的Broadcom lpfc 韌體與收件匣驅動程式:

    1. 顯示韌體版本:

      cat /sys/class/scsi_host/host*/fwrev

      該命令返回韌體版本:

      12.8.351.47, sli-4:2:c
    2. 顯示收件匣驅動程式版本:

      cat /sys/module/lpfc/version

      以下範例顯示了驅動程式版本:

    0:14.0.0.4

    +
    如需支援的介面卡驅動程式和韌體版本的最新清單,請參閱"互通性對照表工具"

  3. 請確認 lpfc_enable_fc4_type 設為 3

    cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
  4. 確認您可以檢視啟動器連接埠:

    cat /sys/class/fc_host/host*/port_name

    您應該會看到類似以下內容的輸出:

    0x100000109b1c1205
  5. 驗證啟動器連接埠是否在線上:

    cat /sys/class/fc_host/host*/port_state

    您應該會看到下列輸出:

    Online
    Online
  6. 確認已啟用 NVMe / FC 啟動器連接埠、且目標連接埠可見:

    cat /sys/class/scsi_host/host*/nvme_info
    顯示範例
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x100000109b1c1204 WWNN x200000109b1c1204 DID x011d00 ONLINE
    NVME RPORT WWPN x203800a098dfdd91 WWNN x203700a098dfdd91 DID x010c07 TARGET DISCSRVC ONLINE
    NVME RPORT WWPN x203900a098dfdd91 WWNN x203700a098dfdd91 DID x011507 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 0000000f78 Cmpl 0000000f78 Abort 00000000
    LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000002fe29bba Issue 000000002fe29bc4 OutIO 000000000000000a
    FCP CMPL: xb 00001e15 Err 0000d906
    
    NVME Initiator Enabled
    NVME LPORT lpfc1 WWPN x100000109b1c1205 WWNN x200000109b1c1205 DID x011900 ONLINE
    NVME RPORT WWPN x203d00a098dfdd91 WWNN x203700a098dfdd91 DID x010007 TARGET DISCSRVC ONLINE
    NVME RPORT WWPN x203a00a098dfdd91 WWNN x203700a098dfdd91 DID x012a07 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 0000000fa8 Cmpl 0000000fa8 Abort 00000000
    Total FCP Cmpl 000000002e14f170 Issue 000000002e14f17a OutIO 000000000000000a
    abort 000016bb noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
FC——Marvell/QLogic

為 Marvell/QLogic 介面卡設定 NVMe / FC 。

步驟
  1. 驗證您使用的適配器驅動程式和韌體版本是否受支援:

    cat /sys/class/fc_host/host*/symbolic_name

    以下範例顯示了驅動程式和韌體版本:

    QLE2742 FW:v9.06.02 DVR:v10.02.00.200-k
    QLE2742 FW:v9.06.02 DVR:v10.02.00.200-k
  2. 請確認 ql2xnvmeenable 已設定。這可讓 Marvell 介面卡作為 NVMe / FC 啟動器運作:

    cat /sys/module/qla2xxx/parameters/ql2xnvmeenable

    預期輸出為 1 。

TCP

NVMe/TCP 協定不支援自動連線操作。相反,您可以透過執行 NVMe/TCP 來發現 NVMe/TCP 子系統和命名空間 `connect`或者 `connect-all`手動操作。

步驟
  1. 檢查啟動器連接埠是否可以跨支援的 NVMe/TCP LIF 取得發現日誌頁面資料:

    nvme discover -t tcp -w host-traddr -a traddr
    顯示範例
    nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.51
    
    Discovery Log Number of Records 10, Generation counter 119
    =====Discovery Log Entry 0======
    trtype: tcp
    adrfam: ipv4
    subtype: nvme subsystem
    treq: not specified
    portid: 0
    trsvcid: 4420
    subnqn: nqn.1992-08.com.netapp:sn.56e362e9bb4f11ebbaded039ea165abc:subsystem.nvme_118_tcp_1
    traddr: 192.168.2.56
    sectype: none
    =====Discovery Log Entry 1======
    trtype: tcp
    adrfam: ipv4
    subtype: nvme subsystem
    treq: not specified
    portid: 1
    trsvcid: 4420
    subnqn: nqn.1992-08.com.netapp:sn.56e362e9bb4f11ebbaded039ea165abc:subsystem.nvme_118_tcp_1
    traddr: 192.168.1.51
    sectype: none
    =====Discovery Log Entry 2======
    trtype: tcp
    adrfam: ipv4
    subtype: nvme subsystem
    treq: not specified
    portid: 0
    trsvcid: 4420
    subnqn: nqn.1992-08.com.netapp:sn.56e362e9bb4f11ebbaded039ea165abc:subsystem.nvme_118_tcp_2
    traddr: 192.168.2.56
    sectype: none
  2. 驗證其他 NVMe/TCP 啟動器-目標 LIF 組合是否可以成功檢索發現日誌頁面資料:

    nvme discover -t tcp -w host-traddr -a traddr
    顯示範例
    nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.51
    nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.52
    nvme discover -t tcp -w 192.168.2.9 -a 192.168.2.56
    nvme discover -t tcp -w 192.168.2.9 -a 192.168.2.57
  3. 執行 nvme connect-all 跨所有節點支援的 NVMe / TCP 啟動器目標生命體執行命令:

    nvme connect-all -t tcp -w host-traddr -a traddr
    顯示範例
    nvme connect-all -t tcp -w 192.168.1.8 -a 192.168.1.51 -l 1800
    nvme connect-all -t tcp -w 192.168.1.8 -a 192.168.1.52 -l 1800
    nvme connect-all -t tcp -w 192.168.2.9 -a 192.168.2.56 -l 1800
    nvme connect-all -t tcp -w 192.168.2.9 -a 192.168.2.57 -l 1800

步驟 4:(可選)為 NVMe/FC 啟用 1MB I/O

ONTAP在識別控制器資料中報告最大資料傳輸大小 (MDTS) 為 8。這意味著最大 I/O 請求大小可達 1MB。若要向 Broadcom NVMe/FC 主機發出 1MB 大小的 I/O 要求,您應該會增加 `lpfc`的價值 `lpfc_sg_seg_cnt`參數從預設值 64 更改為 256。

註 這些步驟不適用於 Qlogic NVMe / FC 主機。
步驟
  1. 將 `lpfc_sg_seg_cnt`參數設定為 256 :

    cat /etc/modprobe.d/lpfc.conf

    您應該會看到類似以下範例的輸出:

    options lpfc lpfc_sg_seg_cnt=256
  2. 執行 `dracut -f`命令,然後重新啟動主機。

  3. 確認的值 `lpfc_sg_seg_cnt`為 256 :

    cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt

步驟 5:驗證多路徑配置

驗證核心內建 NVMe 多重路徑狀態, ANA 狀態和 ONTAP 命名空間是否適用於 NVMe 組態。

步驟
  1. 確認已啟用核心內建 NVMe 多重路徑:

    cat /sys/module/nvme_core/parameters/multipath

    您應該會看到下列輸出:

    Y
  2. 驗證個別 ONTAP 命名空間的適當 NVMe 設定(例如、模型設定為 NetApp ONTAP 控制器、負載平衡 iopolicing 設定為循環)是否正確反映在主機上:

    1. 顯示子系統:

      cat /sys/class/nvme-subsystem/nvme-subsys*/model

      您應該會看到下列輸出:

      NetApp ONTAP Controller
      NetApp ONTAP Controller
    2. 顯示策略:

      cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy

      您應該會看到下列輸出:

    round-robin
    round-robin
  3. 確認已在主機上建立並正確探索命名空間:

    nvme list
    顯示範例
    Node         SN                   Model
    ---------------------------------------------------------
    /dev/nvme4n1 81Ix2BVuekWcAAAAAAAB	NetApp ONTAP Controller
    
    
    Namespace Usage    Format             FW             Rev
    -----------------------------------------------------------
    1                 21.47 GB / 21.47 GB	4 KiB + 0 B   FFFFFFFF
  4. 確認每個路徑的控制器狀態均為有效、且具有正確的ANA狀態:

    NVMe / FC
    nvme list-subsys /dev/nvme0n1
    顯示範例
    nvme-subsys0 - NQN=nqn.1992-08.com.netapp:sn.5f5f2c4aa73b11e9967e00a098df41bd:subsystem.nvme_141_1
    \
    +- nvme0 fc traddr=nn-0x203700a098dfdd91:pn-0x203800a098dfdd91 host_traddr=nn-0x200000109b1c1204:pn-0x100000109b1c1204 live inaccessible
    +- nvme1 fc traddr=nn-0x203700a098dfdd91:pn-0x203900a098dfdd91 host_traddr=nn-0x200000109b1c1204:pn-0x100000109b1c1204 live inaccessible
    +- nvme2 fc traddr=nn-0x203700a098dfdd91:pn-0x203a00a098dfdd91 host_traddr=nn-0x200000109b1c1205:pn-0x100000109b1c1205 live optimized
    +- nvme3 fc traddr=nn-0x203700a098dfdd91:pn-0x203d00a098dfdd91 host_traddr=nn-0x200000109b1c1205:pn-0x100000109b1c1205 live optimized
    NVMe / TCP
    nvme list-subsys /dev/nvme0n1
    顯示範例
    nvme-subsys0 - NQN=nqn.1992-08.com.netapp:sn.56e362e9bb4f11ebbaded039ea165abc:subsystem.nvme_118_tcp_1
    \
    +- nvme0 tcp traddr=192.168.1.51 trsvcid=4420 host_traddr=192.168.1.8 live optimized
    +- nvme10 tcp traddr=192.168.2.56 trsvcid=4420 host_traddr=192.168.2.9 live optimized
    +- nvme15 tcp traddr=192.168.2.57 trsvcid=4420 host_traddr=192.168.2.9 live non-optimized
    +- nvme5 tcp traddr=192.168.1.52 trsvcid=4420 host_traddr=192.168.1.8 live non-optimized
  5. 驗證NetApp外掛程式是否顯示每ONTAP 個版本名稱空間裝置的正確值:

    欄位
    nvme netapp ontapdevices -o column
    顯示範例
    Device       Vserver        Namespace Path                            NSID
    ----------------------- ------------------------------ -------------------------
    /dev/nvme0n1 814vWBNRwf9HAAAAAAAB  NetApp ONTAP Controller  1          85.90 GB / 85.90 GB
    
    UUID                                   Size
    --------------------------------------------
    72b887b1-5fb6-47b8-be0b-33326e2542e2   85.90GB
    JSON
    nvme netapp ontapdevices -o json
    顯示範例
    {
    "ONTAPdevices" : [
        {
            "Device" : "/dev/nvme0n1",
            "Vserver" : "vs_fcnvme_141",
            "Namespace_Path" : "/vol/fcnvme_141_vol_1_1_0/fcnvme_141_ns",
            "NSID" : 1,
            "UUID" : "72b887b1-5fb6-47b8-be0b-33326e2542e2",
            "Size" : "85.90GB",
            "LBA_Data_Size" : 4096,
            "Namespace_Size" : 20971520
        }
      ]
    }

步驟 6 :檢閱已知問題

這些是已知問題:

NetApp錯誤ID 標題 說明

"1479047"

RHEL 9.0 NVMe-oF 主機建立重複的持久發現控制器 (PDC)

在 NVMe-oF 主機上,您可以使用「nvme discover -p」指令建立 PDC。使用此命令時,每個啟動器-目標組合只能建立一個 PDC。但是,如果您在 NVMe-oF 主機上執行ONTAP 9.10.1 和 RHEL 9.0,則每次執行「nvme discover -p」時都會建立重複的 PDC。這會導致主機和目標上資源的不必要使用。