Skip to main content
SAN hosts and cloud clients
本繁體中文版使用機器翻譯,譯文僅供參考,若與英文版本牴觸,應以英文版本為準。

適用於 ONTAP 的 Oracle Linux 9.0 的 NVMe / FC 主機組態

貢獻者

Oracle Linux ( OL ) 9.0 支援 NVMe over Fabrics ( NVMe of )、包括 NVMe / FC 和其他傳輸、並提供非對稱命名空間存取( ANA )。在 NVMe 環境中、 ANA 等同於 iSCSI 和 FC 環境中的 ALUA 多重路徑、並以核心內建 NVMe 多重路徑來實作。

如需支援組態的詳細資訊、請參閱 "NetApp 互通性對照表工具"

功能

  • Oracle Linux 9.0 預設已啟用 NVMe 命名空間的核心內建 NVMe 多重路徑、因此不需要明確的設定。

已知限制

目前不支援使用 NVMe 型傳輸協定進行 SAN 開機。

驗證軟體版本

您可以使用下列程序驗證支援的最低 OL 9.0 軟體版本。

步驟
  1. 在伺服器上安裝 OL 9.0 GA 。安裝完成後、請確認您正在執行指定的 OL 9.0 GA 核心。

    # uname -r
    • 輸出範例: *

    5.15.0-0.30.19.el9uek.x86_64
  2. 安裝「NVMe-CLI(NVMe - CLI)套件:

    # rpm -qa|grep nvme-cli
    • 輸出範例: *

    nvme-cli-1.16-3.el9.x86_64
  3. 在 Oracle Linux 9.0 主機上、請檢查 hostnqn 字串at /etc/nvme/hostnqn

    # cat /etc/nvme/hostnqn
    • 輸出範例: *

    nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0032-3310-8033-b8c04f4c5132
  4. 確認 hostnqn 字串符合 hostnqn ONTAP 陣列上對應子系統的字串:

    ::> vserver nvme subsystem host show -vserver vs_ol_nvme
    • 輸出範例: *

    Vserver     Subsystem          Host NQN
    ----------- --------------- ----------------------------------------------------------
    vs_ol_nvme  nvme_ss_ol_1    nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0032-3310-8033-b8c04f4c5132

    +

    註 如果是 hostnqn 字串不相符、您可以使用 vserver modify 命令來更新 hostnqn 對應 ONTAP 陣列子系統上的字串、以符合 hostnqn 字串來源 /etc/nvme/hostnqn 在主機上。

設定NVMe/FC

您可以為 Broadcom / Emulex 或 Marvell/Qlogic 介面卡設定 NVMe / FC 。

Broadcom / Emulex
步驟
  1. 確認您使用的是支援的介面卡機型。

    # cat /sys/class/scsi_host/host*/modelname
    • 輸出範例: *

      LPe32002-M2
      LPe32002-M2
      # cat /sys/class/scsi_host/host*/modeldesc
    • 輸出範例: *

    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
  2. 驗證您使用的是建議的Broadcom lpfc 韌體與收件匣驅動程式:

    # cat /sys/class/scsi_host/host*/fwrev
    14.0.505.11, sli-4:2:c
    14.0.505.11, sli-4:2:c
    
    # cat /sys/module/lpfc/version
    0:12.8.0.11

    如需支援的介面卡驅動程式和韌體版本的最新清單、請參閱 "NetApp 互通性對照表工具"

  3. 請確認 lpfc_enable_fc4_type 設為 3

    # cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
    3
  4. 確認啟動器連接埠已啟動並正在執行、而且您可以看到目標LIF:

    # cat /sys/class/fc_host/host*/port_name
    0x100000109b1c1204
    0x100000109b1c1205
    # cat /sys/class/fc_host/host*/port_state
    Online
    Online
    # cat /sys/class/scsi_host/host*/nvme_info
    NVME Initiator Enabled
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x100000109b1c1204 WWNN x200000109b1c1204 DID x011d00 ONLINE
    NVME RPORT WWPN x203800a098dfdd91 WWNN x203700a098dfdd91 DID x010c07 TARGET DISCSRVC ONLINE
    NVME RPORT WWPN x203900a098dfdd91 WWNN x203700a098dfdd91 DID x011507 TARGET DISCSRVC ONLINE
    NVME Statistics
    LS: Xmt 0000000f78 Cmpl 0000000f78 Abort 00000000
    LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000002fe29bba Issue 000000002fe29bc4 OutIO 000000000000000a
    abort 00001bc7 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00001e15 Err 0000d906
    NVME Initiator Enabled
    XRI Dist lpfc1 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc1 WWPN x100000109b1c1205 WWNN x200000109b1c1205 DID x011900 ONLINE
    NVME RPORT WWPN x203d00a098dfdd91 WWNN x203700a098dfdd91 DID x010007 TARGET DISCSRVC ONLINE
    NVME RPORT WWPN x203a00a098dfdd91 WWNN x203700a098dfdd91 DID x012a07 TARGET DISCSRVC ONLINE
    NVME Statistics
    LS: Xmt 0000000fa8 Cmpl 0000000fa8 Abort 00000000
    LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000002e14f170 Issue 000000002e14f17a OutIO 000000000000000a
    abort 000016bb noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00001f50 Err 0000d9f8
適用於 NVMe / FC 的 Marvell/QLogic FC 介面卡
步驟
  1. OL 9.0 GA 核心中隨附的原生收件匣 qla2xxx 驅動程式具有 ONTAP 支援所需的最新上游修正程式。確認您執行的是支援的介面卡驅動程式和韌體版本:

    # cat /sys/class/fc_host/host*/symbolic_name
    QLE2742 FW:v9.08.02 DVR:v10.02.00.106-k
    QLE2742 FW:v9.08.02 DVR:v10.02.00.106-k
  2. 請確認 ql2xnvmeenable 設為可讓Marvell介面卡做為NVMe / FC啟動器運作:

    # cat /sys/module/qla2xxx/parameters/ql2xnvmeenable
    1

啟用1MB I/O大小(選用)

ONTAP 在識別控制器資料中報告的 MDTS ( MAX Data 傳輸大小)為 8 、表示最大 I/O 要求大小可達 1MB 。不過、若要針對 Broadcom NVMe / FC 主機發出大小為 1 MB 的 I/O 要求、您必須增加 lpfc 的價值 lpfc_sg_seg_cnt 從預設值 64 到 256 。

步驟
  1. 將「lfc_sg_seg_cnt"參數設為256。

    # cat /etc/modprobe.d/lpfc.conf
    options lpfc lpfc_sg_seg_cnt=256
  2. 執行「dracut -f」命令、然後重新啟動主機。

  3. 驗證「lfc_sg_seg_cnt"是否為256。

    # cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
    256
註 這不適用於 Qlogic NVMe / FC 主機。

設定NVMe/TCP

NVMe / TCP 沒有自動連線功能。因此、如果某個路徑發生故障、且在 10 分鐘的預設逾時期間內未恢復、則 NVMe / TCP 無法自動重新連線。若要避免逾時、您應該將容錯移轉事件的重試期間設為至少 30 分鐘。

步驟
  1. 確認啟動器連接埠可在支援的NVMe/TCP LIF中擷取探索記錄頁面資料:

    nvme discover -t tcp -w host-traddr -a traddr
    • 輸出範例: *

    #  nvme discover -t tcp -w 192.168.6.13 -a 192.168.6.15
    Discovery Log Number of Records 6, Generation counter 8
    =====Discovery Log Entry 0======
    trtype: tcp
    adrfam: ipv4
    subtype: unrecognized
    treq: not specified
    portid: 0
    trsvcid: 8009
    subnqn: nqn.1992-08.com.netapp:sn.1c6ac66338e711eda41dd039ea3ad566:discovery
    traddr: 192.168.6.17
    sectype: none
    =====Discovery Log Entry 1======
    trtype: tcp
    adrfam: ipv4
    subtype: unrecognized
    treq: not specified
    portid: 1
    trsvcid: 8009
    subnqn: nqn.1992-08.com.netapp:sn.1c6ac66338e711eda41dd039ea3ad566:discovery
    traddr: 192.168.5.17
    sectype: none
    =====Discovery Log Entry 2======
    trtype: tcp
    adrfam: ipv4
    subtype: unrecognized
    treq: not specified
    portid: 2
    trsvcid: 8009
    subnqn: nqn.1992-08.com.netapp:sn.1c6ac66338e711eda41dd039ea3ad566:discovery
    traddr: 192.168.6.15
    sectype: none
    =====Discovery Log Entry 3======
    trtype: tcp
    adrfam: ipv4
    subtype: nvme subsystem
    treq: not specified
    portid: 0
    trsvcid: 4420
    subnqn: nqn.1992-08.com.netapp:sn.1c6ac66338e711eda41dd039ea3ad566:subsystem.host_95
    traddr: 192.168.6.17
    sectype: none
    ..........
  2. 確認其他的 NVMe / TCP 啟動器目標 LIF 組合能夠成功擷取探索記錄頁面資料。

    nvme discover -t tcp -w host-traddr -a traddr
    • 輸出範例: *

    # nvme discover -t tcp -w 192.168.5.13 -a 192.168.5.15
    # nvme discover -t tcp -w 192.168.5.13 -a 192.168.5.17
    # nvme discover -t tcp -w 192.168.6.13 -a 192.168.6.15
    # nvme discover -t tcp -w 192.168.6.13 -a 192.168.6.17
  3. 執行 nvme connect-all 跨所有節點支援的 NVMe / TCP 啟動器目標生命週期執行命令、並將控制器遺失逾時週期設為至少 30 分鐘或 1800 秒:

    nvme connect-all -t tcp -w host-traddr -a traddr -l 1800
    • 輸出範例: *

    # nvme connect-all -t tcp -w 192.168.5.13 -a 192.168.5.15 -l 1800
    # nvme connect-all -t tcp -w 192.168.5.13 -a 192.168.5.17 -l 1800
    # nvme connect-all -t tcp -w 192.168.6.13 -a 192.168.6.15 -l 1800
    # nvme connect-all -t tcp -w 192.168.6.13 -a 192.168.6.17 -l 1800

驗證NVMe

您可以使用下列程序來驗證 NVMe 。

步驟
  1. 確認 OL 9.0 主機上的下列 NVMe / FC 設定:

    # cat /sys/module/nvme_core/parameters/multipath
    Y
    # cat /sys/class/nvme-subsystem/nvme-subsys*/model
    NetApp ONTAP Controller
    NetApp ONTAP Controller
    # cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
    round-robin
    round-robin
  2. 確認已在主機上建立並正確探索命名空間:

    # nvme list
    • 輸出範例: *

    Node         SN                   Model
    ---------------------------------------------------------
    /dev/nvme0n1 814vWBNRwf9HAAAAAAAB NetApp ONTAP Controller
    /dev/nvme0n2 814vWBNRwf9HAAAAAAAB NetApp ONTAP Controller
    /dev/nvme0n3 814vWBNRwf9HAAAAAAAB NetApp ONTAP Controller
    
    
    Namespace Usage    Format             FW             Rev
    -----------------------------------------------------------
    1                 85.90 GB / 85.90 GB  4 KiB + 0 B   FFFFFFFF
    2                 85.90 GB / 85.90 GB  24 KiB + 0 B  FFFFFFFF
    3                 85.90 GB / 85.90 GB  4 KiB + 0 B   FFFFFFFF
  3. 確認每個路徑的控制器狀態均為有效、且具有正確的ANA狀態:

    # nvme list-subsys /dev/nvme0n1
    • 輸出範例: *

    nvme-subsys0 - NQN=nqn.1992-08.com.netapp:sn.5f5f2c4aa73b11e9967e00a098df41bd:subsystem.nvme_ss_ol_1
    \
    +- nvme0 fc traddr=nn-0x203700a098dfdd91:pn-0x203800a098dfdd91 host_traddr=nn-0x200000109b1c1204:pn-0x100000109b1c1204 live inaccessible
    +- nvme1 fc traddr=nn-0x203700a098dfdd91:pn-0x203900a098dfdd91 host_traddr=nn-0x200000109b1c1204:pn-0x100000109b1c1204 live inaccessible
    +- nvme2 fc traddr=nn-0x203700a098dfdd91:pn-0x203a00a098dfdd91 host_traddr=nn-0x200000109b1c1205:pn-0x100000109b1c1205 live optimized
    +- nvme3 fc traddr=nn-0x203700a098dfdd91:pn-0x203d00a098dfdd91 host_traddr=nn-0x200000109b1c1205:pn-0x100000109b1c1205 live optimized
  4. 驗證NetApp外掛程式是否顯示每ONTAP 個版本名稱空間裝置的正確值:

    # nvme netapp ontapdevices -o column
    • 輸出範例: *

    Device        Vserver   Namespace Path
    ----------------------- ------------------------------
    /dev/nvme0n1   vs_ol_nvme  /vol/ol_nvme_vol_1_1_0/ol_nvme_ns
    /dev/nvme0n2   vs_ol_nvme  /vol/ol_nvme_vol_1_0_0/ol_nvme_ns
    /dev/nvme0n3   vs_ol_nvme  /vol/ol_nvme_vol_1_1_1/ol_nvme_ns
    
    
    NSID       UUID                                   Size
    ------------------------------------------------------------
    1          72b887b1-5fb6-47b8-be0b-33326e2542e2   85.90GB
    2          04bf9f6e-9031-40ea-99c7-a1a61b2d7d08   85.90GB
    3          264823b1-8e03-4155-80dd-e904237014a4   85.90GB

    +

    # nvme netapp ontapdevices -o json
    {
    "ONTAPdevices" : [
        {
            "Device" : "/dev/nvme0n1",
            "Vserver" : "vs_ol_nvme",
            "Namespace_Path" : "/vol/ol_nvme_vol_1_1_0/ol_nvme_ns",
            "NSID" : 1,
            "UUID" : "72b887b1-5fb6-47b8-be0b-33326e2542e2",
            "Size" : "85.90GB",
            "LBA_Data_Size" : 4096,
            "Namespace_Size" : 20971520
        },
        {
            "Device" : "/dev/nvme0n2",
            "Vserver" : "vs_ol_nvme",
            "Namespace_Path" : "/vol/ol_nvme_vol_1_0_0/ol_nvme_ns",
            "NSID" : 2,
            "UUID" : "04bf9f6e-9031-40ea-99c7-a1a61b2d7d08",
            "Size" : "85.90GB",
            "LBA_Data_Size" : 4096,
            "Namespace_Size" : 20971520
          },
          {
             "Device" : "/dev/nvme0n3",
             "Vserver" : "vs_ol_nvme",
             "Namespace_Path" : "/vol/ol_nvme_vol_1_1_1/ol_nvme_ns",
             "NSID" : 3,
             "UUID" : "264823b1-8e03-4155-80dd-e904237014a4",
             "Size" : "85.90GB",
             "LBA_Data_Size" : 4096,
             "Namespace_Size" : 20971520
           },
      ]
    }

已知問題

適用於 ONTAP 的 Oracle Linux 9.0 的 NVMe 主機組態有下列已知問題:

NetApp錯誤ID 標題 說明 Bugzilla ID

1517321

Oracle Linux 9.0 NVMe 主機會建立重複的持續探索控制器

在 Oracle Linux 9.0 NVMe over Fabrics ( NVMe of )主機上、您可以使用 nvme discover -p 建立持續探索控制器(PD)的命令。使用此命令時、每個啟動器目標組合只能建立一個PDC。不過、如果您執行的是 ONTAP 9.10.1 和 Oracle Linux 9.0 搭配 NVMe 主機、則每次都會建立重複的 PDC nvme discover -p 已執行。這會導致主機和目標上的資源使用不必要。

"18118."