Skip to main content
SAN hosts and cloud clients
日本語は機械翻訳による参考訳です。内容に矛盾や不一致があった場合には、英語の内容が優先されます。

ONTAPを搭載したRHEL 8.10向けのNVMe-oFホストの設定

共同作成者

NVMe over Fibre Channel(NVMe/FC)やその他のトランスポートを含むNVMe over Fabrics(NVMe-oF)は、Red Hat Enterprise Linux(RHEL)8.10およびAsymmetric Namespace Access(ANA)でサポートされます。NVMe-oF環境では、ANAはiSCSI環境およびFC環境のALUAマルチパスに相当し、カーネル内NVMeマルチパスで実装されます。

ONTAPを搭載したRHEL 8.10のNVMe-oFホスト構成では、次の機能がサポートされます。

  • NVMe/FCに加えて、NVMe over TCP(NVMe/TCP)もサポートされます。NetAppプラグインをネイティブにインストールします nvme-cli [パッケージ]には、NVMe/FCとNVMe/TCPの両方のネームスペースのONTAPの詳細が表示されます。

サポートされる構成の詳細については、を参照してください "NetApp Interoperability Matrix Tool で確認できます"

既知の制限

  • RHEL 8.10 NVMe-oFホストでは、カーネル内NVMeマルチパスはデフォルトで無効になっています。そのため、手動で有効にする必要があります。

  • RHEL 8.10ホストでは、未解決の問題によりNVMe/TCPがテクノロジプレビュー機能になります。

  • NVMe-oFプロトコルを使用したSANブートは現在サポートされていません。

カーネル内マルチパスを有効にします

カーネル内マルチパスを有効にするには、次の手順を使用します。

手順
  1. ホストサーバにRHEL 8.10をインストールします。

  2. インストールが完了したら、指定したRHEL 8.10カーネルが実行されていることを確認します。

    # uname -r

    出力例

    4.18.0-553.el8_10.x86_64
  3. 「 nvme-cli 」パッケージをインストールします。

    rpm -qa|grep nvme-cli

    出力例

    nvme-cli-1.16-9.el8.x86_64
  4. カーネル内の NVMe マルチパスを有効にします。

    • 例 *

    # grubby --args=nvme_core.multipath=Y --update-kernel
    /boot/vmlinuz-4.18.0-553.el8_10.x86_64
  5. ホストで、でホストのNQN文字列を確認します /etc/nvme/hostnqn

    # cat /etc/nvme/hostnqn

    出力例

    nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0032-3410-8035-b8c04f4c5132
  6. を確認します hostnqn 文字列はに一致します hostnqn ONTAP アレイ上の対応するサブシステムの文字列。

    ::> vserver nvme subsystem host show -vserver vs_fcnvme_141

    出力例

    Vserver     Subsystem       Host NQN
    ----------- --------------- ----------------------------------------------------------
    vs_25_2742 rhel_101_QLe2772    nqn.2014-08.org.nvmexpress:uuid:546399fc-160f-11e5-89aa-98be942440ca
    メモ ホストのNQN文字列が一致しない場合は、を使用できます vserver modify コマンドを実行して、対応するONTAP NVMeサブシステムのホストのNQN文字列をホストのNQN文字列と一致するように更新します /etc/nvme/hostnqn ホスト。
  7. ホストをリブートします。

メモ

NVMeとSCSIの両方のトラフィックを同じホストで実行する場合NetAppは、ONTAPネームスペースにはカーネル内NVMeマルチパスを、ONTAP LUNにはdm-multipathをそれぞれ使用することを推奨します。これにより、ONTAPネームスペースがdm-multipathから除外され、dm-multipathがこれらのネームスペースデバイスを要求しないようにする必要があります。これを行うには、 enable_foreign に設定します /etc/multipath.conf ファイル:

# cat /etc/multipath.conf
defaults {
  enable_foreign  NONE
}

NVMe/FC を設定

NVMe/FCはBroadcom/EmulexアダプタまたはMarvell/Qlogicアダプタに設定できます。

Broadcom / Emulex
手順
  1. サポートされているアダプタモデルを使用していることを確認します。

    # cat /sys/class/scsi_host/host*/modelname

    出力例:

    LPe32002-M2
    LPe32002-M2
    # cat /sys/class/scsi_host/host*/modeldesc

    出力例:

    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
  2. 推奨されるBroadcomを使用していることを確認します lpfc ファームウェアおよび受信トレイドライバ:

    # cat /sys/class/scsi_host/host*/fwrev
    14.2.539.21, sli-4:2:c
    14.2.539.21, sli-4:2:c
    # cat /sys/module/lpfc/version
    0:14.0.0.21

    サポートされているアダプタドライバとファームウェアのバージョンの最新リストについては、を参照してください "NetApp Interoperability Matrix Tool で確認できます"

  3. 確認します lpfc_enable_fc4_type がに設定されます 3

    # cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
    3
  4. イニシエータポートが動作していること、およびターゲットLIFが表示されていることを確認します。

    # cat /sys/class/fc_host/host*/port_name
    0x10000090fae0ec88
    0x10000090fae0ec89
    # cat /sys/class/fc_host/host*/port_state
    Online
    Online
    # cat /sys/class/scsi_host/host*/nvme_info
    NVME Initiator Enabled
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x100000109bf044b1 WWNN x200000109bf044b1 DID x022a00 ONLINE
    NVME RPORT       WWPN x211ad039eaa7dfc8 WWNN x2119d039eaa7dfc8 DID x021302 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x211cd039eaa7dfc8 WWNN x2119d039eaa7dfc8 DID x020b02 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 00000001ff Cmpl 00000001ff Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 0000000001330ec7 Issue 0000000001330ec9 OutIO 0000000000000002
            abort 00000330 noxri 00000000 nondlp 0000000b qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000354 Err 00000361
    
    NVME Initiator Enabled
    XRI Dist lpfc1 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc1 WWPN x100000109bf044b2 WWNN x200000109bf044b2 DID x021b00 ONLINE
    NVME RPORT       WWPN x211bd039eaa7dfc8 WWNN x2119d039eaa7dfc8 DID x022902 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x211dd039eaa7dfc8 WWNN x2119d039eaa7dfc8 DID x020102 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 00000001ff Cmpl 00000001ff Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 00000000012ec220 Issue 00000000012ec222 OutIO 0000000000000002
            abort 0000033b noxri 00000000 nondlp 00000085 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000368 Err 00000382
NVMe / FC向けMarvell/QLogic FCアダプタ
手順
  1. RHEL 8.10 GAカーネルに含まれているネイティブの受信トレイqla2xxxドライバには、ONTAPサポートに不可欠な最新のアップストリーム修正が含まれています。サポートされているアダプタドライバとファームウェアのバージョンが実行されていることを確認します。

    # cat /sys/class/fc_host/host*/symbolic_name

    出力例

    QLE2742 FW: v9.10.11 DVR: v10.02.08.200-k
    QLE2742 FW: v9.10.11 DVR: v10.02.08.200-k
  2. 確認します ql2xnvmeenable が設定されます。これにより、MarvellアダプタをNVMe/FCイニシエータとして機能させることができます。

    # cat /sys/module/qla2xxx/parameters/ql2xnvmeenable
    1

1MB I/Oを有効にする(オプション)

ONTAPは、Identify ControllerデータでMDT(MAX Data転送サイズ)を8と報告します。つまり、I/O要求の最大サイズは1MBまでです。ただし、Broadcom NVMe/FCホストに対する1MBの問題I/O要求には、を増やす必要があります lpfc の値 lpfc_sg_seg_cnt パラメータを256に設定します(デフォルト値の64から)。

手順
  1. lpfc_sg_seg_cnt パラメータを 256 に設定します

    # cat /etc/modprobe.d/lpfc.conf
    options lpfc lpfc_sg_seg_cnt=256
  2. 「 racut-f 」コマンドを実行し、ホストを再起動します。

  3. lpfc_sg_seg_cnt' が 256 であることを確認します

    # cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
    256
メモ これはQlogic NVMe/FCホストには該当しません。

NVMe/FC を設定

NVMe/TCPには自動接続機能はありません。そのため、パスがダウンしてデフォルトのタイムアウト(10分)内に復元されないと、NVMe/TCPは自動的に再接続できません。タイムアウトを回避するには、フェイルオーバーイベントの再試行期間を30分以上に設定する必要があります。

手順
  1. イニシエータポートがサポートされているNVMe/TCP LIFの検出ログページのデータを取得できることを確認します。

    nvme discover -t tcp -w host-traddr -a traddr

    出力例:

    # nvme discover -t tcp -w 192.168.2.31 -a 192.168.2.25
    
    Discovery Log Number of Records 8, Generation counter 18
    =====Discovery Log Entry 0======
    trtype:  tcp
    adrfam:  ipv4
    subtype: unrecognized
    treq:    not specified.
    portid:  0
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.a1b2b785b9de11ee8e7fd039ea9e8ae9:discovery: discovery
    traddr:  192.168.1.25
    sectype: none
    =====Discovery Log Entry 1======
    trtype:  tcp
    adrfam:  ipv4
    subtype: unrecognized
    treq:    not specified.
    portid:  1
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.a1b2b785b9de11ee8e7fd039ea9e8ae9:discovery
    traddr:  192.168.2.26
    sectype: none ..........
  2. NVMe/TCPイニシエータとターゲットLIFの他の組み合わせで、検出ログページのデータを正常に取得できることを確認します。

    nvme discover -t tcp -w host-traddr -a traddr

    出力例:

    # nvme  discover  -t  tcp  -w 192.168.2.31  -a 192.168.2.25
    # nvme  discover  -t  tcp  -w 192.168.1.31  -a 192.168.1.24
    # nvme  discover  -t  tcp  -w 192.168.2.31  -a 192.168.2.26
    # nvme  discover  -t  tcp  -w 192.168.1.31  -a 192.168.1.25
  3. を実行します nvme connect-all ノード全体でサポートされているすべてのNVMe/TCPイニシエータ/ターゲットLIFを対象にコマンドを実行し、コントローラ損失のタイムアウト時間を30分または1、800秒以上に設定します。

    nvme connect-all -t tcp -w host-traddr -a traddr -l 1800

    出力例:

    # nvme	connect-all	-t	tcp	-w	192.168.2.31	-a	192.168.2.25	-l 1800
    # nvme	connect-all	-t	tcp	-w	192.168.1.31	-a	192.168.1.24	-l 1800
    # nvme	connect-all	-t	tcp	-w	192.168.2.31	-a	192.168.2.26	-l 1800
    # nvme	connect-all	-t	tcp	-w	192.168.1.31	-a	192.168.1.25	-l 1800

NVMe-oF を検証します

NVMe-oFの検証には、次の手順を使用できます。

手順
  1. カーネル内NVMeマルチパスが有効になっていることを確認します。

    # cat /sys/module/nvme_core/parameters/multipath
    Y
  2. NVMe-oFの適切な設定(など)を確認します。 model をに設定します NetApp ONTAP Controller 負荷分散 iopolicy をに設定します round-robin)それぞれのONTAPネームスペースがホストに正しく反映されるようになります。

    # cat /sys/class/nvme-subsystem/nvme-subsys*/model
    NetApp ONTAP Controller
    NetApp ONTAP Controller
    # cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
    round-robin
    round-robin
  3. ネームスペースが作成され、ホストで正しく検出されたことを確認します。

    # nvme list

    出力例:

    Node         SN                   Model
    ---------------------------------------------------------
    /dev/nvme0n1 81K1ABVnkwbNAAAAAAAB	NetApp ONTAP Controller
    
    
    Namespace Usage    Format             FW             Rev
    -----------------------------------------------------------
    1                 21.47 GB / 21.47 GB	4 KiB + 0 B   FFFFFFFF
  4. 各パスのコントローラの状態がliveであり、正しいANAステータスが設定されていることを確認します。

    NVMe/FC
    # nvme list-subsys /dev/nvme0n1

    出力例:

    nvme-subsys0 - NQN=nqn.1992-08.com.netapp:sn.0cd9ee0dc0ec11ee8e7fd039ea9e8ae9:subsystem.nvme
    \
     +- nvme1 fc traddr=nn-0x2005d039eaa7dfc8:pn-0x2086d039eaa7dfc8 host_traddr=nn-0x20000024ff752e6d:pn-0x21000024ff752e6d live non-optimized
     +- nvme2 fc traddr=nn-0x2005d039eaa7dfc8:pn-0x2016d039eaa7dfc8 host_traddr=nn-0x20000024ff752e6c:pn-0x21000024ff752e6c live optimized
     +- nvme3 fc traddr=nn-0x2005d039eaa7dfc8:pn-0x2081d039eaa7dfc8 host_traddr=nn-0x20000024ff752e6c:pn-0x21000024ff752e6c live non-optimized
     +- nvme4 fc traddr=nn-0x2005d039eaa7dfc8:pn-0x2087d039eaa7dfc8 host_traddr=nn-0x20000024ff752e6d:pn-0x21000024ff752e6d live optimized
    NVMe/FC
    # nvme list-subsys /dev/nvme0n1

    出力例:

    nvme-subsys0 - NQN=nqn.1992-08.com.netapp:sn.a1b2b785b9de11ee8e7fd039ea9e8ae9:subsystem.nvme_tcp_1
    \
     +- nvme0 tcp traddr=192.168.2.26 trsvcid=4420 host_traddr=192.168.2.31 live non-optimized
     +- nvme1 tcp traddr=192.168.2.25 trsvcid=4420 host_traddr=192.168.2.31 live optimized
     +- nvme2 tcp traddr=192.168.1.25 trsvcid=4420 host_traddr=192.168.1.31 live non-optimized
     +- nvme3 tcp traddr=192.168.1.24 trsvcid=4420 host_traddr=192.168.1.31 live optimized
  5. ネットアッププラグインで、ONTAP ネームスペースデバイスごとに正しい値が表示されていることを確認します。

    列( Column )
    # nvme netapp ontapdevices -o column

    出力例:

    Device        Vserver       Namespace Path
    -----------------------------------------------------
    /dev/nvme0n1  tcpiscsi_129  /vol/tcpnvme_1_0_0/tcpnvme_ns
    
    
    
    NSID       UUID                                   Size
    ------------------------------------------------------------
    1          05c2c351-5d7f-41d7-9bd8-1a56c	        21.47GB
    JSON
    # nvme netapp ontapdevices -o json

    出力例

    {
      "ONTAPdevices": [
        {
          "Device": "/dev/nvme0n1",
          "Vserver": "tcpiscsi_129",
          "Namespace Path”: /vol/tcpnvme_1_0_0/tcpnvme_ns ",
          "NSID": 1,
          "UUID": " 05c2c351-5d7f-41d7-9bd8-1a56c160c80b ",
          "Size2: "21.47GB",
          "LBA_Data_Size": 4096,
          "Namespace Size" : 5242880
        },
      ]
    }

既知の問題

ONTAPを備えたRHEL 8.10のNVMe-oFホスト構成には、次の既知の問題があります。

NetApp バグ ID タイトル 説明 Bugzilla ID

"1479047"

RHEL 8.10 NVMe-oFホストで重複する永続的検出コントローラが作成される

NVMe over Fabrics(NVMe-oF)ホストでは、「nvme discover -p」コマンドを使用して、Persistent Discovery Controller(PDC;永続的検出コントローラ)を作成できます。このコマンドを使用する場合は、イニシエータとターゲットの組み合わせごとにPDCを1つだけ作成する必要があります。 ただし、NVMe-oFホストでRed Hat Enterprise Linux(RHEL)8.10を実行している場合は、「nvme discover -p」を実行するたびに重複するPDCが作成されます。これにより、ホストとターゲットの両方で不要なリソースの使用が発生します。

2087000