Skip to main content
SAN hosts and cloud clients
日本語は機械翻訳による参考訳です。内容に矛盾や不一致があった場合には、英語の内容が優先されます。

ONTAPヲシヨウシタRHEL 9.3ノNVMe-oFホストノセツテイ

共同作成者

NVMe over Fibre Channel(NVMe/FC)やその他のトランスポートを含むNVMe over Fabrics(NVMe-oF)は、Red Hat Enterprise Linux(RHEL)9.3とAsymmetric Namespace Access(ANA)でサポートされます。NVMe-oF環境では、ANAはiSCSI環境およびFC環境のALUAマルチパスに相当し、カーネル内NVMeマルチパスで実装されます。

ONTAPを使用するRHEL 9.3では、NVMe-oFホスト構成が次のようにサポートされます。

  • NVMe/FCに加えて、NVMe over TCP(NVMe/TCP)もサポートされます。標準のNVMe-CLIパッケージに含まれるNetAppプラグインには、NVMe/FCとNVMe/TCP両方のネームスペースのONTAPの詳細が表示されます。

  • 特定のHost Bus Adapter(HBA;ホストバスアダプタ)上の同じホストでNVMeとSCSIのトラフィックが共存し、明示的なdm-multipath設定を使用せずにNVMeネームスペースが要求されないようにする。

サポートされる構成の詳細については、を参照してください "NetApp Interoperability Matrix Tool で確認できます"

の機能

RHEL 9.3では、NVMeネームスペースに対してカーネル内NVMeマルチパスがデフォルトで有効になっているため、明示的に設定する必要はありません。

既知の制限

NVMe-oFプロトコルを使用したSANブートは現在サポートされていません。

ソフトウェアのバージョンを確認します

次の手順を使用して、サポートされているRHEL 9.3ソフトウェアの最小バージョンを検証できます。

手順
  1. サーバにRHEL 9.3をインストールします。インストールが完了したら、指定したRHEL 9.3カーネルが実行されていることを確認します。

    # uname -r

    出力例:

    5.14.0-362.8.1.el9_3.x86_64
  2. 「 nvme-cli 」パッケージをインストールします。

    # rpm -qa|grep nvme-cli

    出力例:

    nvme-cli-2.4-10.el9.x86_64
  3. をインストールします libnvme パッケージ:

    #rpm -qa|grep libnvme

    出力例

    libnvme-1.4-7.el9.x86_64
  4. RHEL 9.3ホストで、hostnqnという文字列を /etc/nvme/hostnqn

    # cat /etc/nvme/hostnqn

    出力例

    nqn.2014-08.org.nvmexpress:uuid:060fd513-83be-4c3e-aba1-52e169056dcf
  5. を確認します hostnqn 文字列はに一致します hostnqn ONTAP アレイ上の対応するサブシステムの文字列。

    ::> vserver nvme subsystem host show -vserver vs_nvme147

    出力例:

    Vserver     Subsystem          Host NQN
    ----------- --------------- ----------------------------------------------------------
    vs_nvme147   rhel_147_LPe32002    nqn.2014-08.org.nvmexpress:uuid:060fd513-83be-4c3e-aba1-52e169056dcf
    メモ 状況に応じて hostnqn 文字列が一致しない場合は、を使用してください vserver modify コマンドを使用してを更新します hostnqn 対応するONTAP アレイサブシステムで、に一致する文字列を指定します hostnqn から文字列 /etc/nvme/hostnqn ホスト。

NVMe/FC を設定

NVMe/FCはBroadcom/EmulexアダプタまたはMarvell/Qlogicアダプタに設定できます。

Broadcom / Emulex
手順
  1. サポートされているアダプタモデルを使用していることを確認します。

    # cat /sys/class/scsi_host/host*/modelname

    出力例:

    LPe32002-M2
    LPe32002-M2
    # cat /sys/class/scsi_host/host*/modeldesc

    出力例:

    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
  2. 推奨されるBroadcomを使用していることを確認します lpfc ファームウェアおよび受信トレイドライバ:

    # cat /sys/class/scsi_host/host*/fwrev
    14.2.539.16, sli-4:2:c
    14.2.539.16, sli-4:2:c
    
    # cat /sys/module/lpfc/version
    0:14.2.0.12

    サポートされているアダプタドライバとファームウェアのバージョンの最新リストについては、を参照してください "NetApp Interoperability Matrix Tool で確認できます"

  3. 確認します lpfc_enable_fc4_type がに設定されます 3

    # cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
    3
  4. イニシエータポートが動作していること、およびターゲットLIFが表示されていることを確認します。

    # cat /sys/class/fc_host/host*/port_name
    0x100000109b3c081f
    0x100000109b3c0820
    # cat /sys/class/fc_host/host*/port_state
    Online
    Online
    # cat /sys/class/scsi_host/host*/nvme_info
    NVME Initiator Enabled
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x100000109b3c081f WWNN x200000109b3c081f DID x062300 ONLINE
    NVME RPORT       WWPN x2143d039ea165877 WWNN x2142d039ea165877 DID x061b15 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2145d039ea165877 WWNN x2142d039ea165877 DID x061115 TARGET DISCSRVC ONLINE
    NVME Statistics
    LS: Xmt 000000040b Cmpl 000000040b Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000001f5c4538 Issue 000000001f58da22 OutIO fffffffffffc94ea
    abort 00000630 noxri 00000000 nondlp 00001071 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000630 Err 0001bd4a
    NVME Initiator Enabled
    XRI Dist lpfc1 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc1 WWPN x100000109b3c0820 WWNN x200000109b3c0820 DID x062c00 ONLINE
    NVME RPORT       WWPN x2144d039ea165877 WWNN x2142d039ea165877 DID x060215 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2146d039ea165877 WWNN x2142d039ea165877 DID x061815 TARGET DISCSRVC ONLINE
    NVME Statistics
    LS: Xmt 000000040b Cmpl 000000040b Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000001f5c3618 Issue 000000001f5967a4 OutIO fffffffffffd318c
    abort 00000629 noxri 00000000 nondlp 0000044e qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000629 Err 0001bd3d
NVMe / FC向けMarvell/QLogic FCアダプタ
手順
  1. RHEL 9.3 GAカーネルに含まれているネイティブの受信トレイqla2xxxドライバには、ONTAPのサポートに不可欠な最新の修正が含まれています。サポートされているアダプタドライバとファームウェアのバージョンが実行されていることを確認します。

    # cat /sys/class/fc_host/host*/symbolic_name

    出力例

    QLE2772 FW:v9.10.11 DVR:v10.02.08.200-k
    QLE2772 FW:v9.10.11 DVR:v10.02.08.200-k
  2. 確認します ql2xnvmeenable が設定されます。これにより、MarvellアダプタをNVMe/FCイニシエータとして機能させることができます。

    # cat /sys/module/qla2xxx/parameters/ql2xnvmeenable
    1

1MB I/Oを有効にする(オプション)

ONTAPは、Identify ControllerデータでMDT(MAX Data転送サイズ)を8と報告します。つまり、I/O要求の最大サイズは1MBまでです。ただし、Broadcom NVMe/FCホストに対する1MBの問題I/O要求には、を増やす必要があります lpfc の値 lpfc_sg_seg_cnt パラメータを256に設定します(デフォルト値の64から)。

手順
  1. lpfc_sg_seg_cnt パラメータを 256 に設定します

    # cat /etc/modprobe.d/lpfc.conf
    options lpfc lpfc_sg_seg_cnt=256
  2. 「 racut-f 」コマンドを実行し、ホストを再起動します。

  3. lpfc_sg_seg_cnt' が 256 であることを確認します

    # cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
    256
メモ これはQlogic NVMe/FCホストには該当しません。

NVMe/FC を設定

NVMe/TCPには自動接続機能はありません。そのため、パスがダウンしてデフォルトのタイムアウト(10分)内に復元されないと、NVMe/TCPは自動的に再接続できません。タイムアウトを回避するには、フェイルオーバーイベントの再試行期間を30分以上に設定する必要があります。

手順
  1. イニシエータポートがサポートされているNVMe/TCP LIFの検出ログページのデータを取得できることを確認します。

    nvme discover -t tcp -w host-traddr -a traddr

    出力例:

    # nvme discover -t tcp -w 192.168.167.1 -a 192.168.167.16
    
    Discovery Log Number of Records 8, Generation counter 10
    =====Discovery Log Entry 0======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  0
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.bbfb4ee8dfb611edbd07d039ea165590:discovery
    traddr:  192.168.166.17
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 1======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  1
    trsvcid: 8009
    subnqn:  nqn.1992 08.com.netapp:sn.bbfb4ee8dfb611edbd07d039ea165590:discovery
    traddr:  192.168.167.17
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 2======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  2
    trsvcid: 8009
    subnqn:  nqn.1992-
    08.com.netapp:sn.bbfb4ee8dfb611edbd07d039ea165590:discovery
    traddr:  192.168.166.16
    eflags: explicit discovery connections, duplicate discovery information
    sectype: none
    =====Discovery Log Entry 3======
    trtype:  tcp
    adrfam:  ipv4
    subtype: current discovery subsystem
    treq:    not specified
    portid:  3
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.bbfb4ee8dfb611edbd07d039ea165590:discovery
    traddr:  192.168.167.16
    eflags:  explicit discovery connections, duplicate discovery information
    sectype: none
    ...
  2. NVMe/TCPイニシエータとターゲットLIFの他の組み合わせで検出ログページのデータを正常に取得できることを確認します。

    nvme discover -t tcp -w host-traddr -a traddr

    出力例:

    #nvme discover -t tcp -w 192.168.166.5 -a 192.168.166.22
    #nvme discover -t tcp -w 192.168.166.5 -a 192.168.166.23
    #nvme discover -t tcp -w 192.168.167.5 -a 192.168.167.22
    #nvme discover -t tcp -w 192.168.167.5 -a 192.168.167.23
  3. を実行します nvme connect-all ノード全体でサポートされているすべてのNVMe/TCPイニシエータ/ターゲットLIFを対象にコマンドを実行し、コントローラ損失のタイムアウト時間を30分または1、800秒以上に設定します。

    nvme connect-all -t tcp -w host-traddr -a traddr -l 1800

    出力例:

    #	nvme	connect-all	-t	tcp	-w	192.168.166.1	-a	192.168.166.16 -l	1800
    #	nvme	connect-all	-t	tcp	-w	192.168.166.1	-a	192.168.166.17 -l	1800
    #	nvme	connect-all	-t	tcp	-w	192.168.167.1	-a	192.168.167.16 -l	1800
    #	nvme	connect-all	-t	tcp	-w	192.168.167.1	-a	192.168.167.17 -l	1800

NVMe-oF を検証します

NVMe-oFの検証には、次の手順を使用できます。

手順
  1. カーネル内NVMeマルチパスが有効になっていることを確認します。

    # cat /sys/module/nvme_core/parameters/multipath
    Y
  2. 該当するONTAPネームスペースの適切なNVMe-oF設定(modelをNetApp ONTAPコントローラに設定し、load balancing iopolicyをラウンドロビンに設定するなど)がホストに正しく反映されていることを確認します。

    # cat /sys/class/nvme-subsystem/nvme-subsys*/model
    NetApp ONTAP Controller
    NetApp ONTAP Controller
    # cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
    round-robin
    round-robin
  3. ネームスペースが作成され、ホストで正しく検出されたことを確認します。

    # nvme list

    出力例:

    Node         SN                   Model
    ---------------------------------------------------------
    /dev/nvme5n21 81CYrNQlis3WAAAAAAAB	NetApp ONTAP Controller
    
    
    Namespace Usage    Format             FW             Rev
    -----------------------------------------------------------
    1                 21.47 GB / 21.47 GB	4 KiB + 0 B   FFFFFFFF
  4. 各パスのコントローラの状態がliveであり、正しいANAステータスが設定されていることを確認します。

    NVMe/FC
    # nvme list-subsys /dev/nvme5n21

    出力例:

    nvme-subsys4 - NQN=nqn.1992-08.com.netapp:sn.e80cc121ca6911ed8cbdd039ea165590:subsystem.rhel_
    147_LPE32002
    \
     +- nvme2 fc traddr=nn-0x2142d039ea165877:pn-0x2144d039ea165877,host_traddr=nn-0x200000109b3c0820:pn-0x100000109b3c0820 live optimized
     +- nvme3 fc traddr=nn-0x2142d039ea165877:pn-0x2145d039ea165877,host_traddr=nn-0x200000109b3c081f:pn-0x100000109b3c081f live non-optimized
     +- nvme4 fc traddr=nn-0x2142d039ea165877:pn-0x2146d039ea165877,host_traddr=nn-0x200000109b3c0820:pn-0x100000109b3c0820 live non-optimized
     +- nvme6 fc traddr=nn-0x2142d039ea165877:pn-0x2143d039ea165877,host_traddr=nn-0x200000109b3c081f:pn-0x100000109b3c081f live optimized
    NVMe/FC
    # nvme list-subsys /dev/nvme1n1

    出力例:

    nvme-subsys1 - NQN=nqn.1992- 08.com.netapp:sn. bbfb4ee8dfb611edbd07d039ea165590:subsystem.rhel_tcp_95
    +- nvme1 tcp traddr=192.168.167.16,trsvcid=4420,host_traddr=192.168.167.1,src_addr=192.168.167.1 live
    +- nvme2 tcp traddr=192.168.167.17,trsvcid=4420,host_traddr=192.168.167.1,src_addr=192.168.167.1 live
    +- nvme3 tcp traddr=192.168.167.17,trsvcid=4420,host_traddr=192.168.166.1,src_addr=192.168.166.1 live
    +- nvme4 tcp traddr=192.168.166.16,trsvcid=4420,host_traddr=192.168.166.1,src_addr=192.168.166.1 live
  5. ネットアッププラグインで、ONTAP ネームスペースデバイスごとに正しい値が表示されていることを確認します。

    列( Column )
    # nvme netapp ontapdevices -o column

    出力例:

    Device        Vserver   Namespace Path
    ----------------------- ------------------------------
    /dev/nvme0n1 vs_tcp           /vol/vol1/ns1
    
    
    
    NSID       UUID                                   Size
    ------------------------------------------------------------
    1          6fcb8ea0-dc1e-4933-b798-8a62a626cb7f	21.47GB
    JSON
    # nvme netapp ontapdevices -o json

    出力例

    {
    
    "ONTAPdevices" : [
    {
    
    "Device" : "/dev/nvme1n1",
    "Vserver" : "vs_tcp_95",
    "Namespace_Path" : "/vol/vol1/ns1",
    "NSID" : 1,
    "UUID" : "6fcb8ea0-dc1e-4933-b798-8a62a626cb7f",
    "Size" : "21.47GB",
    "LBA_Data_Size" : 4096,
    "Namespace_Size" : 5242880
    },
    
    ]
    }

既知の問題

ONTAPリリースを使用するRHEL 9.3のNVMe-oFホスト構成に関する既知の問題はありません。