ONTAPヲシヨウシタRHEL 9.3ノNVMe-oFホストノセツテイ
NVMe over Fibre Channel(NVMe/FC)やその他のトランスポートを含むNVMe over Fabrics(NVMe-oF)は、Red Hat Enterprise Linux(RHEL)9.3とAsymmetric Namespace Access(ANA)でサポートされます。NVMe-oF環境では、ANAはiSCSI環境およびFC環境のALUAマルチパスに相当し、カーネル内NVMeマルチパスで実装されます。
ONTAPを使用するRHEL 9.3では、NVMe-oFホスト構成が次のようにサポートされます。
-
NVMe/FCに加えて、NVMe over TCP(NVMe/TCP)もサポートされます。標準のNVMe-CLIパッケージに含まれるNetAppプラグインには、NVMe/FCとNVMe/TCP両方のネームスペースのONTAPの詳細が表示されます。
-
特定のHost Bus Adapter(HBA;ホストバスアダプタ)上の同じホストでNVMeとSCSIのトラフィックが共存し、明示的なdm-multipath設定を使用せずにNVMeネームスペースが要求されないようにする。
サポートされる構成の詳細については、を参照してください "NetApp Interoperability Matrix Tool で確認できます"。
の機能
RHEL 9.3では、NVMeネームスペースに対してカーネル内NVMeマルチパスがデフォルトで有効になっているため、明示的に設定する必要はありません。
既知の制限
NVMe-oFプロトコルを使用したSANブートは現在サポートされていません。
ソフトウェアのバージョンを確認します
次の手順を使用して、サポートされているRHEL 9.3ソフトウェアの最小バージョンを検証できます。
-
サーバにRHEL 9.3をインストールします。インストールが完了したら、指定したRHEL 9.3カーネルが実行されていることを確認します。
# uname -r
出力例:
5.14.0-362.8.1.el9_3.x86_64
-
「 nvme-cli 」パッケージをインストールします。
# rpm -qa|grep nvme-cli
出力例:
nvme-cli-2.4-10.el9.x86_64
-
をインストールします
libnvme
パッケージ:#rpm -qa|grep libnvme
出力例
libnvme-1.4-7.el9.x86_64
-
RHEL 9.3ホストで、hostnqnという文字列を
/etc/nvme/hostnqn
:# cat /etc/nvme/hostnqn
出力例
nqn.2014-08.org.nvmexpress:uuid:060fd513-83be-4c3e-aba1-52e169056dcf
-
を確認します
hostnqn
文字列はに一致しますhostnqn
ONTAP アレイ上の対応するサブシステムの文字列。::> vserver nvme subsystem host show -vserver vs_nvme147
出力例:
Vserver Subsystem Host NQN ----------- --------------- ---------------------------------------------------------- vs_nvme147 rhel_147_LPe32002 nqn.2014-08.org.nvmexpress:uuid:060fd513-83be-4c3e-aba1-52e169056dcf
状況に応じて hostnqn
文字列が一致しない場合は、を使用してくださいvserver modify
コマンドを使用してを更新しますhostnqn
対応するONTAP アレイサブシステムで、に一致する文字列を指定しますhostnqn
から文字列/etc/nvme/hostnqn
ホスト。
NVMe/FC を設定
NVMe/FCはBroadcom/EmulexアダプタまたはMarvell/Qlogicアダプタに設定できます。
-
サポートされているアダプタモデルを使用していることを確認します。
# cat /sys/class/scsi_host/host*/modelname
出力例:
LPe32002-M2 LPe32002-M2
# cat /sys/class/scsi_host/host*/modeldesc
出力例:
Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
-
推奨されるBroadcomを使用していることを確認します
lpfc
ファームウェアおよび受信トレイドライバ:# cat /sys/class/scsi_host/host*/fwrev 14.2.539.16, sli-4:2:c 14.2.539.16, sli-4:2:c # cat /sys/module/lpfc/version 0:14.2.0.12
サポートされているアダプタドライバとファームウェアのバージョンの最新リストについては、を参照してください "NetApp Interoperability Matrix Tool で確認できます"。
-
確認します
lpfc_enable_fc4_type
がに設定されます3
:# cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type 3
-
イニシエータポートが動作していること、およびターゲットLIFが表示されていることを確認します。
# cat /sys/class/fc_host/host*/port_name 0x100000109b3c081f 0x100000109b3c0820
# cat /sys/class/fc_host/host*/port_state Online Online
# cat /sys/class/scsi_host/host*/nvme_info NVME Initiator Enabled XRI Dist lpfc0 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc0 WWPN x100000109b3c081f WWNN x200000109b3c081f DID x062300 ONLINE NVME RPORT WWPN x2143d039ea165877 WWNN x2142d039ea165877 DID x061b15 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2145d039ea165877 WWNN x2142d039ea165877 DID x061115 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 000000040b Cmpl 000000040b Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000001f5c4538 Issue 000000001f58da22 OutIO fffffffffffc94ea abort 00000630 noxri 00000000 nondlp 00001071 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 00000630 Err 0001bd4a NVME Initiator Enabled XRI Dist lpfc1 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc1 WWPN x100000109b3c0820 WWNN x200000109b3c0820 DID x062c00 ONLINE NVME RPORT WWPN x2144d039ea165877 WWNN x2142d039ea165877 DID x060215 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2146d039ea165877 WWNN x2142d039ea165877 DID x061815 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 000000040b Cmpl 000000040b Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000001f5c3618 Issue 000000001f5967a4 OutIO fffffffffffd318c abort 00000629 noxri 00000000 nondlp 0000044e qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 00000629 Err 0001bd3d
RHEL 9.3 GAカーネルに含まれている標準の受信トレイqla2xxxドライバには、最新の修正が適用されています。これらの修正は、ONTAPのサポートに不可欠です。
-
サポートされているアダプタドライバとファームウェアのバージョンが実行されていることを確認します。
# cat /sys/class/fc_host/host*/symbolic_name
出力例
QLE2772 FW:v9.10.11 DVR:v10.02.08.200-k QLE2772 FW:v9.10.11 DVR:v10.02.08.200-k
-
確認します
ql2xnvmeenable
が設定されます。これにより、MarvellアダプタをNVMe/FCイニシエータとして機能させることができます。# cat /sys/module/qla2xxx/parameters/ql2xnvmeenable 1
1MB I/Oを有効にする(オプション)
ONTAPは、Identify ControllerデータでMDT(MAX Data転送サイズ)が8であると報告します。つまり、最大I/O要求サイズは1MBです。Broadcom NVMe/FCホストにサイズ1MBのI/O要求を実行するには、パラメータの値を lpfc_sg_seg_cnt`デフォルト値の64から256に増やす必要があります `lpfc
。
次の手順は、Qlogic NVMe/FCホストには適用されません。 |
-
`lpfc_sg_seg_cnt`パラメータを256に設定します。
cat /etc/modprobe.d/lpfc.conf
options lpfc lpfc_sg_seg_cnt=256
-
コマンドを実行し
dracut -f
、ホストをリブートします。 -
`lpfc_sg_seg_cnt`が256であることを確認します。
cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
想定される値は256です。
NVMe/FC を設定
NVMe/TCPには自動接続機能はありません。そのため、パスがダウンしてデフォルトのタイムアウト(10分)内に復元されないと、NVMe/TCPは自動的に再接続できません。タイムアウトを回避するには、フェイルオーバーイベントの再試行期間を30分以上に設定する必要があります。
-
イニシエータポートがサポートされているNVMe/TCP LIFの検出ログページのデータを取得できることを確認します。
nvme discover -t tcp -w host-traddr -a traddr
出力例:
# nvme discover -t tcp -w 192.168.167.1 -a 192.168.167.16 Discovery Log Number of Records 8, Generation counter 10 =====Discovery Log Entry 0====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 0 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.bbfb4ee8dfb611edbd07d039ea165590:discovery traddr: 192.168.166.17 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 1====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 1 trsvcid: 8009 subnqn: nqn.1992 08.com.netapp:sn.bbfb4ee8dfb611edbd07d039ea165590:discovery traddr: 192.168.167.17 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 2====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 2 trsvcid: 8009 subnqn: nqn.1992- 08.com.netapp:sn.bbfb4ee8dfb611edbd07d039ea165590:discovery traddr: 192.168.166.16 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 3====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 3 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.bbfb4ee8dfb611edbd07d039ea165590:discovery traddr: 192.168.167.16 eflags: explicit discovery connections, duplicate discovery information sectype: none ...
-
NVMe/TCPイニシエータとターゲットLIFの他の組み合わせで検出ログページのデータを正常に取得できることを確認します。
nvme discover -t tcp -w host-traddr -a traddr
出力例:
#nvme discover -t tcp -w 192.168.166.5 -a 192.168.166.22 #nvme discover -t tcp -w 192.168.166.5 -a 192.168.166.23 #nvme discover -t tcp -w 192.168.167.5 -a 192.168.167.22 #nvme discover -t tcp -w 192.168.167.5 -a 192.168.167.23
-
を実行します
nvme connect-all
ノード全体でサポートされているすべてのNVMe/TCPイニシエータ/ターゲットLIFを対象にコマンドを実行し、コントローラ損失のタイムアウト時間を30分または1、800秒以上に設定します。nvme connect-all -t tcp -w host-traddr -a traddr -l 1800
出力例:
# nvme connect-all -t tcp -w 192.168.166.1 -a 192.168.166.16 -l 1800 # nvme connect-all -t tcp -w 192.168.166.1 -a 192.168.166.17 -l 1800 # nvme connect-all -t tcp -w 192.168.167.1 -a 192.168.167.16 -l 1800 # nvme connect-all -t tcp -w 192.168.167.1 -a 192.168.167.17 -l 1800
NVMe-oF を検証します
NVMe-oFの検証には、次の手順を使用できます。
-
カーネル内NVMeマルチパスが有効になっていることを確認します。
# cat /sys/module/nvme_core/parameters/multipath Y
-
該当するONTAPネームスペースの適切なNVMe-oF設定(modelをNetApp ONTAPコントローラに設定し、load balancing iopolicyをラウンドロビンに設定するなど)がホストに正しく反映されていることを確認します。
# cat /sys/class/nvme-subsystem/nvme-subsys*/model NetApp ONTAP Controller NetApp ONTAP Controller
# cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy round-robin round-robin
-
ネームスペースが作成され、ホストで正しく検出されたことを確認します。
# nvme list
出力例:
Node SN Model --------------------------------------------------------- /dev/nvme5n21 81CYrNQlis3WAAAAAAAB NetApp ONTAP Controller Namespace Usage Format FW Rev ----------------------------------------------------------- 1 21.47 GB / 21.47 GB 4 KiB + 0 B FFFFFFFF
-
各パスのコントローラの状態がliveであり、正しいANAステータスが設定されていることを確認します。
NVMe/FC# nvme list-subsys /dev/nvme5n21
出力例:
nvme-subsys4 - NQN=nqn.1992-08.com.netapp:sn.e80cc121ca6911ed8cbdd039ea165590:subsystem.rhel_ 147_LPE32002 \ +- nvme2 fc traddr=nn-0x2142d039ea165877:pn-0x2144d039ea165877,host_traddr=nn-0x200000109b3c0820:pn-0x100000109b3c0820 live optimized +- nvme3 fc traddr=nn-0x2142d039ea165877:pn-0x2145d039ea165877,host_traddr=nn-0x200000109b3c081f:pn-0x100000109b3c081f live non-optimized +- nvme4 fc traddr=nn-0x2142d039ea165877:pn-0x2146d039ea165877,host_traddr=nn-0x200000109b3c0820:pn-0x100000109b3c0820 live non-optimized +- nvme6 fc traddr=nn-0x2142d039ea165877:pn-0x2143d039ea165877,host_traddr=nn-0x200000109b3c081f:pn-0x100000109b3c081f live optimized
NVMe/FC# nvme list-subsys /dev/nvme1n1
出力例:
nvme-subsys1 - NQN=nqn.1992- 08.com.netapp:sn. bbfb4ee8dfb611edbd07d039ea165590:subsystem.rhel_tcp_95 +- nvme1 tcp traddr=192.168.167.16,trsvcid=4420,host_traddr=192.168.167.1,src_addr=192.168.167.1 live +- nvme2 tcp traddr=192.168.167.17,trsvcid=4420,host_traddr=192.168.167.1,src_addr=192.168.167.1 live +- nvme3 tcp traddr=192.168.167.17,trsvcid=4420,host_traddr=192.168.166.1,src_addr=192.168.166.1 live +- nvme4 tcp traddr=192.168.166.16,trsvcid=4420,host_traddr=192.168.166.1,src_addr=192.168.166.1 live
-
ネットアッププラグインで、ONTAP ネームスペースデバイスごとに正しい値が表示されていることを確認します。
列( Column )# nvme netapp ontapdevices -o column
出力例:
Device Vserver Namespace Path ----------------------- ------------------------------ /dev/nvme0n1 vs_tcp /vol/vol1/ns1 NSID UUID Size ------------------------------------------------------------ 1 6fcb8ea0-dc1e-4933-b798-8a62a626cb7f 21.47GB
JSON# nvme netapp ontapdevices -o json
出力例
{ "ONTAPdevices" : [ { "Device" : "/dev/nvme1n1", "Vserver" : "vs_tcp_95", "Namespace_Path" : "/vol/vol1/ns1", "NSID" : 1, "UUID" : "6fcb8ea0-dc1e-4933-b798-8a62a626cb7f", "Size" : "21.47GB", "LBA_Data_Size" : 4096, "Namespace_Size" : 5242880 }, ] }
既知の問題
ONTAPリリースを使用するRHEL 9.3のNVMe-oFホスト構成に関する既知の問題はありません。