ONTAPを使用したRHEL 9.4向けのNVMe-oFホストの設定
NVMe over Fibre Channel(NVMe/FC)やその他のトランスポートを含むNVMe over Fabrics(NVMe-oF)は、Red Hat Enterprise Linux(RHEL)9.4とAsymmetric Namespace Access(ANA)でサポートされます。NVMe-oF環境では、ANAはiSCSI環境およびFC環境のALUAマルチパスに相当し、カーネル内NVMeマルチパスで実装されます。
ONTAPを使用したRHEL 9.4のNVMe-oFホスト構成では、次の機能がサポートされます。
-
NVMe/FCに加えて、NVMe over TCP(NVMe/TCP)もサポートされます。NetAppプラグインをネイティブにインストールします
nvme-cli
[パッケージ]には、NVMe/FCとNVMe/TCPの両方のネームスペースのONTAPの詳細が表示されます。 -
特定のHost Bus Adapter(HBA;ホストバスアダプタ)上の同じホストでNVMeとSCSIのトラフィックが共存し、明示的なdm-multipath設定を使用せずにNVMeネームスペースが要求されないようにする。
サポートされる構成の詳細については、を参照してください "NetApp Interoperability Matrix Tool で確認できます"。
の機能
-
RHEL 9.4では、NVMeネームスペースに対してカーネル内NVMeマルチパスがデフォルトで有効になっているため、明示的に設定する必要はありません。
-
NVMe/FCプロトコルを使用したSANブートがサポートされます。
既知の制限
既知の制限事項はありません。
ソフトウェアのバージョンを確認します
サポートされるRHEL 9.4ソフトウェアの最小バージョンは、次の手順を使用して検証できます。
-
サーバにRHEL 9.4をインストールします。インストールが完了したら、指定したRHEL 9.4カーネルが実行されていることを確認します。
# uname -r
出力例:
5.14.0-423.el9.x86_64
-
「 nvme-cli 」パッケージをインストールします。
# rpm -qa|grep nvme-cli
出力例:
nvme-cli-2.6-4.el9.x86_64
-
をインストールします
libnvme
パッケージ:#rpm -qa|grep libnvme
出力例
libnvme-1.6-1.el9.x86_64
-
RHEL 9.4ホストで、hostnqnという文字列を
/etc/nvme/hostnqn
:# cat /etc/nvme/hostnqn
出力例
nqn.2014-08.org.nvmexpress:uuid: uuid:4c4c4544-0036-5610-804a-c7c04f365a32
-
を確認します
hostnqn
文字列はに一致しますhostnqn
ONTAP アレイ上の対応するサブシステムの文字列。::> vserver nvme subsystem host show -vserver vs_coexistence_LPE36002
出力例:
Vserver Subsystem Host NQN ----------- --------------- ---------------------------------------------------------- vs_coexistence_LPE36002 nvme nqn.2014-08.org.nvmexpress:uuid: 4c4c4544-0036-5610-804a-
状況に応じて hostnqn
文字列が一致しない場合は、を使用してくださいvserver modify
コマンドを使用してを更新しますhostnqn
対応するONTAP アレイサブシステムで、に一致する文字列を指定しますhostnqn
から文字列/etc/nvme/hostnqn
ホスト。
NVMe/FC を設定
NVMe/FCはBroadcom/EmulexアダプタまたはMarvell/Qlogicアダプタに設定できます。
-
サポートされているアダプタモデルを使用していることを確認します。
# cat /sys/class/scsi_host/host*/modelname
出力例:
LPe36002-M64 LPe36002-M64
# cat /sys/class/scsi_host/host*/modeldesc
出力例:
Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter
-
推奨されるBroadcomを使用していることを確認します
lpfc
ファームウェアおよび受信トレイドライバ:# cat /sys/class/scsi_host/host*/fwrev 14.2.673.40, sli-4:6:d 14.2.673.40, sli-4:6:d # cat /sys/module/lpfc/version 0:14.2.0.16
サポートされているアダプタドライバとファームウェアのバージョンの最新リストについては、を参照してください "NetApp Interoperability Matrix Tool で確認できます"。
-
確認します
lpfc_enable_fc4_type
がに設定されます3
:# cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type 3
-
イニシエータポートが動作していること、およびターゲットLIFが表示されていることを確認します。
# cat /sys/class/fc_host/host*/port_name 0x100000109b3c081f 0x100000109b3c0820
# cat /sys/class/fc_host/host*/port_state Online Online
# cat /sys/class/scsi_host/host*/nvme_info NVME Initiator Enabled XRI Dist lpfc0 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc0 WWPN x100000109b3c081f WWNN x200000109b3c081f DID x062300 ONLINE NVME RPORT WWPN x2143d039ea165877 WWNN x2142d039ea165877 DID x061b15 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2145d039ea165877 WWNN x2142d039ea165877 DID x061115 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 000000040b Cmpl 000000040b Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000001f5c4538 Issue 000000001f58da22 OutIO fffffffffffc94ea abort 00000630 noxri 00000000 nondlp 00001071 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 00000630 Err 0001bd4a NVME Initiator Enabled XRI Dist lpfc1 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc1 WWPN x100000109b3c0820 WWNN x200000109b3c0820 DID x062c00 ONLINE NVME RPORT WWPN x2144d039ea165877 WWNN x2142d039ea165877 DID x060215 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2146d039ea165877 WWNN x2142d039ea165877 DID x061815 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 000000040b Cmpl 000000040b Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000001f5c3618 Issue 000000001f5967a4 OutIO fffffffffffd318c abort 00000629 noxri 00000000 nondlp 0000044e qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 00000629 Err 0001bd3d
RHEL 9.4 GAカーネルに含まれているネイティブの受信トレイqla2xxxドライバには、最新の修正が含まれています。これらの修正は、ONTAPのサポートに不可欠です。
-
サポートされているアダプタドライバとファームウェアのバージョンが実行されていることを確認します。
# cat /sys/class/fc_host/host*/symbolic_name
出力例
QLE2872 FW:v9.12.01 DVR:v10.02.09.100-k QLE2872 FW:v9.12.01 DVR:v10.02.09.100-k
-
確認します
ql2xnvmeenable
が設定されます。これにより、MarvellアダプタをNVMe/FCイニシエータとして機能させることができます。# cat /sys/module/qla2xxx/parameters/ql2xnvmeenable 1
1MB I/Oを有効にする(オプション)
ONTAPは、Identify ControllerデータでMDT(MAX Data転送サイズ)が8であると報告します。つまり、最大I/O要求サイズは1MBです。Broadcom NVMe/FCホストにサイズ1MBのI/O要求を実行するには、パラメータの値を lpfc_sg_seg_cnt`デフォルト値の64から256に増やす必要があります `lpfc
。
この手順は、Qlogic NVMe/FCホストには適用されません。 |
-
`lpfc_sg_seg_cnt`パラメータを256に設定します。
cat /etc/modprobe.d/lpfc.conf
options lpfc lpfc_sg_seg_cnt=256
-
コマンドを実行し
dracut -f
、ホストをリブートします。 -
の想定値が256であることを確認し `lpfc_sg_seg_cnt`ます。
cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
NVMe/FC を設定
NVMe/TCPには自動接続機能はありません。代わりに、NVMe/TCPまたは connect-all`の処理を手動で実行することで、NVMe/TCPサブシステムとネームスペースを検出できます `connect
。
-
イニシエータポートがサポートされているNVMe/TCP LIFの検出ログページのデータを取得できることを確認します。
nvme discover -t tcp -w host-traddr -a traddr
出力例:
# nvme discover -t tcp -w 192.168.167.1 -a 192.168.167.16 Discovery Log Number of Records 8, Generation counter 10 =====Discovery Log Entry 0====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 11 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.983de7f4b39411ee871ed039ea954d18: discovery traddr: 192.168.167.8 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 1====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 9 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.983de7f4b39411ee871ed039ea954d18: discovery traddr: 192.168.166.8 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 2====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 12 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.983de7f4b39411ee871ed039ea954d18: discovery traddr: 192.168.167.7 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 3====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 10 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.983de7f4b39411ee871ed039ea954d18: discovery traddr: 192.168.166.7 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 4====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 11 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.983de7f4b39411ee871ed039ea954d18:subsystem.nvme_tcp_1 traddr: 192.168.167.8 eflags: none sectype: none =====Discovery Log Entry 5====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 9 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.983de7f4b39411ee871ed039ea954d18:subsystem.nvme_tcp_1 traddr: 192.168.166.8 eflags: none sectype: none =====Discovery Log Entry 6====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 12 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.983de7f4b39411ee871ed039ea954d18:subsystem.nvme_tcp_1 traddr: 192.168.167.7 eflags: none sectype: none =====Discovery Log Entry 7====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 10 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.983de7f4b39411ee871ed039ea954d18:subsystem.nvme_tcp_1 traddr: 192.168.166.7 eflags: none sectype: none
-
NVMe/TCPイニシエータとターゲットLIFの他の組み合わせで検出ログページのデータを正常に取得できることを確認します。
nvme discover -t tcp -w host-traddr -a traddr
出力例:
#nvme discover -t tcp -w 192.168.166.6 -a 192.168.166.7 #nvme discover -t tcp -w 192.168.166.6 -a 192.168.166.8 #nvme discover -t tcp -w 192.168.167.6 -a 192.168.167.7 #nvme discover -t tcp -w 192.168.167.6 -a 192.168.167.8
-
を実行します
nvme connect-all
ノード全体でサポートされているすべてのNVMe/TCPイニシエータ/ターゲットLIFを対象としたコマンド:nvme connect-all -t tcp -w host-traddr -a traddr
出力例:
# nvme connect-all -t tcp -w 192.168.166.6 -a 192.168.166.7 # nvme connect-all -t tcp -w 192.168.166.6 -a 192.168.166.8 # nvme connect-all -t tcp -w 192.168.167.6 -a 192.168.167.7 # nvme connect-all -t tcp -w 192.168.167.6 -a 192.168.167.8
RHEL 9.4以降では、NVMe/TCPタイムアウトのデフォルト設定 ctrl_loss_tmo`がオフになっています。これは、再試行回数に制限がないことを意味します(無期限の再試行)。したがって、コマンドまたは `nvme connect-all`コマンド(オプション-l)を使用するときに、特定のタイムアウト期間を `nvme connect`手動で設定する必要はありません `ctrl_loss_tmo 。このデフォルトの動作では、パスで障害が発生してもNVMe/TCPコントローラはタイムアウトせず、無期限に接続されたままになります。
|
NVMe-oF を検証します
NVMe-oFの検証には、次の手順を使用できます。
-
カーネル内NVMeマルチパスが有効になっていることを確認します。
# cat /sys/module/nvme_core/parameters/multipath Y
-
該当するONTAPネームスペースの適切なNVMe-oF設定(modelをNetApp ONTAPコントローラに設定し、load balancing iopolicyをラウンドロビンに設定するなど)がホストに正しく反映されていることを確認します。
# cat /sys/class/nvme-subsystem/nvme-subsys*/model NetApp ONTAP Controller NetApp ONTAP Controller
# cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy round-robin round-robin
-
ネームスペースが作成され、ホストで正しく検出されたことを確認します。
# nvme list
出力例:
Node SN Model --------------------------------------------------------- /dev/nvme4n1 81Ix2BVuekWcAAAAAAAB NetApp ONTAP Controller Namespace Usage Format FW Rev ----------------------------------------------------------- 1 21.47 GB / 21.47 GB 4 KiB + 0 B FFFFFFFF
-
各パスのコントローラの状態がliveであり、正しいANAステータスが設定されていることを確認します。
NVMe/FC# nvme list-subsys /dev/nvme5n21
出力例:
nvme-subsys4 - NQN=nqn.1992-08.com.netapp:sn.efd7989cb10111ee871ed039ea954d18:subsystem.nvme hostnqn=nqn.2014-08.org.nvmexpress:uuid:d3b581b4-c975-11e6-8425-0894ef31a074 iopolicy=round-robin \ +- nvme2 fc traddr=nn-0x2013d039ea951c45:pn-0x2018d039ea951c45,host_traddr=nn-0x200000109bdacc76:pn-0x100000109bdacc76 live non-optimized +- nvme3 fc traddr=nn-0x2013d039ea951c45:pn-0x2017d039ea951c45,host_traddr=nn-0x200000109bdacc75:pn-0x100000109bdacc75 live non-optimized +- nvme5 fc traddr=nn-0x2013d039ea951c45:pn-0x2016d039ea951c45,host_traddr=nn- 0x200000109bdacc76:pn-0x100000109bdacc76 live optimized +- nvme6 fc traddr=nn-0x2013d039ea951c45:pn-0x2014d039ea951c45,host_traddr=nn- 0x200000109bdacc75:pn-0x100000109bdacc75 live optimized
NVMe/FC# nvme list-subsys /dev/nvme1n1
出力例:
nvme-subsys1 -NQN=nqn.1992-08.com.netapp: sn.983de7f4b39411ee871ed039ea954d18:subsystem.nvme_tcp_1 hostnqn=nqn.2014-08.org.nvmexpress:uuid: 4c4c4544-0035-5910-804b-c2c04f444d33 iopolicy=round-robin \ +- nvme5 tcp traddr=192.168.166.7,trsvcid=4420,host_traddr=192.168.166.6,src_addr=192.168.166.6 live +- nvme4 tcp traddr=192.168.166.8,trsvcid=4420,host_traddr=192.168.166.6,src_addr=192.168.166.6 live +- nvme2 tcp traddr=192.168.167.7,trsvcid=4420,host_traddr=192.168.167.6,src_addr=192.168.167.6 live +- nvme1 tcp traddr=192.168.167.8,trsvcid=4420,host_traddr=192.168.167.6,src_addr=192.168.167.6 live
-
ネットアッププラグインで、ONTAP ネームスペースデバイスごとに正しい値が表示されていることを確認します。
列( Column )# nvme netapp ontapdevices -o column
出力例:
Device Vserver Namespace Path ----------------------- ------------------------------ /dev/nvme0n1 vs_tcp /vol/vol1/ns1 NSID UUID Size ------------------------------------------------------------ 1 6fcb8ea0-dc1e-4933-b798-8a62a626cb7f 21.47GB
JSON# nvme netapp ontapdevices -o json
出力例
{ "ONTAPdevices" : [ { "Device" : "/dev/nvme1n1", "Vserver" : "linux_tcnvme_iscsi", "Namespace_Path" : "/vol/tcpnvme_1_0_0/tcpnvme_ns", "NSID" : 1, "UUID" : "1a42c652-1450-4a29-886a-b4ccc23e637d", "Size" : "21.47GB", "LBA_Data_Size" : 4096, "Namespace_Size" : 5242880 }, ] }
既知の問題
ONTAPリリースを使用するRHEL 9.4でのNVMe-oFホスト構成に関する既知の問題はありません。