ONTAP ストレージ用にOracle Linux 10.xとNVMe-oFを設定
Oracle Linux ホストは、非対称名前空間アクセス (ANA) を備えた NVMe over Fibre Channel (NVMe/FC) および NVMe over TCP (NVMe/TCP) プロトコルをサポートします。ANA は、iSCSI および FCP 環境における非対称論理ユニット アクセス (ALUA) と同等のマルチパス機能を提供します。
Oracle Linux 10.x 用の NVMe over Fabrics (NVMe-oF)ホストを構成する方法を学習します。詳細なサポートと機能情報については、"Oracle Linux ONTAPのサポートと機能"を参照してください。
Oracle Linux 10.x の NVMe-oF には、次の既知の制限があります:
-
その `nvme disconnect-all`このコマンドはルートファイルシステムとデータファイルシステムの両方を切断し、システムが不安定になる可能性があります。 NVMe-TCP または NVMe-FC 名前空間を介して SAN から起動するシステムではこれを発行しないでください。
手順1:必要に応じてSANブートを有効にします。
SAN ブートを使用するようにホストを構成すると、展開が簡素化され、スケーラビリティが向上します。使用"Interoperability Matrix Tool"Linux OS、ホスト バス アダプタ (HBA)、HBA ファームウェア、HBA ブート BIOS、およびONTAPバージョンが SAN ブートをサポートしていることを確認します。
-
SAN ブート名前空間がマップされているポートに対して、サーバー BIOS で SAN ブートを有効にします。
HBA BIOS を有効にする方法については、ベンダー固有のマニュアルを参照してください。
-
ホストを再起動し、OS が起動して実行されていることを確認します。
ステップ2: Oracle LinuxとNVMeソフトウェアをインストールし、構成を確認する
次の手順を使用して、サポートされている Oracle Linux 10.x ソフトウェアの最小バージョンを検証します。
-
サーバーに Oracle Linux 10.x をインストールします。インストールが完了したら、指定された Oracle Linux 10.x カーネルが実行されていることを確認します。
uname -rOracle Linuxカーネルバージョンの例:
6.12.0-100.28.2.el10uek.x86_64
-
「 nvme-cli 」パッケージをインストールします。
rpm -qa|grep nvme-cli次の例は、 `nvme-cli`パッケージバージョン:
nvme-cli-2.13-2.0.1.el10.x86_64
-
をインストールします
libnvmeパッケージ:rpm -qa|grep libnvme次の例は、 `libnvme`パッケージバージョン:
libnvme-1.13-1.el10.x86_64
-
Oracle Linux 10.x ホストで、
hostnqn文字列を `/etc/nvme/hostnqn`で確認します:cat /etc/nvme/hostnqn次の例は、 `hostnqn`バージョン:
nqn.2014-08.org.nvmexpress:uuid:8397cecc-30f0-11e8-850f-7ed30aef0cc7
-
ONTAPシステムで、 `hostnqn`文字列が一致する `hostnqn`ONTAPストレージ システム上の対応するサブシステムの文字列:
vserver nvme subsystem host show -vserver vs_coexistence_emulex例を示します
Vserver Subsystem Priority Host NQN ------- --------- -------- -------------------------------------------------------------------vs_coexistence_emulex nvme1 regular nqn.2014-08.org.nvmexpress:uuid:8397cecc-30f0-11e8-850f-7ed30aef0cc7 nvme2 regular nqn.2014-08.org.nvmexpress:uuid:8397cecc-30f0-11e8-850f-7ed30aef0cc7
文字列が一致しない場合 hostnqn`は、コマンドを使用して、対応するONTAPアレイサブシステムの文字列を更新し、 `hostnqn`ホストののの文字列 `/etc/nvme/hostnqn`と一致させる `hostnqn`ことができます `vserver modify。
ステップ3: NVMe/FCとNVMe/TCPを構成する
Broadcom/Emulex または Marvell/QLogic アダプタを使用して NVMe/FC を構成するか、手動の検出および接続操作を使用して NVMe/TCP を構成します。
Broadcom/Emulexアダプタ用にNVMe/FCを設定します。
-
サポートされているアダプタモデルを使用していることを確認します。
-
モデル名を表示します。
cat /sys/class/scsi_host/host*/modelname次の出力が表示されます。
LPe36002-M64-D LPe36002-M64-D
-
モデルの説明を表示します。
cat /sys/class/scsi_host/host*/modeldesc次の例のような出力が表示されます。
Emulex LPe36002-M64-D 2-Port 64Gb Fibre Channel Adapter Emulex LPe36002-M64-D 2-Port 64Gb Fibre Channel Adapter
-
-
推奨されるBroadcomを使用していることを確認します
lpfcファームウェアおよび受信トレイドライバ:-
ファームウェアのバージョンを表示します。
cat /sys/class/scsi_host/host*/fwrev次の例はファームウェアのバージョンを示しています。
14.4.393.25, sli-4:6:d 14.4.393.25, sli-4:6:d
-
受信トレイのドライバーのバージョンを表示します。
cat /sys/module/lpfc/version次の例は、ドライバーのバージョンを示しています。
0:14.4.0.2
+
サポートされているアダプタドライバおよびファームウェアバージョンの最新リストについては、を参照してください"Interoperability Matrix Tool"。 -
-
確認します
lpfc_enable_fc4_typeがに設定されます3:cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type -
イニシエータポートを表示できることを確認します。
cat /sys/class/fc_host/host*/<port_name>次の例はポート ID を示しています。
0x100000620b3c089c 0x100000620b3c089d
-
イニシエータポートがオンラインであることを確認します。
cat /sys/class/fc_host/host*/port_state次の出力が表示されます。
Online Online
-
NVMe/FCイニシエータポートが有効になっており、ターゲットポートが認識されることを確認します。
cat /sys/class/scsi_host/host*/nvme_info例を示します
NVME Initiator Enabled XRI Dist lpfc0 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc0 WWPN x100000620b3c089c WWNN x200000620b3c089c DID x081300 ONLINE NVME RPORT WWPN x2001d039eab0dadc WWNN x2000d039eab0dadc DID x080107 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2221d039eab0dadc WWNN x2220d039eab0dadc DID x080105 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 000000713b Cmpl 000000713b Abort 00000001 LS XMIT: Err 00000000 CMPL: xb 00000001 Err 00000001 Total FCP Cmpl 00000000a513b8bb Issue 00000000a4f2485c OutIO ffffffffffde8fa1 abort 00006935 noxri 000004f0 nondlp 0002e119 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 0000693d Err 0009cb89 NVME Initiator Enabled XRI Dist lpfc1 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc1 WWPN x100000620b3c089d WWNN x200000620b3c089d DID x081900 ONLINE NVME RPORT WWPN x2002d039eab0dadc WWNN x2000d039eab0dadc DID x080207 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2222d039eab0dadc WWNN x2220d039eab0dadc DID x080205 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000007171 Cmpl 0000007171 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 00000000a509cecc Issue 00000000a4e7ed6c OutIO ffffffffffde1ea0 abort 000069c5 noxri 00000406 nondlp 000301e6 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 000069d6 Err 0009cbcds
Marvell/QLogicアダプタ用にNVMe/FCを設定します。
-
サポートされているアダプタドライバとファームウェアのバージョンが実行されていることを確認します。
cat /sys/class/fc_host/host*/symbolic_name次の例は、ドライバーとファームウェアのバージョンを示しています。
QLE2772 FW:v9.15.03 DVR:v10.02.09.300-k
-
確認します
ql2xnvmeenableが設定されます。これにより、MarvellアダプタをNVMe/FCイニシエータとして機能させることができます。cat /sys/module/qla2xxx/parameters/ql2xnvmeenable想定される出力は1です。
NVMe/TCP プロトコルは自動接続操作をサポートしていません。代わりに、NVMe/TCPサブシステムと名前空間をNVMe/TCPコマンドで検出することができます。 `connect`または `connect-all`手動で操作します。
-
イニシエータポートがサポートされているNVMe/TCP LIFの検出ログページのデータを取得できることを確認します。
nvme discover -t tcp -w host-traddr -a traddr例を示します
nvme discover -t tcp -w 192.168.41.7 -a 192.168.41.10 =====Discovery Log Entry 0====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 8 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:discovery traddr: 192.168.31.99 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 1====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 6 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:discovery traddr: 192.168.30.99 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 2====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 7 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:discovery traddr: 192.168.31.98 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 3====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 5 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:discovery traddr: 192.168.30.98 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 4====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 8 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:subsystem.subsys_kvm traddr: 192.168.31.99 eflags: none sectype: none =====Discovery Log Entry 5====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 6 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:subsystem.subsys_kvm traddr: 192.168.30.99 eflags: none sectype: none =====Discovery Log Entry 6====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 7 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:subsystem.subsys_kvm traddr: 192.168.31.98 eflags: none sectype: none =====Discovery Log Entry 7====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 5 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.064a9b19b3ee11f09dcad039eabac370:subsystem.subsys_kvm traddr: 192.168.30.98 eflags: none sectype: none
-
NVMe/TCPイニシエータとターゲットLIFの他の組み合わせで、検出ログページのデータを正常に取得できることを確認します。
nvme discover -t tcp -w host-traddr -a traddr例を示します
nvme discover -t tcp -w 192.168.41.7 -a 192.168.41.10 nvme discover -t tcp -w 192.168.41.7 -a 192.168.41.11 nvme discover -t tcp -w 192.168.48.7 -a 192.168.48.10 nvme discover -t tcp -w 192.168.48.7 -a 192.168.48.11
-
を実行します
nvme connect-allノード全体でサポートされているすべてのNVMe/TCPイニシエータ/ターゲットLIFを対象としたコマンド:nvme connect-all -t tcp -w host-traddr -a traddr例を示します
nvme connect-all -t tcp -w 192.168.41.7 -a 192.168.41.10 nvme connect-all -t tcp -w 192.168.41.7 -a 192.168.41.11 nvme connect-all -t tcp -w 192.168.48.7 -a 192.168.48.10 nvme connect-all -t tcp -w 192.168.48.7 -a 192.168.48.11
Oracle Linux 9.4以降、NVMe/TCPの設定は `ctrl_loss_tmo timeout`自動的に「オフ」に設定されます。その結果、次のようになります
-
再試行回数に制限はありません(無期限再試行)。
-
特定の設定を手動で行う必要はありません `ctrl_loss_tmo timeout`使用時の持続時間 `nvme connect`または `nvme connect-all`コマンド(オプション -l )。
-
NVMe/TCP コントローラーは、パス障害が発生した場合でもタイムアウトが発生せず、無期限に接続されたままになります。
ステップ4: オプションとして、udevルールのiopolicyを変更します。
Oracle Linux 10.xホストは、NVMe-oFのデフォルトのiopolicyを `queue-depth`に設定します。udevルールファイルを変更することで、iopolicyを `round-robin`に変更できます。
-
ルート権限でテキスト エディターで udev ルール ファイルを開きます。
/usr/lib/udev/rules.d/71-nvmf-netapp.rules次の出力が表示されます。
vi /usr/lib/udev/rules.d/71-nvmf-netapp.rules
-
NetApp ONTAPコントローラの iopolicy を設定する行を見つけます。
次の例は、ルールの例を示しています。
ACTION=="add", SUBSYSTEM=="nvme-subsystem", ATTR{subsystype}=="nvm", ATTR{model}=="NetApp ONTAP Controller", ATTR{iopolicy}="queue-depth" -
規則を修正して `queue-depth`が `round-robin`になるようにします:
ACTION=="add", SUBSYSTEM=="nvme-subsystem", ATTR{subsystype}=="nvm", ATTR{model}=="NetApp ONTAP Controller", ATTR{iopolicy}="round-robin" -
udev ルールを再読み込みし、変更を適用します。
udevadm control --reload udevadm trigger --subsystem-match=nvme-subsystem -
サブシステムの現在の iopolicy を確認します。 <subsystem>を置き換えます。例:
nvme-subsys0。cat /sys/class/nvme-subsystem/<subsystem>/iopolicy次の出力が表示されます。
round-robin.
|
|
新しい iopolicy は、一致するNetApp ONTAPコントローラ デバイスに自動的に適用されます。再起動は不要です。 |
ステップ5: オプションでNVMe/FCの1MB I/Oを有効にする
ONTAP は、識別コントローラ データで最大データ転送サイズ (MDTS) が 8 であると報告します。つまり、最大 I/O 要求サイズは 1 MB までになります。 Broadcom NVMe/FCホストに1MBのI/Oリクエストを発行するには、 `lpfc`の価値 `lpfc_sg_seg_cnt`パラメータをデフォルト値の 64 から 256 に変更します。
|
|
この手順は、Qlogic NVMe/FCホストには適用されません。 |
-
`lpfc_sg_seg_cnt`パラメータを256に設定します。
cat /etc/modprobe.d/lpfc.conf次の例のような出力が表示されます。
options lpfc lpfc_sg_seg_cnt=256
-
コマンドを実行し
dracut -f、ホストをリブートします。 -
の値が256であることを確認し `lpfc_sg_seg_cnt`ます。
cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
ステップ6: NVMeブートサービスを確認する
その `nvmefc-boot-connections.service`そして `nvmf-autoconnect.service`NVMe/FCに含まれるブートサービス `nvme-cli`パッケージはシステムの起動時に自動的に有効になります。
起動が完了したら、 `nvmefc-boot-connections.service`そして `nvmf-autoconnect.service`ブート サービスが有効になっています。
-
が有効であることを確認し `nvmf-autoconnect.service`ます。
systemctl status nvmf-autoconnect.service出力例を表示します。
nvmf-autoconnect.service - Connect NVMe-oF subsystems automatically during boot Loaded: loaded (/usr/lib/systemd/system/nvmf-autoconnect.service; enabled; preset: disabled) Active: inactive (dead) since Tue 2026-02-02 09:48:11 EDT; 1 week 0 days ago Main PID: 2620 (code=exited, status=0/SUCCESS) CPU: 19ms Feb 02 09:48:11 sr630-13-169 systemd[1]: Starting Connect NVMe-oF subsystems automatically during boot... Feb 02 09:48:11 sr630-13-169 systemd[1]: nvmf-autoconnect.service: Deactivated successfully. Feb 02 09:48:11 sr630-13-169 systemd[1]: Finished Connect NVMe-oF subsystems automatically during boot. -
が有効であることを確認し `nvmefc-boot-connections.service`ます。
systemctl status nvmefc-boot-connections.service出力例を表示します。
nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot Loaded: loaded (/usr/lib/systemd/system/nvmefc-boot-connections.service; enabled; preset: enabled) Active: inactive (dead) since Tue 2026-02-02 09:47:07 EDT; 1 week 0 days ago2 Main PID: 1651 (code=exited, status=0/SUCCESS) CPU: 14ms Feb 02 09:47:07 sr630-13-169 systemd[1]: Starting Auto-connect to subsystems on FC-NVME devices found during boot... Feb 02 09:47:07 sr630-13-169 systemd[1]: nvmefc-boot-connections.service: Deactivated successfully. Feb 02 09:47:07 sr630-13-169 systemd[1]: Finished Auto-connect to subsystems on FC-NVME devices found during boot.
ステップ7: マルチパス構成を確認する
カーネル内のNVMeマルチパスステータス、ANAステータス、およびONTAPネームスペースがNVMe-oF構成に対して正しいことを確認します。
-
カーネル内NVMeマルチパスが有効になっていることを確認します。
cat /sys/module/nvme_core/parameters/multipath次の出力が表示されます。
Y
-
それぞれのONTAP名前空間の適切な NVMe-oF 設定 (モデルをNetApp ONTAPコントローラに設定し、ロード バランシングiopolicy を queue-depth に設定するなど) がホストに正しく反映されていることを確認します。
-
サブシステムを表示します。
cat /sys/class/nvme-subsystem/nvme-subsys*/model次の出力が表示されます。
NetApp ONTAP Controller NetApp ONTAP Controller
-
ポリシーを表示します。
cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicyiopolicy に設定された値が表示されます。次に例を示します。
queue-depth queue-depth
-
-
ネームスペースが作成され、ホストで正しく検出されたことを確認します。
nvme list例を示します
Node Generic SN Model Namespace Usage Format FW Rev --------------- --------------- -------------------- ------------------------ ---------- -------------------------- ------------- -------- /dev/nvme10n1 /dev/ng10n1 81NQfNZTUE14AAAAAAAN NetApp ONTAP Controller 0x1 0.00 B / 21.47 GB 4 KiB + 0 B 9.18.1 /dev/nvme10n2 /dev/ng10n2 81NQfNZTUE14AAAAAAAN NetApp ONTAP Controller 0x2 0.00 B / 21.47 GB 4 KiB + 0 B 9.18.1 /dev/nvme12n1 /dev/ng12n1 81NQfNZTUE14AAAAAAAb NetApp ONTAP Controller 0x1 0.00 B / 21.47 GB 4 KiB + 0 B 9.18.1
-
各パスのコントローラの状態がliveであり、正しいANAステータスが設定されていることを確認します。
nvme list-subsys /dev/<controller_ID>ONTAP 9.16.1 以降、NVMe/FC および NVMe/TCP は ASA r2 システム上のすべての最適化されたパスを報告します。 NVMe/FC次の出力例は、NVMe/FC を使用する AFF、FAS、ASA、または ASA r2 システムの 2 ノード ONTAP コントローラでホストされているネームスペースを示しています。
AFF、FAS、ASA出力例を表示します。
nvme-subsys114 - NQN=nqn.1992-08.com.netapp:sn.9e30b9760a4911f08c87d039eab67a95:subsystem.sles_161_27 hostnqn=nqn.2014-08.org.nvmexpress:uuid:f6517cae-3133-11e8-bbff-7ed30aef123f iopolicy=round-robin\ +- nvme114 fc traddr=nn-0x234ed039ea359e4a:pn-0x2360d039ea359e4a,host_traddr=nn-0x20000090fae0ec88:pn-0x10000090fae0ec88 live optimized +- nvme115 fc traddr=nn-0x234ed039ea359e4a:pn-0x2362d039ea359e4a,host_traddr=nn-0x20000090fae0ec88:pn-0x10000090fae0ec88 live non-optimized +- nvme116 fc traddr=nn-0x234ed039ea359e4a:pn-0x2361d039ea359e4a,host_traddr=nn-0x20000090fae0ec89:pn-0x10000090fae0ec89 live optimized +- nvme117 fc traddr=nn-0x234ed039ea359e4a:pn-0x2363d039ea359e4a,host_traddr=nn-0x20000090fae0ec89:pn-0x10000090fae0ec89 live non-optimizedASA r2 の出力例を表示
nvme-subsys96 - NQN=nqn.1992-08.om.netapp:sn.b351b2b6777b11f0b3c2d039ea5cfc91:subsystem.nvme24 hostnqn=nqn.2014-08.org.nvmexpress:uuid:d3b581b4-c975-11e6-8425-0894ef31a074 \ +- nvme203 fc traddr=nn-0x2011d039ea5cfc90:pn-0x2015d039ea5cfc90,host_traddr=nn-0x200000109bdacc76:pn-0x100000109bdacc76 live optimized +- nvme25 fc traddr=nn-0x2011d039ea5cfc90:pn-0x2014d039ea5cfc90,host_traddr=nn-0x200000109bdacc75:pn-0x100000109bdacc75 live optimized +- nvme30 fc traddr=nn-0x2011d039ea5cfc90:pn-0x2012d039ea5cfc90,host_traddr=nn-0x200000109bdacc75:pn-0x100000109bdacc75 live optimized +- nvme32 fc traddr=nn-0x2011d039ea5cfc90:pn-0x2013d039ea5cfc90,host_traddr=nn-0x200000109bdacc76:pn-0x100000109bdacc76 live optimizedNVMe/FC次の出力例は、NVMe/TCPを使用するAFF、FAS、ASA、またはASA r2システムの2ノードONTAPコントローラでホストされているネームスペースを示しています。
AFF、FAS、ASA出力例を表示します。
nvme-subsys9 - NQN=nqn.1992-08.com.netapp:sn.9927e165694211f0b4f4d039eab31e9d:subsystem.nvme10 hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-b7c04f444d33 \ +- nvme105 tcp traddr=192.168.39.10,trsvcid=4420,host_traddr=192.168.39.20,src_addr=192.168.39.20 live optimized +- nvme153 tcp traddr=192.168.39.11,trsvcid=4420,host_traddr=192.168.39.20,src_addr=192.168.39.20 live non-optimized +- nvme57 tcp traddr=192.168.38.11,trsvcid=4420,host_traddr=192.168.38.20,src_addr=192.168.38.20 live non-optimized +- nvme9 tcp traddr=192.168.38.10,trsvcid=4420,host_traddr=192.168.38.20,src_addr=192.168.38.20 live optimizedASA r2 の出力例を表示
nvme-subsys4 - NQN=nqn.1992-08.com.netapp:sn.17e32b6e8c7f11f09545d039eac03c33:subsystem.Bidirectional_DHCP_1_0 hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0054-5110-8039-c3c04f523034 \ +- nvme4 tcp traddr=192.168.20.28,trsvcid=4420,host_traddr=192.168.20.21,src_addr=192.168.20.21 live optimized +- nvme5 tcp traddr=192.168.20.29,trsvcid=4420,host_traddr=192.168.20.21,src_addr=192.168.20.21 live optimized +- nvme6 tcp traddr=192.168.21.28,trsvcid=4420,host_traddr=192.168.21.21,src_addr=192.168.21.21 live optimized +- nvme7 tcp traddr=192.168.21.29,trsvcid=4420,host_traddr=192.168.21.21,src_addr=192.168.21.21 live optimized -
ネットアッププラグインで、ONTAP ネームスペースデバイスごとに正しい値が表示されていることを確認します。
列( Column )nvme netapp ontapdevices -o column例を示します
Device Vserver Namespace Path NSID UUID Size ---------------- ----------------------- ----------------------- ----- -------------------------------------- -------- /dev/nvme1n1 vs_sanboot sanboot_169 /vol/nvme169/ns169 1 58443dbc-a472-45da-a5ef-3dd27c19d04b 171.80GB
JSONnvme netapp ontapdevices -o json例を示します
{ "ONTAPdevices":[ { "Device":"/dev/nvme11n1", "Vserver":"vs_sanboot", "Subsystem":"sanboot_169", "Namespace_Path": "/vol/nvme169/ns169", "NSID":1, "UUID":" 58443dbc-a472-45da-a5ef-3dd27c19d04b", "LBA_Size":4096, "Namespace_Size": 171798691840, "UsedBytes": 6016638976, "Version":"9.18.1" } ] }
ステップ8: 安全なインバンド認証を設定する
Oracle Linux 10.xホストとONTAPコントローラ間のNVMe/TCPを介したセキュアな帯域内認証がサポートされています。
安全な認証を設定するには、各ホストまたはコントローラを DH-HMAC-CHAP キーに関連付ける必要があります。 DH-HMAC-CHAP キーは、NVMe ホストまたはコントローラの NQN と管理者によって設定された認証シークレットの組み合わせです。ピアを認証するには、NVMe ホストまたはコントローラはピアに関連付けられたキーを認識する必要があります。
CLI または構成 JSON ファイルを使用して、安全なインバンド認証を設定します。異なるサブシステムに異なる dhchap キーを指定する必要がある場合は、構成 JSON ファイルを使用します。
CLIを使用してセキュアなインバンド認証を設定します。
-
ホストNQNを取得します。
cat /etc/nvme/hostnqn -
Linux ホストの dhchap キーを生成します。
次の出力は、 `gen-dhchap-key`コマンドパラメータ:
nvme gen-dhchap-key -s optional_secret -l key_length {32|48|64} -m HMAC_function {0|1|2|3} -n host_nqn • -s secret key in hexadecimal characters to be used to initialize the host key • -l length of the resulting key in bytes • -m HMAC function to use for key transformation 0 = none, 1- SHA-256, 2 = SHA-384, 3=SHA-512 • -n host NQN to use for key transformation次の例では、HMACが3に設定されたランダムDHCHAPキー(SHA-512)が生成されます。
# nvme gen-dhchap-key -m 3 -n nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c4c04f425633 DHHC-1:03:xhAfbAD5IVLZDxiVbmFEOA5JZ3F/ERqTXhHzZQJKgkYkTbPI9dhRyVtr4dBD+SGiAJO3by4FbnVtov1Lmk+86+nNc6k=:
-
ONTAPコントローラで、ホストを追加し、両方のDHCHAPキーを指定します。
vserver nvme subsystem host add -vserver <svm_name> -subsystem <subsystem> -host-nqn <host_nqn> -dhchap-host-secret <authentication_host_secret> -dhchap-controller-secret <authentication_controller_secret> -dhchap-hash-function {sha-256|sha-512} -dhchap-group {none|2048-bit|3072-bit|4096-bit|6144-bit|8192-bit} -
ホストは、単方向と双方向の2種類の認証方式をサポートします。ホストで、ONTAPコントローラに接続し、選択した認証方式に基づいてDHCHAPキーを指定します。
nvme connect -t tcp -w <host-traddr> -a <tr-addr> -n <host_nqn> -S <authentication_host_secret> -C <authentication_controller_secret> -
検証する
nvme connect authenticationホストとコントローラのDHCHAPキーを確認してコマンドを実行します。-
ホストDHCHAPキーを確認します。
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_secretに、単方向設定の出力例を示します。
cat /sys/class/nvme-subsystem/nvme-subsys1/nvme*/dhchap_secret DHHC-1:03:Y5VkkESgmtTGNdX842qemNpFK6BXYVwwnqErgt3IQKP5Fbjje\/JSBOjG5Ea3NBLRfuiAuUSDUto6eY\/GwKoRp6AwGkw=: DHHC-1:03:Y5VkkESgmtTGNdX842qemNpFK6BXYVwwnqErgt3IQKP5Fbjje\/JSBOjG5Ea3NBLRfuiAuUSDUto6eY\/GwKoRp6AwGkw=: DHHC-1:03:Y5VkkESgmtTGNdX842qemNpFK6BXYVwwnqErgt3IQKP5Fbjje\/JSBOjG5Ea3NBLRfuiAuUSDUto6eY\/GwKoRp6AwGkw=: DHHC-1:03:Y5VkkESgmtTGNdX842qemNpFK6BXYVwwnqErgt3IQKP5Fbjje\/JSBOjG5Ea3NBLRfuiAuUSDUto6eY\/GwKoRp6AwGkw=:
-
コントローラのDHCHAPキーを確認します。
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_ctrl_secretに、双方向設定の出力例を示します。
cat /sys/class/nvme-subsystem/nvme-subsys6/nvme*/dhchap_ctrl_secret DHHC-1:03:frpLlTrnOYtcWDxPzq4ccxU1UrH2FjV7hYw5s2XEDB+lo+TjMsOwHR\/NFtM0nBBidx+gdoyUcC5s6hOOtTLDGcz0Kbs=: DHHC-1:03:frpLlTrnOYtcWDxPzq4ccxU1UrH2FjV7hYw5s2XEDB+lo+TjMsOwHR\/NFtM0nBBidx+gdoyUcC5s6hOOtTLDGcz0Kbs=: DHHC-1:03:frpLlTrnOYtcWDxPzq4ccxU1UrH2FjV7hYw5s2XEDB+lo+TjMsOwHR\/NFtM0nBBidx+gdoyUcC5s6hOOtTLDGcz0Kbs=: DHHC-1:03:frpLlTrnOYtcWDxPzq4ccxU1UrH2FjV7hYw5s2XEDB+lo+TjMsOwHR\/NFtM0nBBidx+gdoyUcC5s6hOOtTLDGcz0Kbs=:
-
ONTAPコントローラ構成で複数のNVMeサブシステムを使用できる場合は、コマンドでファイルを nvme connect-all`使用できます `/etc/nvme/config.json。
使用 -o JSON ファイルを生成するオプション。その他の構文オプションについては、nvme connect - allのマニュアルページを参照してください。
-
JSON ファイルを設定します。
例を示します
[ { "hostnqn":"nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c4c04f425633", "hostid":"4c4c4544-0056-5410-8048-c4c04f425633", "dhchap_key":"DHHC-1:01:nFg06gV0FNpXqoiLOF0L+swULQpZU/PjU9v/McDeJHjTZFlF:", "subsystems":[ { "nqn":"nqn.1992-08.com.netapp:sn.09035a8d8c8011f0ac0fd039eabac370:subsystem.subsys", "ports":[ { "transport":"tcp", "traddr":"192.168.30.69", "host_traddr":"192.168.41.7", "trsvcid":"4420", "dhchap_ctrl_key":"DHHC-1:03:n3F8d+bvxKW/s+lEhqXaOohI2sxrQ9iLutzduuFq49JgdjjaFtTpDSO9kQl/bvZj+Bo3rdHh3xPXeP6a4xyhcRyqdds=:" } ] } ] } ]上記の例では、はに対応し、は dhchap_key`に対応 `dhchap_secret`し `dhchap_ctrl_key`dhchap_ctrl_secret`ます。 -
config jsonファイルを使用してONTAPコントローラに接続します。
nvme connect-all -J /etc/nvme/config.json -
各サブシステムの各コントローラでDHCHAPシークレットが有効になっていることを確認します。
-
ホストDHCHAPキーを確認します。
cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_secret次の例は、dhchap キーを示しています。
DHHC-1:01:nFg06gV0FNpXqoiLOF0L+swULQpZU/PjU9v/McDeJHjTZFlF:
-
コントローラのDHCHAPキーを確認します。
cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_ctrl_secret次の例のような出力が表示されます。
DHHC-1:03:n3F8d+bvxKW/s+lEhqXaOohI2sxrQ9iLutzduuFq49JgdjjaFtTpDSO9kQl/bvZj+Bo3rdHh3xPXeP6a4xyhcRyqdds=:
-
手順9:既知の問題を確認する
既知の問題はありません。