ONTAP 탑재 RHEL 10에 대한 NVMe-oF 호스트 구성
NetApp SAN 호스트 구성은 ANA(Asymmetric Namespace Access)를 통해 NVMe-oF(NVMe over Fabrics) 프로토콜을 지원합니다. NVMe-oF 환경에서 ANA는 iSCSI 및 FCP 환경에서 ALUA(Asymmetric Logical Unit Access) 다중 경로와 같습니다. ANA는 커널 내 NVMe 다중 경로 기능을 사용하여 구현됩니다.
RHEL(Red Hat Enterprise Linux) 10용 NVMe-oF 호스트 구성에서 다음과 같은 지원 및 기능을 사용할 수 있습니다. 또한 구성 프로세스를 시작하기 전에 알려진 제한 사항을 검토해야 합니다.
-
사용 가능한 지원:
-
NVMe/FC(NVMe over Fibre Channel) 외에도 NVMe over TCP(NVMe/TCP) 지원 네이티브 패키지의 NetApp 플러그인은
nvme-cli
NVMe/FC 및 NVMe/TCP 네임스페이스 모두에 대한 ONTAP 세부 정보를 표시합니다. -
동일한 호스트에서 NVMe 및 SCSI 트래픽 모두 실행 예를 들어, SCSI LUN의 SCSI mpath 장치에 대해 dm-multipath를 구성하고 NVMe multipath를 사용하여 호스트의 NVMe-oF 네임스페이스 장치를 구성할 수 있습니다.
-
ONTAP 9.12.1부터 NVMe/TCP에 대한 보안 인밴드 인증이 지원됩니다. RHEL 10에서는 NVMe/TCP에 대한 보안 인밴드 인증을 사용할 수 있습니다.
지원되는 구성에 대한 자세한 내용은 를 "상호 운용성 매트릭스 툴"참조하십시오.
-
-
사용 가능한 기능:
-
RHEL 10부터 기본 NVMe 다중 경로가 항상 활성화되어 있으며 NVMe-oF에 대한 DM 다중 경로 지원은 지원되지 않습니다.
-
-
알려진 제한 사항:
-
발행을 피하십시오
nvme disconnect-all
NVMe-TCP 또는 NVMe-FC 네임스페이스를 통해 SAN에서 부팅하는 시스템에서 이 명령을 사용하면 루트 및 데이터 파일 시스템이 모두 분리되어 시스템이 불안정해질 수 있습니다.
-
1단계: 필요에 따라 SAN 부팅을 활성화합니다
SAN 부팅을 사용하도록 호스트를 구성하여 배포를 단순화하고 확장성을 개선할 수 있습니다.
를 사용하여 "상호 운용성 매트릭스 툴"Linux OS, 호스트 버스 어댑터(HBA), HBA 펌웨어, HBA 부팅 BIOS 및 ONTAP 버전이 SAN 부팅을 지원하는지 확인합니다.
-
SAN 부팅 네임스페이스가 매핑된 포트에 대해 서버 BIOS에서 SAN 부팅을 활성화합니다.
HBA BIOS를 활성화하는 방법에 대한 자세한 내용은 공급업체별 설명서를 참조하십시오.
-
호스트를 재부팅하고 OS가 실행 중인지 확인하여 구성이 성공했는지 확인합니다.
2단계: 소프트웨어 버전 검증
다음 절차에 따라 지원되는 최소 RHEL 10 소프트웨어 버전을 확인하세요.
-
서버에 RHEL 10를 설치합니다. 설치가 완료되면 지정된 RHEL 10 커널을 실행하고 있는지 확인합니다.
uname -r
다음 예는 RHEL 커널 버전을 보여줍니다.
6.12.0-55.9.1.el10_0.x86_64
-
"NVMe-CLI" 패키지를 설치합니다.
rpm -qa|grep nvme-cli
다음 예에서는 다음을 보여줍니다.
nvme-cli
패키지 버전:nvme-cli-2.11-5.el10.x86_64
-
를 설치합니다
libnvme
패키지:rpm -qa|grep libnvme
다음 예에서는 다음을 보여줍니다.
libnvme
패키지 버전:libnvme-1.11.1-1.el10.x86_64
-
호스트에서 hostnqn 문자열을 확인하세요.
/etc/nvme/hostnqn
:cat /etc/nvme/hostnqn
다음 예에서는 다음을 보여줍니다.
hostnqn
버전:nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-b9c04f425633
-
를 확인합니다
hostnqn
문자열이 과 일치합니다hostnqn
ONTAP 배열의 해당 하위 시스템에 대한 문자열:::> vserver nvme subsystem host show -vserver vs_nvme_194_rhel10
예제 보기
Vserver Subsystem Priority Host NQN ------- --------- -------- ------------------------------------------------ vs_ nvme_194_rhel10 nvme4 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_1 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_2 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 nvme_3 regular nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048- c7c04f425633 4 entries were displayed.
를 누릅니다 hostnqn
문자열이 일치하지 않습니다. 를 사용하십시오vserver modify
명령을 사용하여 를 업데이트합니다hostnqn
와 일치하는 해당 ONTAP 배열 하위 시스템의 문자열입니다hostnqn
문자열 시작/etc/nvme/hostnqn
호스트.
3단계: NVMe/FC 구성
Broadcom/Emulex FC 또는 Marvell/Qlogic FC 어댑터를 사용하여 NVMe/FC를 구성할 수 있습니다. Broadcom 어댑터로 구성된 NVMe/FC의 경우 1MB 크기의 I/O 요청을 활성화할 수 있습니다.
Broadcom/Emulex 어댑터용 NVMe/FC를 구성합니다.
-
지원되는 어댑터 모델을 사용하고 있는지 확인합니다.
-
모델 이름을 표시합니다:
cat /sys/class/scsi_host/host*/modelname
다음과 같은 출력이 표시됩니다.
LPe36002-M64 LPe36002-M64
-
모델 설명을 표시합니다.
cat /sys/class/scsi_host/host*/modeldesc
다음 예와 비슷한 출력이 표시되어야 합니다.
Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter Emulex LightPulse LPe36002-M64 2-Port 64Gb Fibre Channel Adapter
-
-
권장 Broadcom을 사용하고 있는지 확인합니다
lpfc
펌웨어 및 받은 편지함 드라이버:-
펌웨어 버전을 표시합니다.
cat /sys/class/scsi_host/host*/fwrev
다음 예에서는 펌웨어 버전을 보여줍니다.
14.0.539.16, sli-4:6:d 14.0.539.16, sli-4:6:d
-
받은 편지함 드라이버 버전을 표시합니다.
cat /sys/module/lpfc/version
다음 예에서는 드라이버 버전을 보여줍니다.
0:14.4.0.6
지원되는 어댑터 드라이버 및 펌웨어 버전의 현재 목록은 를 참조하십시오"상호 운용성 매트릭스 툴".
-
-
의 예상 출력이
3
다음과 같이 설정되었는지 확인합니다lpfc_enable_fc4_type
.cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
-
이니시에이터 포트를 볼 수 있는지 확인합니다.
cat /sys/class/fc_host/host*/port_name
다음 예에서는 포트 ID를 보여줍니다.
0x2100f4c7aa0cd7c2 0x2100f4c7aa0cd7c3
-
이니시에이터 포트가 온라인 상태인지 확인합니다.
cat /sys/class/fc_host/host*/port_state
다음과 같은 출력이 표시됩니다.
Online Online
-
NVMe/FC 이니시에이터 포트가 활성화되었고 타겟 포트가 표시되는지 확인합니다.
cat /sys/class/scsi_host/host*/nvme_info
예제 보기
NVME Initiator Enabled XRI Dist lpfc2 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc2 WWPN x100000109bf044b1 WWNN x200000109bf044b1 DID x022a00 ONLINE NVME RPORT WWPN x202fd039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x021310 TARGET DISCSRVC ONLINE NVME RPORT WWPN x202dd039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x020b10 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000000810 Cmpl 0000000810 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000007b098f07 Issue 000000007aee27c4 OutIO ffffffffffe498bd abort 000013b4 noxri 00000000 nondlp 00000058 qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 000013b4 Err 00021443 NVME Initiator Enabled XRI Dist lpfc3 Total 6144 IO 5894 ELS 250 NVME LPORT lpfc3 WWPN x100000109bf044b2 WWNN x200000109bf044b2 DID x021b00 ONLINE NVME RPORT WWPN x2033d039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x020110 TARGET DISCSRVC ONLINE NVME RPORT WWPN x2032d039eaa7dfc8 WWNN x202cd039eaa7dfc8 DID x022910 TARGET DISCSRVC ONLINE NVME Statistics LS: Xmt 0000000840 Cmpl 0000000840 Abort 00000000 LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000 Total FCP Cmpl 000000007afd4434 Issue 000000007ae31b83 OutIO ffffffffffe5d74f abort 000014a5 noxri 00000000 nondlp 0000006a qdepth 00000000 wqerr 00000000 err 00000000 FCP CMPL: xb 000014a5 Err 0002149a
Marvell/QLogic 어댑터용 NVMe/FC를 구성합니다.
-
지원되는 어댑터 드라이버 및 펌웨어 버전을 실행하고 있는지 확인합니다.
cat /sys/class/fc_host/host*/symbolic_name
다음 예에서는 드라이버 및 펌웨어 버전을 보여줍니다.
QLE2872 FW:v9.15.00 DVR:v10.02.09.300-k QLE2872 FW:v9.15.00 DVR:v10.02.09.300-k
-
확인합니다
ql2xnvmeenable
가 설정됩니다. 그러면 Marvell 어댑터가 NVMe/FC Initiator로 작동할 수 있습니다.cat /sys/module/qla2xxx/parameters/ql2xnvmeenable
예상 아웃투트는 1입니다.
4단계: 선택적으로 1MB I/O 활성화
ONTAP는 컨트롤러 식별 데이터에서 MDTS(MAX Data 전송 크기)를 8로 보고합니다. 이는 최대 I/O 요청 크기가 1MB까지 될 수 있음을 의미합니다. Broadcom NVMe/FC 호스트에 대해 1MB 크기의 I/O 요청을 발행하려면 매개 변수 값을 lpfc_sg_seg_cnt
기본값인 64에서 256으로 늘려야 lpfc
합니다.
|
이 단계는 Qlogic NVMe/FC 호스트에는 적용되지 않습니다. |
-
`lpfc_sg_seg_cnt`매개변수를 256으로 설정합니다.
cat /etc/modprobe.d/lpfc.conf
다음 예와 비슷한 출력이 표시되어야 합니다.
options lpfc lpfc_sg_seg_cnt=256
-
`dracut -f`명령을 실행하고 호스트를 재부팅합니다.
-
의 값이 256인지
lpfc_sg_seg_cnt
확인합니다.cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
5단계: NVMe 부팅 서비스 확인
RHEL 10을 사용하면 nvmefc-boot-connections.service
그리고 nvmf-autoconnect.service
NVMe/FC에 포함된 부팅 서비스 nvme-cli
패키지는 시스템 부팅 시 자동으로 활성화됩니다.
부팅이 완료된 후 다음을 확인하세요. nvmefc-boot-connections.service
그리고 nvmf-autoconnect.service
부팅 서비스가 활성화되었습니다.
-
가 활성화되어 있는지
nvmf-autoconnect.service
확인합니다.systemctl status nvmf-autoconnect.service
예제 출력을 표시합니다
nvmf-autoconnect.service - Connect NVMe-oF subsystems automatically during boot Loaded: loaded (/usr/lib/systemd/system/nvmf-autoconnect.service; enabled; preset: disabled) Active: inactive (dead) Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: Starting Connect NVMe-oF subsystems automatically during boot... Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: nvmf-autoconnect.service: Deactivated successfully. Jun 10 04:06:26 SR630-13-201.lab.eng.btc.netapp.in systemd[1]: Finished Connect NVMe-oF subsystems automatically during boot.
-
가 활성화되어 있는지
nvmefc-boot-connections.service
확인합니다.systemctl status nvmefc-boot-connections.service
예제 출력을 표시합니다
nvmefc-boot-connections.service - Auto-connect to subsystems on FC-NVME devices found during boot Loaded: loaded (/usr/lib/systemd/system/nvmefc-boot-connections.service; enabled; preset: enabled) Active: inactive (dead) since Tue 2025-06-10 01:08:36 EDT; 2h 59min ago Main PID: 7090 (code=exited, status=0/SUCCESS) CPU: 30ms Jun 10 01:08:36 localhost systemd[1]: Starting Auto-connect to subsystems on FC-NVME devices found during boot... Jun 10 01:08:36 localhost systemd[1]: nvmefc-boot-connections.service: Deactivated successfully. Jun 10 01:08:36 localhost systemd[1]: Finished Auto-connect to subsystems on FC-NVME devices found during boot.
6단계: NVMe/TCP 구성
NVMe/TCP 프로토콜이 작업을 지원하지 auto-connect
않습니다. 대신 NVMe/TCP 또는 connect-all
작업을 수동으로 수행하여 NVMe/TCP 하위 시스템과 네임스페이스를 검색할 수 connect
있습니다.
-
이니시에이터 포트가 지원되는 NVMe/TCP LIF에서 검색 로그 페이지 데이터를 가져올 수 있는지 확인합니다.
nvme discover -t tcp -w host-traddr -a traddr
예제 보기
nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.20 Discovery Log Number of Records 8, Generation counter 18 =====Discovery Log Entry 0====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 4 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.21.21 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 1====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 2 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.20.21 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 2====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 3 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.21.20 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 3====== trtype: tcp adrfam: ipv4 subtype: current discovery subsystem treq: not specified portid: 1 trsvcid: 8009 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:discovery traddr: 192.168.20.20 eflags: explicit discovery connections, duplicate discovery information sectype: none =====Discovery Log Entry 4====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 4 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.21.21 eflags: none sectype: none =====Discovery Log Entry 5====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 2 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.20.21 eflags: none sectype: none =====Discovery Log Entry 6====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 3 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.21.20 eflags: none sectype: none =====Discovery Log Entry 7====== trtype: tcp adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 1 trsvcid: 4420 subnqn: nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.rhel10_tcp_subsystem traddr: 192.168.20.20 eflags: none sectype: none
-
다른 NVMe/TCP 이니시에이터-타겟 LIF 조합이 검색 로그 페이지 데이터를 성공적으로 가져올 수 있는지 확인합니다.
nvme discover -t tcp -w host-traddr -a traddr
예제 보기
nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.20 nvme discover -t tcp -w 192.168.21.1 -a 192.168.21.20 nvme discover -t tcp -w 192.168.20.1 -a 192.168.20.21 nvme discover -t tcp -w 192.168.21.1 -a 192.168.21.21
-
를 실행합니다
nvme connect-all
노드에 걸쳐 지원되는 모든 NVMe/TCP 이니시에이터-타겟 LIF에 대한 명령:nvme connect-all -t tcp -w host-traddr -a traddr
예제 보기
nvme connect-all -t tcp -w 192.168.20.1 -a 192.168.20.20 nvme connect-all -t tcp -w 192.168.21.1 -a 192.168.21.20 nvme connect-all -t tcp -w 192.168.20.1 -a 192.168.20.21 nvme connect-all -t tcp -w 192.168.21.1 -a 192.168.21.21
|
RHEL 9.4부터 NVMe/TCP 설정
|
7단계: NVMe-oF 검증
커널 내 NVMe 다중 경로 상태, ANA 상태 및 ONTAP 네임스페이스가 NVMe-oF 구성에 적합한지 확인합니다.
-
in-kernel NVMe multipath가 활성화되어 있는지 확인합니다.
cat /sys/module/nvme_core/parameters/multipath
다음과 같은 출력이 표시됩니다.
Y
-
각 ONTAP 네임스페이스에 대한 적절한 NVMe-oF 설정(예: NetApp ONTAP 컨트롤러로 설정된 모델 및 라운드 로빈으로 설정된 로드 밸런싱 IPolicy가 호스트에 올바르게 반영되는지 확인합니다.
-
하위 시스템을 표시합니다.
cat /sys/class/nvme-subsystem/nvme-subsys*/model
다음과 같은 출력이 표시됩니다.
NetApp ONTAP Controller NetApp ONTAP Controller
-
정책을 표시합니다.
cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
다음과 같은 출력이 표시됩니다.
round-robin round-robin
-
-
호스트에서 네임스페이스가 생성되고 올바르게 검색되는지 확인합니다.
nvme list
예제 보기
Node SN Model --------------------------------------------------------- /dev/nvme4n1 81Ix2BVuekWcAAAAAAAB NetApp ONTAP Controller Namespace Usage Format FW Rev ----------------------------------------------------------- 1 21.47 GB / 21.47 GB 4 KiB + 0 B FFFFFFFF
-
각 경로의 컨트롤러 상태가 라이브이고 올바른 ANA 상태인지 확인합니다.
NVMe/FCnvme list-subsys /dev/nvme5n1
예제 보기
nvme-subsys5 - NQN=nqn.1992-08.com.netapp:sn.f7565b15a66911ef9668d039ea951c46:subsystem.nvme1 hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0056-5410-8048-c7c04f425633 \ +- nvme126 fc traddr=nn-0x2036d039ea951c45:pn-0x2038d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c3:pn-0x2100f4c7aa0cd7c3 live optimized +- nvme176 fc traddr=nn-0x2036d039ea951c45:pn-0x2037d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c2:pn-0x2100f4c7aa0cd7c2 live optimized +- nvme5 fc traddr=nn-0x2036d039ea951c45:pn-0x2039d039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c2:pn-0x2100f4c7aa0cd7c2 live non-optimized +- nvme71 fc traddr=nn-0x2036d039ea951c45:pn-0x203ad039ea951c45,host_traddr=nn-0x2000f4c7aa0cd7c3:pn-0x2100f4c7aa0cd7c3 live non-optimized
NVMe/TCPnvme list-subsys /dev/nvme4n2
예제 보기
nvme-subsys4 - NQN=nqn.1992-08.com.netapp:sn.64e65e6caae711ef9668d039ea951c46:subsystem.nvme4 hostnqn=nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33 \ +- nvme102 tcp traddr=192.168.21.20,trsvcid=4420,host_traddr=192.168.21.1,src_addr=192.168.21.1 live non-optimized +- nvme151 tcp traddr=192.168.21.21,trsvcid=4420,host_traddr=192.168.21.1,src_addr=192.168.21.1 live optimized +- nvme4 tcp traddr=192.168.20.20,trsvcid=4420,host_traddr=192.168.20.1,src_addr=192.168.20.1 live non-optimized +- nvme53 tcp traddr=192.168.20.21,trsvcid=4420,host_traddr=192.168.20.1,src_addr=192.168.20.1 live optimized
-
NetApp 플러그인에 각 ONTAP 네임스페이스 장치에 대한 올바른 값이 표시되는지 확인합니다.
열nvme netapp ontapdevices -o column
예제 보기
Device Vserver Namespace Path ----------------------- ------------------------------ /dev/nvme10n1 vs_tcp_rhel10 /vol/vol10/ns10 NSID UUID Size ----------------------- ------------------------------ 1 bbf51146-fc64-4197-b8cf-8a24f6f359b3 21.47GB
JSON을 참조하십시오nvme netapp ontapdevices -o json
예제 보기
{ "ONTAPdevices":[ { "Device":"/dev/nvme10n1", "Vserver":"vs_tcp_rhel10", "Namespace_Path":"/vol/vol10/ns10", "NSID":1, "UUID":"bbf51146-fc64-4197-b8cf-8a24f6f359b3", "Size":"21.47GB", "LBA_Data_Size":4096, "Namespace_Size":5242880 } ] }
8단계: 안전한 인밴드 인증 설정
ONTAP 9.12.1부터 RHEL 10 호스트와 ONTAP 컨트롤러 간의 NVMe/TCP를 통한 안전한 인밴드 인증이 지원됩니다.
각 호스트 또는 컨트롤러는 다음과 연결되어야 합니다. DH-HMAC-CHAP
보안 인증을 설정하는 키입니다 . DH-HMAC-CHAP
키는 NVMe 호스트 또는 컨트롤러의 NQN과 관리자가 구성한 인증 비밀번호의 조합입니다. 피어를 인증하려면 NVMe 호스트 또는 컨트롤러가 피어와 연결된 키를 인식해야 합니다.
CLI나 구성 JSON 파일을 사용하여 안전한 인밴드 인증을 설정합니다. 서로 다른 하위 시스템에 대해 다른 dhchap 키를 지정해야 하는 경우 구성 JSON 파일을 사용해야 합니다.
CLI를 사용하여 보안 인밴드 인증을 설정합니다.
-
호스트 NQN 가져오기:
cat /etc/nvme/hostnqn
-
RHEL 10 호스트에 대한 dhchap 키를 생성합니다.
다음 출력에서는 명령 매개 변수에 대해
gen-dhchap-key
설명합니다.nvme gen-dhchap-key -s optional_secret -l key_length {32|48|64} -m HMAC_function {0|1|2|3} -n host_nqn • -s secret key in hexadecimal characters to be used to initialize the host key • -l length of the resulting key in bytes • -m HMAC function to use for key transformation 0 = none, 1- SHA-256, 2 = SHA-384, 3=SHA-512 • -n host NQN to use for key transformation
다음 예에서는 HMAC이 3(SHA-512)으로 설정된 임의의 dhchap 키가 생성됩니다.
nvme gen-dhchap-key -m 3 -n nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33 DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
ONTAP 컨트롤러에서 호스트를 추가하고 두 dhchap 키를 모두 지정합니다.
vserver nvme subsystem host add -vserver <svm_name> -subsystem <subsystem> -host-nqn <host_nqn> -dhchap-host-secret <authentication_host_secret> -dhchap-controller-secret <authentication_controller_secret> -dhchap-hash-function {sha-256|sha-512} -dhchap-group {none|2048-bit|3072-bit|4096-bit|6144-bit|8192-bit}
-
호스트는 단방향 및 양방향이라는 두 가지 유형의 인증 방법을 지원합니다. 호스트에서 ONTAP 컨트롤러에 연결하고 선택한 인증 방법에 따라 dhchap 키를 지정합니다.
nvme connect -t tcp -w <host-traddr> -a <tr-addr> -n <host_nqn> -S <authentication_host_secret> -C <authentication_controller_secret>
-
의 유효성을 검사합니다
nvme connect authentication
호스트 및 컨트롤러 dhchap 키를 확인하여 명령:-
호스트 dhchap 키를 확인합니다.
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_secret
단방향 설정에 대한 출력 예제를 표시합니다
cat /sys/class/nvme-subsystem/nvme-subsys1/nvme*/dhchap_secret DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=: DHHC- 1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jTmzEKUbcWu26I33b93b il2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=:
-
컨트롤러 dhchap 키를 확인합니다.
cat /sys/class/nvme-subsystem/<nvme-subsysX>/nvme*/dhchap_ctrl_secret
에는 양방향 구성의 출력 예가 나와 있습니다
cat /sys/class/nvme-subsystem/nvme-subsys6/nvme*/dhchap_ctrl_secret DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=: DHHC- 1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia 1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
ONTAP 컨트롤러 구성에서 여러 NVMe 서브시스템을 사용할 수 있는 경우 파일을 명령과 함께 nvme connect-all
사용할 수 /etc/nvme/config.json
있습니다.
사용하세요 -o
JSON 파일을 생성하는 옵션입니다. 자세한 구문 옵션은 NVMe Connect - 모든 설명서 페이지를 참조하십시오.
-
JSON 파일을 구성합니다.
다음 예에서, dhchap_key
에 대응하다dhchap_secret
그리고dhchap_ctrl_key
에 대응하다dhchap_ctrl_secret
.예제 보기
cat /etc/nvme/config.json [ { "hostnqn":"nqn.2014-08.org.nvmexpress:uuid:4c4c4544-0035-5910-804b-c2c04f444d33", "hostid":"4c4c4544-0035-5910-804b-c2c04f444d33", "dhchap_key":"DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:", "subsystems":[ { "nqn":"nqn.1992-08.com.netapp:sn.127ade26168811f0a50ed039eab69ad3:subsystem.inband_unidirectional", "ports":[ { "transport":"tcp", "traddr":"192.168.20.17", "host_traddr":"192.168.20.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.20.18", "host_traddr":"192.168.20.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.21.18", "host_traddr":"192.168.21.1", "trsvcid":"4420" }, { "transport":"tcp", "traddr":"192.168.21.17", "host_traddr":"192.168.21.1", "trsvcid":"4420" }]
-
config JSON 파일을 사용하여 ONTAP 컨트롤러에 연결합니다.
nvme connect-all -J /etc/nvme/config.json
예제 보기
traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.20 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected traddr=192.168.20.21 is already connected
-
각 하위 시스템의 해당 컨트롤러에 대해 dhchap 비밀번호가 활성화되었는지 확인하세요.
-
호스트 dhchap 키를 확인합니다.
cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_secret
다음 예에서는 dhchap 키를 보여줍니다.
DHHC-1:03:7zf8I9gaRcDWH3tCH5vLGaoyjzPIvwNWusBfKdpJa+hia1 aKDKJQ2o53pX3wYM9xdv5DtKNNhJInZ7X8wU2RQpQIngc=:
-
컨트롤러 dhchap 키를 확인합니다.
cat /sys/class/nvme-subsystem/nvme-subsys0/nvme0/dhchap_ctrl_secret
다음 예와 비슷한 출력이 표시되어야 합니다.
DHHC-1:03:fMCrJharXUOqRoIsOEaG6m2PH1yYvu5+z3jT mzEKUbcWu26I33b93bil2WR09XDho/ld3L45J+0FeCsStBEAfhYgkQU=:
-
9단계: 알려진 문제를 검토합니다
알려진 문제가 없습니다.