Skip to main content
SAN hosts and cloud clients
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Configurazione host NVMe/FC per RHEL 8,2 con ONTAP

Collaboratori

NVMe/FC è supportato su ONTAP 9,6 o versioni successive per Red Hat Enterprise Linux (RHEL) 8,2. L'host RHEL 8.2 esegue il traffico NVMe e SCSI attraverso le stesse porte dell'adattatore inizializzatore Fibre Channel (FC). Vedere "Hardware Universe" Per un elenco di controller e adattatori FC supportati.

Vedere "Tool di matrice di interoperabilità NetApp" per l'elenco aggiornato delle configurazioni supportate.

Caratteristiche

  • A partire da RHEL 8,2, nvme-fc auto-connect gli script sono inclusi nel file nativo nvme-cli pacchetto. È possibile fare affidamento su questi script nativi di connessione automatica invece di dover installare gli script di connessione automatica forniti dal vendor esterno.

  • A partire da RHEL 8,2, un nativo udev la regola è già fornita come parte di nvme-cli Pacchetto che consente il bilanciamento del carico round-robin per il multipath NVMe. Non è più necessario creare manualmente questa regola (come è stato fatto in RHEL 8.1).

  • A partire da RHEL 8,2, il traffico NVMe e SCSI può essere eseguito sullo stesso host esistente. Questa è infatti la configurazione prevista dell'host distribuito. Pertanto, per SCSI, è possibile configurare dm-multipath Come di consueto per i LUN SCSI che ne risultano mpath Dispositivi, mentre è possibile utilizzare il multipath NVMe per configurare i dispositivi multipath NVMe-of sull'host.

  • A partire da RHEL 8,2, il plug-in NetApp nel nativo nvme-cli Il pacchetto è in grado di visualizzare i dettagli ONTAP per gli spazi dei nomi ONTAP.

Limitazioni note

  • Per RHEL 8,2, il multipath NVMe in-kernel è disattivato per impostazione predefinita. Pertanto, è necessario attivarlo manualmente.

  • L'avvio SAN che utilizza il protocollo NVMe-of non è attualmente supportato.

Abilitare NVMe/FC

Puoi usare la seguente procedura per attivare NVMe/FC.

Fasi
  1. Installare Red Hat Enterprise Linux 8.2 GA sul server.

  2. Se si sta eseguendo l'aggiornamento da RHEL 8,1 a RHEL 8,2 utilizzando yum update/upgrade, il /etc/nvme/host* i file potrebbero andare persi. Per evitare la perdita del file, procedere come segue:

    1. Eseguire il backup di /etc/nvme/host* file.

    2. Se si dispone di una modifica manuale udev regola, rimuovilo:

      /lib/udev/rules.d/71-nvme-iopolicy-netapp-ONTAP.rules
    3. Eseguire l'aggiornamento.

    4. Al termine dell'aggiornamento, eseguire il seguente comando:

      yum remove nvme-cli
    5. Ripristinare i file host in /etc/nvme/.

      yum install nvmecli
    6. Copiare l'originale /etc/nvme/host* dal backup ai file host effettivi in /etc/nvme/.

  3. Una volta completata l'installazione, verificare di eseguire il kernel Red Hat Enterprise Linux specificato.

    # uname -r
    4.18.0-193.el8.x86_64

    Vedere "Tool di matrice di interoperabilità NetApp" per l'elenco più aggiornato delle versioni supportate.

  4. Installare il pacchetto nvme-cli.

    # rpm -qa|grep nvme-cli
    nvme-cli-1.9.5.el8.x86_64
  5. Abilitare il multipath NVMe nel kernel.

    # grubby –args=nvme_core.multipath=Y –update-kernel /boot/vmlinuz-4.18.0-193.el8.x86_64
  6. Sull'host RHEL 8,2, controllare la stringa NQN dell'host su /etc/nvme/hostnqn E verificare che corrisponda alla stringa NQN host per il sottosistema corrispondente sull'array ONTAP.

    # cat /etc/nvme/hostnqn
    nqn.2014-08.org.nvmexpress:uuid:9ed5b327-b9fc-4cf5-97b3-1b5d986345d1
    
    
    ::> vserver nvme subsystem host show -vserver vs_fcnvme_141
    Vserver      Subsystem        Host           NQN
    ----------- --------------- ----------- ---------------
      vs_fcnvme_141
        nvme_141_1
            nqn.2014-08.org.nvmexpress:uuid:9ed5b327-b9fc-4cf5-97b3-1b5d986345d1

    Se le stringhe NQN host non corrispondono, utilizzare vserver modify Comando per aggiornare la stringa NQN dell'host sul sottosistema di array ONTAP corrispondente in modo che corrisponda alla stringa NQN dell'host da /etc/nvme/hostnqn sull'host.

  7. Riavviare l'host.

  8. Aggiornare enable_foreign impostazione (opzionale).

    Se si intende eseguire traffico NVMe e SCSI sullo stesso host coesistente RHEL 8,2, NetApp consiglia di utilizzare multipath NVMe in-kernel per gli spazi dei nomi ONTAP e dm-multipath per le LUN ONTAP. È inoltre necessario inserire i namespace ONTAP in dm-multipath per impedire a dm-multipath di rivendicare questi dispositivi dello spazio dei nomi. È possibile farlo aggiungendo il enable_foreign impostazione su /etc/multipath.conf, come mostrato di seguito.

    # cat /etc/multipath.conf
    defaults {
       enable_foreign NONE
    }
  9. Riavviare il daemon multipath eseguendo un systemctl restart multipathd.

Configurare l'adattatore Broadcom FC per NVMe/FC

Per configurare un adattatore FC Broadcom, attenersi alla seguente procedura.

Per l'elenco aggiornato degli adattatori supportati, consultare "Tool di matrice di interoperabilità NetApp".

Fasi
  1. Verificare di utilizzare l'adattatore supportato.

    # cat /sys/class/scsi_host/host*/modelname
    LPe32002-M2
    LPe32002-M2
    # cat /sys/class/scsi_host/host*/modeldesc
    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
  2. Verificare che lpfc_enable_fc4_type è impostato su "3".

    # cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
    3
  3. Verificare che le porte dell'iniziatore siano attive e in esecuzione e che siano in grado di visualizzare i file LIF di destinazione.

    # cat /sys/class/fc_host/host*/port_name
    0x100000109b1c1204
    0x100000109b1c1205
    # cat /sys/class/fc_host/host*/port_state
    Online
    Online
    # cat /sys/class/scsi_host/host*/nvme_info
    NVME Initiator Enabled
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x100000109b1c1204 WWNN x200000109b1c1204 DID x011d00 ONLINE
    NVME RPORT WWPN x203800a098dfdd91 WWNN x203700a098dfdd91 DID x010c07 TARGET DISCSRVC ONLINE
    NVME RPORT WWPN x203900a098dfdd91 WWNN x203700a098dfdd91 DID x011507 TARGET DISCSRVC ONLINE
    NVME Statistics
    LS: Xmt 0000000f78 Cmpl 0000000f78 Abort 00000000
    LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000002fe29bba Issue 000000002fe29bc4 OutIO 000000000000000a
    abort 00001bc7 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00001e15 Err 0000d906
    NVME Initiator Enabled
    XRI Dist lpfc1 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc1 WWPN x100000109b1c1205 WWNN x200000109b1c1205 DID x011900 ONLINE
    NVME RPORT WWPN x203d00a098dfdd91 WWNN x203700a098dfdd91 DID x010007 TARGET DISCSRVC ONLINE
    NVME RPORT WWPN x203a00a098dfdd91 WWNN x203700a098dfdd91 DID x012a07 TARGET DISCSRVC ONLINE
    NVME Statistics
    LS: Xmt 0000000fa8 Cmpl 0000000fa8 Abort 00000000
    LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000002e14f170 Issue 000000002e14f17a OutIO 000000000000000a
    abort 000016bb noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00001f50 Err 0000d9f8
  4. Abilita dimensione i/o 1 MB (opzionale).

    Il lpfc_sg_seg_cnt Il parametro deve essere impostato su 256 per consentire al driver lpfc di emettere richieste di i/o fino a 1 MB di dimensione.

    # cat /etc/modprobe.d/lpfc.conf
    options lpfc lpfc_sg_seg_cnt=256
  5. Eseguire un dracut -f e riavviare l'host.

  6. Dopo l'avvio dell'host, verificare che lpfc_sg_seg_cnt sia impostato su 256.

    # cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
    256
  7. Verificare di utilizzare il firmware Broadcom lpfc consigliato e il driver inbox.

    # cat /sys/class/scsi_host/host*/fwrev
    12.6.182.8, sli-4:2:c
    12.6.182.8, sli-4:2:c
    # cat /sys/module/lpfc/version
    0:12.6.0.2
  8. Verificare che lpfc_enable_fc4_type è impostato su "3".

    # cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
    3
  9. Verificare che le porte dell'iniziatore siano attive e in esecuzione e che siano in grado di visualizzare i file LIF di destinazione.

    # cat /sys/class/fc_host/host*/port_name
    0x100000109b1c1204
    0x100000109b1c1205
    # cat /sys/class/fc_host/host*/port_state
    Online
    Online
    # cat /sys/class/scsi_host/host*/nvme_info
    NVME Initiator Enabled
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x100000109b1c1204 WWNN x200000109b1c1204 DID x011d00 ONLINE
    NVME RPORT WWPN x203800a098dfdd91 WWNN x203700a098dfdd91 DID x010c07 TARGET DISCSRVC ONLINE
    NVME RPORT WWPN x203900a098dfdd91 WWNN x203700a098dfdd91 DID x011507 TARGET DISCSRVC ONLINE
    NVME Statistics
    LS: Xmt 0000000f78 Cmpl 0000000f78 Abort 00000000
    LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000002fe29bba Issue 000000002fe29bc4 OutIO 000000000000000a
    abort 00001bc7 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00001e15 Err 0000d906
    NVME Initiator Enabled
    XRI Dist lpfc1 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc1 WWPN x100000109b1c1205 WWNN x200000109b1c1205 DID x011900 ONLINE
    NVME RPORT WWPN x203d00a098dfdd91 WWNN x203700a098dfdd91 DID x010007 TARGET DISCSRVC ONLINE
    NVME RPORT WWPN x203a00a098dfdd91 WWNN x203700a098dfdd91 DID x012a07 TARGET DISCSRVC ONLINE
    NVME Statistics
    LS: Xmt 0000000fa8 Cmpl 0000000fa8 Abort 00000000
    LS XMIT: Err 00000000 CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000002e14f170 Issue 000000002e14f17a OutIO 000000000000000a
    abort 000016bb noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00001f50 Err 0000d9f8
  10. Abilita dimensione i/o 1 MB (opzionale).

    Il lpfc_sg_seg_cnt Il parametro deve essere impostato su 256 per consentire al driver lpfc di emettere richieste di i/o fino a 1 MB di dimensione.

    # cat /etc/modprobe.d/lpfc.conf
    options lpfc lpfc_sg_seg_cnt=256
  11. Eseguire un dracut -f e riavviare l'host.

  12. Dopo l'avvio dell'host, verificare che lpfc_sg_seg_cnt sia impostato su 256.

    # cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt
    256

Validare NVMe/FC

Per validare NVMe/FC, è possibile utilizzare la seguente procedura.

Fasi
  1. Verificare le seguenti impostazioni NVMe/FC.

    # cat /sys/module/nvme_core/parameters/multipath
    Y
    # cat /sys/class/nvme-subsystem/nvme-subsys*/model
    NetApp ONTAP Controller
    NetApp ONTAP Controller
    # cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
    round-robin
    round-robin
  2. Verificare che gli spazi dei nomi siano stati creati.

    # nvme list
    Node SN Model Namespace Usage Format FW Rev
    ---------------- -------------------- -----------------------
    /dev/nvme0n1 80BADBKnB/JvAAAAAAAC NetApp ONTAP Controller 1 53.69 GB / 53.69 GB 4 KiB + 0 B FFFFFFFF
  3. Verificare lo stato dei percorsi ANA.

    # nvme list-subsys/dev/nvme0n1
    Nvme-subsysf0 – NQN=nqn.1992-08.com.netapp:sn.341541339b9511e8a9b500a098c80f09:subsystem.rhel_141_nvme_ss_10_0
    \
    +- nvme0 fc traddr=nn-0x202c00a098c80f09:pn-0x202d00a098c80f09 host_traddr=nn-0x20000090fae0ec61:pn-0x10000090fae0ec61 live optimized
    +- nvme1 fc traddr=nn-0x207300a098dfdd91:pn-0x207600a098dfdd91 host_traddr=nn-0x200000109b1c1204:pn-0x100000109b1c1204 live inaccessible
    +- nvme2 fc traddr=nn-0x207300a098dfdd91:pn-0x207500a098dfdd91 host_traddr=nn-0x200000109b1c1205:pn-0x100000109b1c1205 live optimized
    +- nvme3 fc traddr=nn-0x207300a098dfdd91:pn-0x207700a098dfdd91 host traddr=nn-0x200000109b1c1205:pn-0x100000109b1c1205 live inaccessible
  4. Verificare il plug-in NetApp per i dispositivi ONTAP.

    # nvme netapp ontapdevices -o column
    Device   Vserver  Namespace Path             NSID   UUID   Size
    -------  -------- -------------------------  ------ ----- -----
    /dev/nvme0n1   vs_nvme_10       /vol/rhel_141_vol_10_0/rhel_141_ns_10_0    1        55baf453-f629-4a18-9364-b6aee3f50dad   53.69GB
    
    # nvme netapp ontapdevices -o json
    {
       "ONTAPdevices" : [
       {
            Device" : "/dev/nvme0n1",
            "Vserver" : "vs_nvme_10",
            "Namespace_Path" : "/vol/rhel_141_vol_10_0/rhel_141_ns_10_0",
             "NSID" : 1,
             "UUID" : "55baf453-f629-4a18-9364-b6aee3f50dad",
             "Size" : "53.69GB",
             "LBA_Data_Size" : 4096,
             "Namespace_Size" : 13107200
        }
    ]