Skip to main content
SAN hosts and cloud clients
La versione in lingua italiana fornita proviene da una traduzione automatica. Per eventuali incoerenze, fare riferimento alla versione in lingua inglese.

Configurazione host NVMe-of per RHEL 9,1 con ONTAP

Collaboratori

NVMe over Fabrics o NVMe-of (inclusi NVMe/FC e NVMe/TCP) è supportato con RHEL 9.1 con accesso asimmetrico allo spazio dei nomi (ANA) necessario per superare i failover dello storage (SFO) sull'array ONTAP. ANA è l'equivalente di ALUA (Asymmetric Logical Unit Access) nell'ambiente NVMe-of ed è attualmente implementato con il multipath NVMe nel kernel. Questa procedura consente di abilitare NVMe-of con multipath NVMe in-kernel, utilizzando ANA su RHEL 9,1 e ONTAP come destinazione.

Il seguente supporto è disponibile per la configurazione host NVMe-of per RHEL 9,1 con ONTAP:

  • Supporto per NVMe su TCP (NVMe/TCP) oltre a NVMe/FC. Il plug-in NetApp nel pacchetto nvme-cli nativo visualizza i dettagli ONTAP per gli spazi dei nomi NVMe/FC e NVMe/TCP.

  • Utilizzo di traffico NVMe e SCSI coesistente sullo stesso host su un determinato HBA (host bus adapter), senza le impostazioni esplicite di dm-multipath per impedire la richiesta di spazi dei nomi NVMe.

Fare riferimento a. "Tool di matrice di interoperabilità NetApp" per informazioni dettagliate sulle configurazioni supportate.

Caratteristiche

RHEL 9.1 include il supporto per il multipath NVMe nel kernel per gli spazi dei nomi NVMe abilitati per impostazione predefinita, senza la necessità di impostazioni esplicite.

Limitazioni note

L'avvio SAN che utilizza il protocollo NVMe-of non è attualmente supportato.

Abilitare il multipath NVMe nel kernel

Puoi usare la seguente procedura per abilitare il multipath NVMe in-kernel.

Fasi
  1. Installare RHEL 9,1 sul server.

  2. Una volta completata l'installazione, verificare che il kernel RHEL 9,1 specificato sia in esecuzione. Vedere "Tool di matrice di interoperabilità NetApp" per l'elenco più aggiornato delle versioni supportate.

    Esempio:

    # uname -r
     5.14.0-162.6.1.el9_1.x86_64
  3. Installare nvme-cli pacchetto:

    Esempio:

    # rpm -qa|grep nvme-cli
    nvme-cli-2.0-4.el9.x86_64
  4. Sull'host, controllare la stringa NQN host su /etc/nvme/hostnqn E verificare che corrisponda alla stringa NQN host per il sottosistema corrispondente sull'array ONTAP. Esempio:

    # cat /etc/nvme/hostnqn
    nqn.2014-08.org.nvmexpress:uuid:325e7554-1f9b-11ec-8489-3a68dd61a4df
    
    
    ::> vserver nvme subsystem host show -vserver vs_nvme207
    Vserver     Subsystem       Host NQN
    ----------- --------------- ----------------------------------------------------------
    vs_nvme207 rhel_207_LPe32002     nqn.2014-08.org.nvmexpress:uuid:325e7554-1f9b-11ec-8489-3a68dd61a4df
    Nota Se le stringhe NQN host non corrispondono, utilizzare vserver modify Per aggiornare la stringa NQN host nel sottosistema NVMe ONTAP corrispondente in modo che corrisponda alla stringa NQN host /etc/nvme/hostnqn sull'host.
  5. Riavviare l'host.

Configurare NVMe/FC

È possibile configurare NVMe/FC per gli adattatori Broadcom/Emulex o Marvell/Qlogic.

Broadcom/Emulex
Fasi
  1. Verificare di utilizzare l'adattatore supportato. Vedere "Tool di matrice di interoperabilità NetApp" per l'elenco più aggiornato delle schede supportate.

    # cat /sys/class/scsi_host/host*/modelname
    LPe32002-M2
    LPe32002-M2
    
    # cat /sys/class/scsi_host/host*/modeldesc
    
    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
    Emulex LightPulse LPe32002-M2 2-Port 32Gb Fibre Channel Adapter
  2. Verificare di utilizzare il firmware Broadcom lpfc e il driver della posta in arrivo consigliati. Vedere "Tool di matrice di interoperabilità NetApp" per l'elenco più aggiornato delle versioni firmware e dei driver della scheda di rete supportati.

    # cat /sys/class/scsi_host/host*/fwrev
    14.0.505.11, sli-4:2:c
    14.0.505.11, sli-4:2:c
    # cat /sys/module/lpfc/version
    0:14.2.0.5
  3. Verificare che lpfc_enable_fc4_type è impostato su 3

    # cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
    3
  4. Verificare che le porte dell'iniziatore siano attive e in esecuzione e che siano visualizzate le LIF di destinazione.

    # cat /sys/class/fc_host/host*/port_name
    0x100000109b1b95ef
    0x100000109b1b95f0
    # cat /sys/class/fc_host/host*/port_state
    Online
    Online
    # cat /sys/class/scsi_host/host*/nvme_info
    NVME Initiator Enabled
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x100000109b1b95ef WWNN x200000109b1b95ef DID x061700 ONLINE
    NVME RPORT       WWPN x2035d039ea1308e5 WWNN x2082d039ea1308e5 DID x062f05 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2083d039ea1308e5 WWNN x2082d039ea1308e5 DID x062407 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 000000000e Cmpl 000000000e Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000000001df6c Issue 000000000001df6e OutIO 0000000000000002
            abort 00000000 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000000 Err 00000004
    
    NVME Initiator Enabled
    XRI Dist lpfc1 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc1 WWPN x100000109b1b95f0 WWNN x200000109b1b95f0 DID x061400 ONLINE
    NVME RPORT       WWPN x2036d039ea1308e5 WWNN x2082d039ea1308e5 DID x061605 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2037d039ea1308e5 WWNN x2082d039ea1308e5 DID x062007 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 000000000e Cmpl 000000000e Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 000000000001dd28 Issue 000000000001dd29 OutIO 0000000000000001
            abort 00000000 noxri 00000000 nondlp 00000000 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000000 Err 00000004
Adattatore FC Marvell/QLogic per NVMe/FC

Il driver inbox nativo qla2xxx incluso nel kernel RHEL 9,1 ha le ultime correzioni che sono. Queste correzioni sono essenziali per il supporto di ONTAP.

Fasi
  1. Verificare che siano in esecuzione le versioni del firmware e del driver della scheda di rete supportati utilizzando il seguente comando:

    # cat /sys/class/fc_host/host*/symbolic_name
    QLE2772 FW:v9.08.02 DVR:v10.02.07.400-k-debug
    QLE2772 FW:v9.08.02 DVR:v10.02.07.400-k-debug
  2. Verificare ql2xnvmeenable È impostato per consentire all'adattatore Marvell di funzionare come iniziatore NVMe/FC utilizzando il seguente comando:

    # cat /sys/module/qla2xxx/parameters/ql2xnvmeenable
    1

Abilita i/o da 1 MB (opzionale)

ONTAP riporta un MDTS (MAX Data Transfer Size) di 8 nei dati del controller di identificazione. Ciò significa che le dimensioni massime delle richieste i/o possono essere fino a 1MB MB. Per emettere richieste di i/o di dimensioni pari a 1 MB per un host Broadcom NVMe/FC, è necessario aumentare il lpfc valore del lpfc_sg_seg_cnt parametro a 256 dal valore predefinito di 64.

Nota I seguenti passaggi non si applicano agli host Qlogic NVMe/FC.
Fasi
  1. Impostare il lpfc_sg_seg_cnt parametro su 256:

    cat /etc/modprobe.d/lpfc.conf
    options lpfc lpfc_sg_seg_cnt=256
  2. Eseguire il dracut -f comando e riavviare l'host:

  3. Verificare che lpfc_sg_seg_cnt sia 256:

    cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt

    Il valore previsto è 256.

Configurare NVMe/TCP

NVMe/TCP non dispone della funzionalità di connessione automatica. Pertanto, se un percorso non viene eseguito e non viene ripristinato entro il periodo di timeout predefinito di 10 minuti, NVMe/TCP non può riconnettersi automaticamente. Per evitare un timeout, impostare il periodo di ripetizione degli eventi di failover su almeno 30 minuti.

Fasi
  1. Verificare se la porta iniziatore è in grado di recuperare i dati della pagina del registro di rilevamento attraverso le LIF NVMe/TCP supportate:

    # nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.51
    
    Discovery Log Number of Records 10, Generation counter 119
    =====Discovery Log Entry 0======
    trtype: tcp
    adrfam: ipv4
    subtype: nvme subsystem
    treq: not specified
    portid: 0
    trsvcid: 4420
    subnqn: nqn.1992-08.com.netapp:sn.56e362e9bb4f11ebbaded039ea165abc:subsystem.nvme_118_tcp_1
    traddr: 192.168.2.56
    sectype: none
    =====Discovery Log Entry 1======
    trtype: tcp
    adrfam: ipv4
    subtype: nvme subsystem
    treq: not specified
    portid: 1
    trsvcid: 4420
    subnqn: nqn.1992-08.com.netapp:sn.56e362e9bb4f11ebbaded039ea165abc:subsystem.nvme_118_tcp_1
    traddr: 192.168.1.51
    sectype: none
    =====Discovery Log Entry 2======
    trtype: tcp
    adrfam: ipv4
    subtype: nvme subsystem
    treq: not specified
    portid: 0
    trsvcid: 4420
    subnqn: nqn.1992-08.com.netapp:sn.56e362e9bb4f11ebbaded039ea165abc:subsystem.nvme_118_tcp_2
    traddr: 192.168.2.56
    sectype: none
    ...
  2. Verificare che le altre combo LIF NVMe/TCP initiator-target siano in grado di recuperare correttamente i dati della pagina del registro di rilevamento. Ad esempio:

    # nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.51
    # nvme discover -t tcp -w 192.168.1.8 -a 192.168.1.52
    # nvme discover -t tcp -w 192.168.2.9 -a 192.168.2.56
    # nvme discover -t tcp -w 192.168.2.9 -a 192.168.2.57
  3. Eseguire nvme connect-all Comando tra tutti i LIF di destinazione degli iniziatori NVMe/TCP supportati nei nodi. Assicurarsi di impostare un valore più lungo ctrl_loss_tmo intervallo di ripetizione del timer (ad esempio, 30 minuti, che può essere impostato attraverso -l 1800) durante l'esecuzione di connect-all in modo che ritentare per un periodo di tempo più lungo in caso di perdita di percorso. Ad esempio:

    # nvme connect-all -t tcp -w 192.168.1.8 -a 192.168.1.51 -l 1800
    # nvme connect-all -t tcp -w 192.168.1.8 -a 192.168.1.52 -l 1800
    # nvme connect-all -t tcp -w 192.168.2.9 -a 192.168.2.56 -l 1800
    # nvme connect-all -t tcp -w 192.168.2.9 -a 192.168.2.57 -l 1800

Validare NVMe-of

È possibile utilizzare la seguente procedura per convalidare NVMe-of.

Fasi
  1. Verificare che il multipath NVMe in-kernel sia effettivamente attivato selezionando:

    # cat /sys/module/nvme_core/parameters/multipath
    Y
  2. Verificare che le impostazioni NVMe-of appropriate (ad esempio, model impostare su NetApp ONTAP Controller e bilanciamento del carico iopolicy impostare su round-robin) Per i rispettivi spazi dei nomi ONTAP riflettere correttamente sull'host:

    # cat /sys/class/nvme-subsystem/nvme-subsys*/model
    NetApp ONTAP Controller
    NetApp ONTAP Controller
    # cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
    round-robin
    round-robin
  3. Verificare che gli spazi dei nomi ONTAP riflettano correttamente sull'host. Ad esempio:

    # nvme list
    Node           SN                    Model                   Namespace
    ------------   --------------------- ---------------------------------
    /dev/nvme0n1   81CZ5BQuUNfGAAAAAAAB   NetApp ONTAP Controller   1
    
    Usage                Format         FW Rev
    -------------------  -----------    --------
    85.90 GB / 85.90 GB  4 KiB + 0 B    FFFFFFFF
  4. Verificare che lo stato del controller di ciascun percorso sia attivo e che lo stato ANA sia corretto. Ad esempio:

    Esempio (a):

    # nvme list-subsys /dev/nvme0n1
    nvme-subsys10 - NQN=nqn.1992-08.com.netapp:sn.82e7f9edc72311ec8187d039ea14107d:subsystem.rhel_131_QLe2742
    \
     +- nvme2 fc traddr=nn-0x2038d039ea1308e5:pn-0x2039d039ea1308e5,host_traddr=nn-0x20000024ff171d30:pn-0x21000024ff171d30 live non-optimized
     +- nvme3 fc traddr=nn-0x2038d039ea1308e5:pn-0x203cd039ea1308e5,host_traddr=nn-0x20000024ff171d31:pn-0x21000024ff171d31 live optimized
     +- nvme4 fc traddr=nn-0x2038d039ea1308e5:pn-0x203bd039ea1308e5,host_traddr=nn-0x20000024ff171d30:pn-0x21000024ff171d30 live optimized
     +- nvme5 fc traddr=nn-0x2038d039ea1308e5:pn-0x203ad039ea1308e5,host_traddr=nn-0x20000024ff171d31:pn-0x21000024ff171d31 live non-optimized

    Esempio (b):

    # nvme list-subsys /dev/nvme0n1
    nvme-subsys1 - NQN=nqn.1992-08.com.netapp:sn.bf0691a7c74411ec8187d039ea14107d:subsystem.rhel_tcp_133
    \
     +- nvme1 tcp traddr=192.168.166.21,trsvcid=4420,host_traddr=192.168.166.5 live non-optimized
     +- nvme2 tcp traddr=192.168.166.20,trsvcid=4420,host_traddr=192.168.166.5 live optimized
     +- nvme3 tcp traddr=192.168.167.21,trsvcid=4420,host_traddr=192.168.167.5 live non-optimized
     +- nvme4 tcp traddr=192.168.167.20,trsvcid=4420,host_traddr=192.168.167.5 live optimized
  5. Verificare che il plug-in NetApp visualizzi i valori corretti per ciascun dispositivo dello spazio dei nomi ONTAP.

    Esempio (a):

    # nvme netapp ontapdevices -o column
    Device       Vserver          Namespace Path
    ---------    -------          --------------------------------------------------
    /dev/nvme0n1 vs_tcp79     /vol/vol1/ns1 
    
    NSID  UUID                                   Size
    ----  ------------------------------         ------
    1     79c2c569-b7fa-42d5-b870-d9d6d7e5fa84  21.47GB
    
    
    # nvme netapp ontapdevices -o json
    {
    
      "ONTAPdevices" : [
      {
    
          "Device" : "/dev/nvme0n1",
          "Vserver" : "vs_tcp79",
          "Namespace_Path" : "/vol/vol1/ns1",
          "NSID" : 1,
          "UUID" : "79c2c569-b7fa-42d5-b870-d9d6d7e5fa84",
          "Size" : "21.47GB",
          "LBA_Data_Size" : 4096,
          "Namespace_Size" : 5242880
        },
    
    ]
    
    }

    Esempio (b):

    # nvme netapp ontapdevices -o column
    
    Device           Vserver                   Namespace Path
    ---------------- ------------------------- -----------------------------------
    /dev/nvme1n1     vs_tcp_133                /vol/vol1/ns1
    
    NSID UUID                                   Size
    -------------------------------------------------------
    1    1ef7cb56-bfed-43c1-97c1-ef22eeb92657   21.47GB
    
    # nvme netapp ontapdevices -o json
    {
      "ONTAPdevices":[
        {
          "Device":"/dev/nvme1n1",
          "Vserver":"vs_tcp_133",
          "Namespace_Path":"/vol/vol1/ns1",
          "NSID":1,
          "UUID":"1ef7cb56-bfed-43c1-97c1-ef22eeb92657",
          "Size":"21.47GB",
          "LBA_Data_Size":4096,
          "Namespace_Size":5242880
        },
      ]
    
    }

Problemi noti

La configurazione dell'host NVMe-of per RHEL 9.1 con ONTAP presenta i seguenti problemi noti:

ID bug NetApp Titolo Descrizione

1503468

nvme list-subsys il comando restituisce un elenco di controller nvme ripetuto per un determinato sottosistema

Il nvme list-subsys il comando dovrebbe restituire un elenco univoco di controller nvme associati a un determinato sottosistema. In RHEL 9.1, il nvme list-subsys Il comando restituisce i controller nvme con il rispettivo stato ANA per tutti gli spazi dei nomi che appartengono a un determinato sottosistema. Tuttavia, lo stato ANA è un attributo per namespace, pertanto, sarebbe ideale visualizzare voci univoche del controller nvme con lo stato del percorso se si elenca la sintassi del comando del sottosistema per un dato namespace.