Skip to main content
SAN hosts and cloud clients
Se proporciona el idioma español mediante traducción automática para su comodidad. En caso de alguna inconsistencia, el inglés precede al español.

Configuración de host de NVMe-oF para RHEL 8,7 con ONTAP

Colaboradores

NVMe over Fabrics o NVMe-oF (incluidos NVMe/FC y otros transportes) es compatible con Red Hat Enterprise Linux (RHEL) 8,7 con ANA (Acceso asimétrico al espacio de nombres). ANA es el equivalente de acceso asimétrico de unidad lógica (ALUA) en el entorno NVMe-of y, actualmente, se implementa con NVMe Multipath en el kernel. Durante este procedimiento, se habilita NVMe-oF con NVMe Multipath en kernel mediante ANA en RHEL 8,7 y ONTAP como destino.

Consulte "Herramienta de matriz de interoperabilidad de NetApp" para obtener información precisa sobre las configuraciones compatibles.

Funciones

RHEL 8.7 incluye compatibilidad con NVMe/TCP (como función de vista previa de tecnología), además de NVMe/FC. El plugin de NetApp en el paquete nvme-cli nativo puede mostrar detalles de ONTAP para espacios de nombres NVMe/FC y NVMe/TCP.

Limitaciones conocidas

  • Para RHEL 8.7, la función multivía de NVMe en el kernel sigue deshabilitada de forma predeterminada. Por lo tanto, debe habilitarla manualmente.

  • NVMe/TCP en RHEL 8.7 sigue siendo una función de vista previa de la tecnología debido a problemas abiertos. Consulte la "Notas de la versión de RHEL 8.7" para obtener más detalles.

  • Actualmente no se admite el arranque SAN mediante el protocolo NVMe-oF.

Habilite NVMe multivía en el kernel

Es posible utilizar el siguiente procedimiento para habilitar la multivía NVMe in-kernel.

Pasos
  1. Instale RHEL 8.7 en el servidor.

  2. Una vez finalizada la instalación, compruebe que está ejecutando el kernel RHEL 8.7 especificado. Consulte "Matriz de interoperabilidad de NetApp" para obtener la lista más actual de versiones compatibles.

    Ejemplo:

    # uname -r
    4.18.0-425.3.1.el8.x86_64
  3. Instale el nvme-cli paquete:

    Ejemplo:

    # rpm -qa|grep nvme-cli
    nvme-cli-1.16-5.el8.x86_64
  4. Habilitar multivía en el kernel NVMe:

    ejemplo

    # grubby --args=nvme_core.multipath=Y --update-kernel
    /boot/vmlinuz-4.18.0-425.3.1.el8.x86_64
  5. En el host, compruebe la cadena NQN del host en /etc/nvme/hostnqn Y verifique que coincida con la cadena del host NQN para el subsistema correspondiente en la cabina de ONTAP. Ejemplo:

    # cat /etc/nvme/hostnqn
    
              nqn.2014-08.org.nvmexpress:uuid:a7f7a1d4-311a-11e8-b634-            7ed30aef10b7
    
    ::> vserver nvme subsystem host show -vserver vs_nvme167
    Vserver     Subsystem       Host NQN
    ----------- --------------- ----------------
    vs_nvme167 rhel_167_LPe35002  nqn.2014-08.org.nvmexpress:uuid: a7f7a1d4-311a-11e8-b634-7ed30aef10b7
    Nota Si las cadenas del host NQN no coinciden, se debe usar vserver modify Comando para actualizar la cadena NQN del host en el subsistema NVMe de ONTAP correspondiente para que coincidan con la cadena NQN del host /etc/nvme/hostnqn en el host.
  6. Reinicie el host.

    Nota

    Si tiene intención de ejecutar tráfico coexistente tanto NVMe como SCSI en el mismo host, NetApp recomienda utilizar NVMe multivía in-kernel para espacios de nombres ONTAP y dm-multipath para LUN de ONTAP respectivamente. Esto significa que los espacios de nombres ONTAP deben excluirse de dm-multipath para evitar que dm-multipath reclamen estos dispositivos de espacio de nombres. Para ello, agregue el valor ENABLE_FOREIGN al /etc/multipath.conf archivo:

    # cat /etc/multipath.conf
    defaults {
            enable_foreign     NONE
    }

    Reinicie el daemon multipathd ejecutando un systemctl restart multipathd comando para permitir que la nueva configuración surta efecto.

Configure NVMe/FC

Puede configurar NVMe/FC para adaptadores Broadcom/Emulex o Marvell/Qlogic.

Broadcom/Emulex
Pasos
  1. Compruebe que está utilizando el adaptador compatible. Consulte "Matriz de interoperabilidad de NetApp" para obtener la lista más actual de adaptadores compatibles.

    # cat /sys/class/scsi_host/host*/modelname
    LPe35002-M2
    LPe35002-M2
    # cat /sys/class/scsi_host/host*/modeldesc
    Emulex LightPulse LPe35002-M2 2-Port 32Gb Fibre Channel Adapter
    Emulex LightPulse LPe35002-M2 2-Port 32Gb Fibre Channel Adapter
  2. Compruebe que está utilizando el firmware de Broadcom lpfc y el controlador de bandeja de entrada recomendados. Consulte "Matriz de interoperabilidad de NetApp" para obtener la lista más actual de versiones de firmware y controladores de adaptador compatibles.

    # cat /sys/class/scsi_host/host*/fwrev
    14.0.505.12, sli-4:6:d
    14.0.505.12, sli-4:6:d
    # cat /sys/module/lpfc/version
    0:14.0.0.15
  3. Compruebe que lpfc_enable_fc4_type se establece en 3

    # cat /sys/module/lpfc/parameters/lpfc_enable_fc4_type
    3
  4. Compruebe que los puertos iniciador están en funcionamiento y que puede ver las LIF de destino.

    # cat /sys/class/fc_host/host*/port_name
    0x100000109b95467c
    0x100000109b95467b
    # cat /sys/class/fc_host/host*/port_state
    Online
    Online
    # cat /sys/class/scsi_host/host*/nvme_info
    NVME Initiator Enabled
    XRI Dist lpfc1 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc1 WWPN x100000109b95467c WWNN x200000109b95467c DID x0a1500 ONLINE
    NVME RPORT       WWPN x2071d039ea36a105 WWNN x206ed039ea36a105 DID x0a0907 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x2072d039ea36a105 WWNN x206ed039ea36a105 DID x0a0805 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 00000001c7 Cmpl 00000001c7 Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 0000000004909837 Issue 0000000004908cfc OutIO fffffffffffff4c5
    abort 0000004a noxri 00000000 nondlp 00000458 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 00000061 Err 00017f43
    
    NVME Initiator Enabled
    XRI Dist lpfc0 Total 6144 IO 5894 ELS 250
    NVME LPORT lpfc0 WWPN x100000109b95467b WWNN x200000109b95467b DID x0a1100 ONLINE
    NVME RPORT       WWPN x2070d039ea36a105 WWNN x206ed039ea36a105 DID x0a1007 TARGET DISCSRVC ONLINE
    NVME RPORT       WWPN x206fd039ea36a105 WWNN x206ed039ea36a105 DID x0a0c05 TARGET DISCSRVC ONLINE
    
    NVME Statistics
    LS: Xmt 00000001c7 Cmpl 00000001c7 Abort 00000000
    LS XMIT: Err 00000000  CMPL: xb 00000000 Err 00000000
    Total FCP Cmpl 0000000004909464 Issue 0000000004908531 OutIO fffffffffffff0cd
    abort 0000004f noxri 00000000 nondlp 00000361 qdepth 00000000 wqerr 00000000 err 00000000
    FCP CMPL: xb 0000006b Err 00017f99
Adaptador FC Marvell/QLogic para NVMe/FC

El controlador de la bandeja de entrada nativo qla2xxx que se incluye en el kernel RHEL 8,7 tiene las correcciones más recientes. Estas correcciones son esenciales para la compatibilidad con ONTAP.

Pasos
  1. Compruebe que está ejecutando las versiones de firmware y controlador del adaptador compatibles mediante el siguiente comando:

    # cat /sys/class/fc_host/host*/symbolic_name
    QLE2772 FW:v9.08.02 DVR:v10.02.07.400-k-debug
    QLE2772 FW:v9.08.02 DVR:v10.02.07.400-k-debug
  2. Verificación ql2xnvmeenable Is set, que permite que el adaptador Marvell funcione como iniciador de NVMe/FC usando el siguiente comando:

    # cat /sys/module/qla2xxx/parameters/ql2xnvmeenable
    1

Habilitar 1MB I/O (opcional)

ONTAP informa de un MDT (tamaño de transferencia de MAX Data) de 8 en los datos Identify Controller. Esto significa que el tamaño máximo de solicitud de E/S puede ser de hasta 1MB TB. Para emitir solicitudes de I/O de tamaño 1 MB para un host Broadcom NVMe/FC, debe aumentar lpfc el valor lpfc_sg_seg_cnt del parámetro a 256 con respecto al valor predeterminado de 64.

Nota Estos pasos no se aplican a los hosts Qlogic NVMe/FC.
Pasos
  1. Defina el lpfc_sg_seg_cnt parámetro en 256:

    cat /etc/modprobe.d/lpfc.conf
    options lpfc lpfc_sg_seg_cnt=256
  2. Ejecute dracut -f el comando y reinicie el host.

  3. Compruebe que el valor esperado de lpfc_sg_seg_cnt es 256:

    cat /sys/module/lpfc/parameters/lpfc_sg_seg_cnt

Configure NVMe/TCP

NVMe/TCP no tiene la funcionalidad de conexión automática. Por lo tanto, si una ruta deja de funcionar y no se restablece en el tiempo de espera predeterminado de 10 minutos, no se puede volver a conectar automáticamente NVMe/TCP. Para evitar que se agote el tiempo de espera, debe definir el período de reintento para los eventos de conmutación por error en al menos 30 minutos.

Pasos
  1. Compruebe si el puerto iniciador puede recuperar los datos de la página de registro de detección en las LIF NVMe/TCP admitidas:

    # nvme discover -t tcp -w 192.168.211.5 -a 192.168.211.14
    
    Discovery Log Number of Records 8, Generation counter 10
    
    =====Discovery Log Entry 0======
    trtype:  tcp
    adrfam:  ipv4
    subtype: unrecognized
    treq:    not specified
    portid:  0
    trsvcid: 8009
    subnqn:  nqn.199208.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:discovery
    traddr:  192.168.211.15
    sectype: none
    =====Discovery Log Entry 1======
    trtype:  tcp
    adrfam:  ipv4
    subtype: unrecognized
    treq:    not specified
    portid:  1
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:discovery
    traddr:  192.168.111.15
    sectype: none
    =====Discovery Log Entry 2======
    trtype:  tcp
    adrfam:  ipv4
    subtype: unrecognized
    treq:    not specified
    portid:  2
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:discovery
    traddr:  192.168.211.14
    sectype: none
    =====Discovery Log Entry 3======
    trtype:  tcp
    adrfam:  ipv4
    subtype: unrecognized
    treq:    not specified
    portid:  3
    trsvcid: 8009
    subnqn:  nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:discovery
    traddr:  192.168.111.14
    sectype: none
    =====Discovery Log Entry 4======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  0
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:subsystem.rhel_tcp_165
    traddr:  192.168.211.15
    sectype: none
    =====Discovery Log Entry 5======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  1
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:subsystem.rhel_tcp_165
    traddr:  192.168.111.15
    sectype: none
    =====Discovery Log Entry 6======
    
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    portid:  2
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:subsystem.rhel_tcp_165
    traddr:  192.168.211.14
    sectype: none
    
    =====Discovery Log Entry 7======
    trtype:  tcp
    adrfam:  ipv4
    subtype: nvme subsystem
    treq:    not specified
    
       portid:  3
    
    trsvcid: 4420
    subnqn:  nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:subsystem.rhel_tcp_165
    traddr:  192.168.111.14
    sectype: none
    [root@R650-13-79 ~]#
  2. Compruebe que otros combinados de LIF iniciador-objetivo NVMe/TCP pueden recuperar correctamente los datos de la página de registro de detección. Por ejemplo:

    # nvme discover -t tcp -w 192.168.211.5 -a 192.168.211.14
    # nvme discover -t tcp -w 192.168.211.5 -a 192.168.211.15
    # nvme discover -t tcp -w 192.168.111.5 -a 192.168.111.14
    # nvme discover -t tcp -w 192.168.111.5 -a 192.168.111.15
  3. Ejecución nvme connect-all Command entre todas las LIF de iniciador NVMe/TCP admitidas en los nodos. Asegúrese de establecer un valor más largo ctrl_loss_tmo período de reintento del temporizador (por ejemplo, 30 minutos, que se puede establecer a través de -l 1800) durante la conexión-todo para que vuelva a intentarlo durante un período más largo en caso de una pérdida de ruta. Por ejemplo:

    # nvme connect-all -t tcp -w 192.168.211.5-a 192.168.211.14 -l 1800
    # nvme connect-all -t tcp -w 192.168.211.5 -a 192.168.211.15 -l 1800
    # nvme connect-all -t tcp -w 192.168.111.5 -a 192.168.111.14 -l 1800
    # nvme connect-all -t tcp -w 192.168.111.5 -a 192.168.111.15 -l 1800

Valide NVMe-of

Puede usar el siguiente procedimiento para validar NVMe-oF.

Pasos
  1. Compruebe que el acceso multivía de NVMe en el kernel esté habilitado realmente mediante la comprobación:

    # cat /sys/module/nvme_core/parameters/multipath
    Y
  2. Compruebe que la configuración de NVMe-of adecuada (como, model establezca en NetApp ONTAP Controller y equilibrio de carga iopolicy establezca en round-robin) Para los respectivos espacios de nombres ONTAP se reflejan correctamente en el host:

    # cat /sys/class/nvme-subsystem/nvme-subsys*/model
    NetApp ONTAP Controller
    NetApp ONTAP Controller
    
    # cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
    round-robin
    round-robin
  3. Compruebe que los espacios de nombres de ONTAP se reflejan correctamente en el host. Por ejemplo:

    # nvme list
    Node           SN                    Model                   Namespace
    ------------   --------------------- ---------------------------------
    /dev/nvme0n1   81Gx7NSiKSRNAAAAAAAB   NetApp ONTAP Controller   1
    
    Usage                Format         FW Rev
    -------------------  -----------    --------
    21.47  GB /  21.47  GB  4 KiB + 0 B    FFFFFFFF
  4. Compruebe que el estado de la controladora de cada ruta sea activo y que tenga el estado de ANA adecuado. Por ejemplo:

    # nvme list-subsys /dev/nvme1n1
    
    nvme-subsys0 - NQN=nqn.1992-08.com.netapp:sn.154a5833c78c11ecb069d039ea359e4b:subsystem.rhel_tcp_165
    
    \
    
     +- nvme0 tcp traddr=192.168.211.15 trsvcid=4420 host_traddr=192.168.211.5 live non-optimized
    
     +- nvme1 tcp traddr=192.168.211.14 trsvcid=4420 host_traddr=192.168.211.5 live optimized
    
     +- nvme2 tcp traddr=192.168.111.15 trsvcid=4420 host_traddr=192.168.111.5 live non-optimized
    
     +- nvme3 tcp traddr=192.168.111.14 trsvcid=4420 host_traddr=192.168.111.5 live optimized
  5. Confirmar que el complemento de NetApp muestra los valores adecuados para cada dispositivo de espacio de nombres ONTAP. Por ejemplo:

    # nvme netapp ontapdevices -o column
    Device       Vserver          Namespace Path
    ---------    -------          --------------------------------------------------
    /dev/nvme0n1 vs_tcp79     /vol/vol1/ns1 
    
    NSID  UUID                                   Size
    ----  ------------------------------         ------
    1     79c2c569-b7fa-42d5-b870-d9d6d7e5fa84  21.47GB
    
    
    # nvme netapp ontapdevices -o json
    {
    
      "ONTAPdevices" : [
      {
    
          "Device" : "/dev/nvme0n1",
          "Vserver" : "vs_tcp79",
          "Namespace_Path" : "/vol/vol1/ns1",
          "NSID" : 1,
          "UUID" : "79c2c569-b7fa-42d5-b870-d9d6d7e5fa84",
          "Size" : "21.47GB",
          "LBA_Data_Size" : 4096,
          "Namespace_Size" : 5242880
        },
    
    ]
    
    }

Problemas conocidos

La configuración de host de NVMe-oF para RHEL 8,7 con ONTAP tiene los siguientes problemas conocidos:

ID de error de NetApp Título Descripción

"1479047"

Los hosts NVMe-of de RHEL 8.7 crean controladoras de detección persistente duplicadas

En los hosts NVMe over Fabrics (NVMe-of), es posible utilizar el comando "nvme Discover -p" para crear controladoras de detección persistente (PDCs). Cuando se utiliza este comando, sólo se debe crear un PDC por combinación iniciador-destino. Sin embargo, si ejecuta ONTAP 9.10.1 y Red Hat Enterprise Linux (RHEL) 8.7 con un host NVMe-of, se crea un PDC duplicado cada vez que se ejecuta "nvme Discover -p". Esto lleva a un uso innecesario de recursos tanto en el host como en el destino.