Skip to main content
日本語は機械翻訳による参考訳です。内容に矛盾や不一致があった場合には、英語の内容が優先されます。

ホスト側で NVMe over RoCE を設定します

共同作成者

RoCE 環境で NVMe イニシエータを設定するには、 rdma-core および nvme-CLI パッケージをインストールして設定し、イニシエータの IP アドレスを設定し、ホストで NVMe-oF レイヤを設定します。

作業を開始する前に

互換性のある最新のRHEL 7、RHEL 8、RHEL 9、SUSE Linux Enterprise Server 12または15サービスパックオペレーティングシステムが実行されている必要があります。を参照してください "NetApp Interoperability Matrix Tool で確認できます" をクリックして、最新の要件を確認してください。

手順
  1. RDMA パッケージと nvme-CLI パッケージをインストールします。

    • SLES 12 または SLES 15 *

      # zypper install rdma-core
      # zypper install nvme-cli
    • RHEL 7、RHEL 8、RHEL 9 *

    # yum install rdma-core
    # yum install nvme-cli
  2. RHEL 8およびRHEL 9の場合は、ネットワークスクリプトをインストールする。

    • RHEL 8 *

      # yum install network-scripts
    • RHEL 9*

    # yum install NetworkManager-initscripts-updown
  3. ホストのNQNを取得します。アレイに対してホストを設定する際に使用します。

    # cat /etc/nvme/hostnqn
  4. NVMe over RoCE の接続に使用されるイーサネットポートで、 IPv4 の IP アドレスを設定します。ネットワークインターフェイスごとに、そのインターフェイスに対応する変数を含む構成スクリプトを作成します。

    この手順で使用する変数は、サーバハードウェアとネットワーク環境に基づいています。変数には 'IPADDR' と 'gateway' が含まれます次に、 SLES および RHEL の例を示します。

    • SLES 12 および SLES 15 *

      以下の内容を含むサンプル・ファイル'/etc/sysconfig/network/ifcfg-eth4'を作成します

      BOOTPROTO='static'
      BROADCAST=
      ETHTOOL_OPTIONS=
      IPADDR='192.168.1.87/24'
      GATEWAY='192.168.1.1'
      MTU=
      NAME='MT27800 Family [ConnectX-5]'
      NETWORK=
      REMOTE_IPADDR=
      STARTMODE='auto'

      次に'/etc/sysconfig/network/ifcfg-eth5`のサンプルファイルを作成します

      BOOTPROTO='static'
      BROADCAST=
      ETHTOOL_OPTIONS=
      IPADDR='192.168.2.87/24'
      GATEWAY='192.168.2.1'
      MTU=
      NAME='MT27800 Family [ConnectX-5]'
      NETWORK=
      REMOTE_IPADDR=
      STARTMODE='auto'
    • RHEL 7 または RHEL 8*

      以下の内容を含むサンプル・ファイル'/etc/sysconfig/network-scripts/ifcfg-eth4'を作成します

      BOOTPROTO='static'
      BROADCAST=
      ETHTOOL_OPTIONS=
      IPADDR='192.168.1.87/24’
      GATEWAY='192.168.1.1'
      MTU=
      NAME='MT27800 Family [ConnectX-5]'
      NETWORK=
      REMOTE_IPADDR=
      STARTMODE='auto'

      次に'/etc/sysconfig/network-scripts/ifcfg-eth5`のサンプルファイルを作成します

      BOOTPROTO='static'
      BROADCAST=
      ETHTOOL_OPTIONS=
      IPADDR='192.168.2.87/24'
      GATEWAY='192.168.2.1'
      MTU=
      NAME='MT27800 Family [ConnectX-5]'
      NETWORK=
      REMOTE_IPADDR=
      STARTMODE='auto'
    • RHEL 9*

      を使用します nmtui 接続を活動化および編集するためのツール。以下はサンプルファイルです /etc/NetworkManager/system-connections/eth4.nmconnection ツールは次のものを生成します。

      [connection]
      id=eth4
      uuid=<unique uuid>
      type=ethernet
      interface-name=eth4
      
      [ethernet]
      mtu=4200
      
      [ipv4]
      address1=192.168.1.87/24
      method=manual
      
      [ipv6]
      addr-gen-mode=default
      method=auto
      
      [proxy]

      以下はサンプルファイルです /etc/NetworkManager/system-connections/eth5.nmconnection ツールは次のものを生成します。

    [connection]
    id=eth5
    uuid=<unique uuid>
    type=ethernet
    interface-name=eth5
    
    [ethernet]
    mtu=4200
    
    [ipv4]
    address1=192.168.2.87/24
    method=manual
    
    [ipv6]
    addr-gen-mode=default
    method=auto
    
    [proxy]
  5. ネットワークインターフェイスを有効にします。

    # ifup eth4
    # ifup eth5
  6. ホストで NVMe-oF レイヤを設定します。次のファイルを /etc/modules-load.d/ をロードするには nvme_rdma カーネルモジュールと、再起動後もカーネルモジュールが常にオンになっていることを確認します。

    # cat /etc/modules-load.d/nvme_rdma.conf
      nvme_rdma
  7. ホストをリブートします。

    を確認するには nvme_rdma カーネルモジュールがロードされました。次のコマンドを実行します。

    # lsmod | grep nvme
    nvme_rdma              36864  0
    nvme_fabrics           24576  1 nvme_rdma
    nvme_core             114688  5 nvme_rdma,nvme_fabrics
    rdma_cm               114688  7 rpcrdma,ib_srpt,ib_srp,nvme_rdma,ib_iser,ib_isert,rdma_ucm
    ib_core               393216  15 rdma_cm,ib_ipoib,rpcrdma,ib_srpt,ib_srp,nvme_rdma,iw_cm,ib_iser,ib_umad,ib_isert,rdma_ucm,ib_uverbs,mlx5_ib,qedr,ib_cm
    t10_pi                 16384  2 sd_mod,nvme_core