Skip to main content
BeeGFS on NetApp with E-Series Storage
简体中文版经机器翻译而成,仅供参考。如与英语版出现任何冲突,应以英语版为准。

技术要求

贡献者

要在NetApp解决方案 上实施BeeGFS、请确保您的环境满足技术要求。

硬件要求

下表列出了在NetApp解决方案 上实施BeeGFS的单个第二代组件设计所需的硬件组件。

备注 在任何特定解决方案 实施中使用的硬件组件可能会因客户要求而异。
计数 硬件组件 要求

2.

BeeGFS文件节点。

每个文件节点都应满足或超出以下配置、以实现预期性能。

处理器:

  • 2个AMD EPYC 7343 16C 3.2 GHz。

  • 配置为两个NUMA分区。

内存:

  • 256 GB。

  • 16个16 GB TruDDR4 3200MHz (2Rx8 1.2V) RDIMM-A (首选较小的DIMM、而不是较大的DIMM)。

  • 填充以最大程度地提高内存带宽。

  • PCIe扩展:四个PCE第4代x16插槽:*

  • 每个NUMA分区有两个插槽。

  • 每个插槽都应为Mellanox MCX653106A-HDAT适配器提供足够的电源/散热。

其他:

  • 在RAID 1中为操作系统配置两个1 TB 7.2K SATA驱动器(或类似驱动器)。

  • 10GbE OCP 3.0适配器(或类似适配器)、用于带内操作系统管理。

  • 采用Redfish API的1GbE BMC、用于带外服务器管理。

  • 双热插拔电源和高性能风扇。

  • 如果需要连接到存储InfiniBand交换机、则必须支持Mellanox光纤InfiniBand缆线。

联想SR665:

  • 自定义NetApp型号包括支持双端口Mellanox ConnectX-6适配器所需的XiclityL控制器固件版本。有关订购详细信息、请联系NetApp。

8.

Mellanox ConnectX-6 HCA (适用于文件节点)。

  • MCX653106A-HDAT主机通道适配器(HDR IB 200GB、双端口QSFP56、PCIe4.0 x16)。

8.

100万根HDR InfiniBand缆线(用于文件/块节点直接连接)。

  • MCP1650-H001E30 (1米Mellanox无源铜缆、IB HDR、高达200 Gbps、QSFP56、30AWM)。

如果需要、可以调整此长度、以考虑文件节点与块节点之间的距离较长。

8.

HDR InfiniBand缆线(用于文件节点/存储交换机连接)

需要长度适当的InfiniBand HDR缆线(QSFP56收发器)、才能将文件节点连接到存储叶交换机。可能的选项包括:

  • MCP1650-H002E26 (2米Mellanox无源铜缆、IB HDR、高达200 GB/秒、QSFP56、30AWM)。

  • MFS1S00-H003E (3米Mellanox有源光缆、IB HDR、高达200 GB/秒、QSFP56)。

2.

E系列块节点

两个EF600控制器配置如下:

  • 内存:256 GB (每个控制器128 GB)。

  • 适配器:2端口200 GB/HDR (NVMe/IB)。

  • Drives:已配置为与所需容量匹配。

软件要求

为了获得可预测的性能和可靠性、NetApp解决方案 上的BeeGFS版本会使用实施解决方案 所需的特定版本软件组件进行测试。

软件部署要求

下表列出了在基于Ansible的BeeGFS部署中自动部署的软件要求。

软件 version

BeeGFS

7.2.6

核心同步

3.1.5-1

起搏器

2.1.0-8.

opensm

openssm-5.9.0 (从mlnx_OFED 5.4.1.0.3.0开始)

备注 只有直接连接才需要启用虚拟化。

Ansible控制节点要求

NetApp解决方案 上的BeeGFS可从Ansible控制节点进行部署和管理。有关详细信息,请参见 "Ansible文档"

下表中列出的软件要求特定于下面列出的NetApp BeeGFS Ansible集合版本。

软件 version

Ansible

2.11通过pip安装时:Ansible 4.7.0和Ansible核心< 2.12、>=2.11.6

Python

3.9.

其他Python软件包

加密-35.0.0、netaddr-0.8.0

BeeGFS Ansible资料集

3.0.0

文件节点要求

软件 version

RedHat Enterprise Linux

具有高可用性的RedHat 8.4 Server物理服务器(双插槽)。

重要说明 文件节点需要有效的RedHat Enterprise Linux Server订阅和Red Hat Enterprise Linux高可用性附加软件。

Linux内核

4.18.0-305.25.1.el8_4.x86_64

InfiniBand / RDMA驱动程序

收件箱

ConnectX-6 HCA固件

固件:20.31.1014

PXE:3.6.0403

UEFI:14.24.0013

EF600块节点要求

软件 version

SANtricity 操作系统

11.70.2

NVSRAM

N6000-872834-D06.DLP

驱动器固件

适用于所用驱动器型号的最新版本。

其他要求

下表中列出的设备用于验证、但可以根据需要使用适当的替代设备。通常、NetApp建议运行最新版本的软件、以避免意外问题。

硬件组件 已安装软件
  • 2个Mellanox MQM8700 200 GB InfiniBand交换机

  • 固件3.9.2110

  • 1个可变控制节点(虚拟化):*

  • 处理器:Intel ® Xeon ® Gold 6146 CPU @ 3.20GHz

  • 内存:8 GB

  • 本地存储:24 GB

  • CentOS Linux 8.4.2105

  • 内核4.18.0-305.3.1.el8.x86_64

已安装的Ansible和Python版本与上表中的版本匹配。

  • 10个BeeGFS客户端(CPU节点):*

  • 处理器:1个3.0 GHz AMD EPYC 7302 16核CPU

  • 内存:128 GB

  • 网络:2个Mellanox MCX653106A-HDAT (每个适配器连接一个端口)。

  • Ubuntu 20.04

  • 内核:5.4.0.100-generic

  • InfiniBand驱动程序:Mellanox OFED 5.3-1.0.3.0

  • 1个BeeGFS客户端(GPU节点):*

  • 处理器:2个2.5 GHz AMD EPYC 7742 64核CPU

  • 内存:1 TB

  • 网络:2个Mellanox MCX653106A-HDAT (每个适配器连接一个端口)。

此系统基于NVIDIA HGX A100平台、并包括四个A100 GPU。

  • Ubuntu 20.04

  • 内核:5.4.0.100-generic

  • InfiniBand驱动程序:Mellanox OFED 5.3-1.0.3.0