Skip to main content
ONTAP MetroCluster
简体中文版经机器翻译而成,仅供参考。如与英语版出现任何冲突,应以英语版为准。

使用切换和切回升级 MetroCluster IP 配置中的控制器( ONTAP 9.8 及更高版本)

贡献者

从 ONTAP 9.8 开始,在升级配对集群上的控制器模块时,您可以使用 MetroCluster 切换操作为客户端提供无中断服务。无法在此操作步骤中升级其他组件(例如存储架或交换机)。

此操作步骤 支持的平台

  • 这些平台必须运行 ONTAP 9.8 或更高版本。

  • 目标(新)平台的型号必须与原始平台不同。

  • 不支持使用内部磁盘架的平台型号。

  • 在MetroCluster IP配置中、只能使用此操作步骤 升级特定平台型号。

关于此任务

  • 此操作步骤适用场景控制器模块采用 MetroCluster IP 配置。

  • 配置中的所有控制器都应在同一维护期间进行升级。

    在此维护活动之外,不支持使用不同类型的控制器运行 MetroCluster 配置。

  • IP 交换机必须运行受支持的固件版本。

  • 如果新平台的插槽数少于原始系统,或者端口类型更少或不同,则可能需要向新系统添加适配器。

    有关详细信息,请参见 "NetApp Hardware Universe"

  • 如果在系统上启用了该功能、 "禁用端到端加密" 在执行控制器升级之前。

  • 您将在新平台上重复使用原始平台的 IP 地址,网络掩码和网关。

  • 此操作步骤使用以下示例名称:

    • site_A

      • 升级前:

        • node_A_1-old

        • node_A_2-old

      • 升级后:

        • node_A_1-new

        • node_A_2-new

    • 站点 B

      • 升级前:

        • node_B_1-old

        • node_B_2-old

      • 升级后:

        • node_B_1-new

        • node_B_2-new

用于升级 MetroCluster IP 配置中控制器的工作流

您可以使用工作流图帮助您规划升级任务。

工作流 IP 升级

正在准备升级

在对现有 MetroCluster 配置进行任何更改之前,您必须检查此配置的运行状况,准备新平台并执行其他各种任务。

在升级控制器之前更新 MetroCluster 交换机 RCF 文件

根据旧平台型号,或者交换机配置不在最低版本上,或者您要更改后端 MetroCluster 连接使用的 VLAN ID ,您必须在开始平台升级操作步骤之前更新交换机 RCF 文件。

关于此任务

在以下情况下,您必须更新 RCF 文件:

  • 对于某些平台型号,交换机必须使用支持的 VLAN ID 进行后端 MetroCluster IP 连接。如果下表中列出了旧平台或新平台型号,并且 * 不 * 使用支持的 VLAN ID ,则必须更新交换机 RCF 文件。

    备注 本地集群连接可以使用任何 VLAN ,不需要处于给定范围内。

    平台型号(旧版或新版)

    支持的 VLAN ID

    • AFF A400

    • 10

    • 20

    • 介于 101 到 4096 之间的任何值(含 101 到 4096 )。

  • 未为交换机配置配置支持的最低 RCF 版本:

    交换机型号

    所需的 RCF 文件版本

    Cisco 3132Q-V

    1.7 或更高版本

    Cisco 3232C

    1.7 或更高版本

    Broadcom BES-53248

    1.3 或更高版本

  • 要更改 VLAN 配置。

    VLAN ID 范围为 101 到 4096 (含 101 到 4096 )。

当 site_A 上的控制器升级后, site_A 上的交换机将进行升级。

步骤
  1. 准备 IP 交换机以应用新的 RCF 文件。

    按照中适用于您的交换机供应商的一节中的步骤进行操作 "MetroCluster IP 安装和配置"

  2. 下载并安装 RCF 文件。

    按照中的步骤进行操作 "MetroCluster IP 安装和配置"

将端口从旧节点映射到新节点

您必须验证 node_A_1-old 上的物理端口是否正确映射到 node_A_1-new 上的物理端口,从而使 node_A_1-new 能够在升级后与集群中的其他节点以及网络进行通信。

关于此任务

在升级过程中首次启动新节点时,它将重放要替换的旧节点的最新配置。启动 node_A_1-new 时, ONTAP 会尝试在 node_A_1-old 上使用的相同端口上托管 LIF 。因此,在升级过程中,您必须调整端口和 LIF 配置,使其与旧节点的配置兼容。在升级操作步骤期间,您将对旧节点和新节点执行步骤,以确保正确配置集群,管理和数据 LIF 。

下表显示了与新节点的端口要求相关的配置更改示例。

集群互连物理端口

旧控制器

新控制器

所需操作

e0a , e0b

e3a , e3b

没有匹配的端口。升级后,您必须重新创建集群端口。

e0c , e0d

e0a , e0b , e0c , e0d

e0c 和 e0d 是匹配的端口。您无需更改配置,但升级后,您可以将集群 LIF 分布在可用的集群端口上。

步骤
  1. 确定新控制器上可用的物理端口以及这些端口上可以托管的 LIF 。

    控制器的端口使用情况取决于平台模块以及要在 MetroCluster IP 配置中使用的交换机。您可以从收集新平台的端口使用情况 "NetApp Hardware Universe"

  2. 规划端口使用情况,并填写下表,以供每个新节点参考。

    在执行升级操作步骤时,您将参考下表。

    node_A_1-old

    node_A_1-new

    LIF

    端口

    IP 空间

    广播域

    端口

    IP 空间

    广播域

    集群 1

    集群 2.

    集群 3.

    集群 4.

    节点管理

    集群管理

    数据 1.

    数据 2.

    数据 3.

    数据 4.

    SAN

    集群间端口

通过网络启动新控制器

安装新节点后,您需要通过网络启动来确保新节点运行的 ONTAP 版本与原始节点相同。术语 netboot 表示从远程服务器上存储的 ONTAP 映像启动。在准备网络启动时,您必须将 ONTAP 9 启动映像的副本放在系统可以访问的 Web 服务器上。

步骤
  1. 通过网络启动新控制器:

    1. 访问 "NetApp 支持站点" 下载用于执行系统网络启动的文件。

    2. 从 NetApp 支持站点的软件下载部分下载相应的 ONTAP 软件,并将 ontap-version_image.tgz 文件存储在可通过 Web 访问的目录中。

    3. 切换到可通过 Web 访问的目录,并验证所需文件是否可用。

      平台型号

      那么 …​

      8000系列系统

      将 ` _ontap-version___image.tgz` 文件的内容提取到目标目录:

      tar -zxvf _ontap-version___image.tgz

      备注 如果要在 Windows 上提取内容,请使用 7-Zip 或 WinRAR 提取网络启动映像。您的目录列表应包含一个包含内核文件 netboot/kernel 的 netboot 文件夹

      您的目录列表应包含一个包含内核文件的 netboot 文件夹:

      netboot/kernel

      所有其他系统

      您的目录列表应包含一个包含内核文件的 netboot 文件夹:

      ` ontap-version_image.tgz`

      您不需要提取 ` ontap-version_image.tgz` 文件。

    4. 在 LOADER 提示符处,为管理 LIF 配置网络启动连接:

      IP 地址

      那么 …​

      DHCP

      配置自动连接:

      ifconfig e0M -auto

      静态

      配置手动连接:

      ifconfig e0M -addr=ip_addr -mask=netmask -gw=gateway

    5. 执行网络启动。

      平台型号

      那么 …​

      FAS/AFF8000 系列系统

      所有其他系统

      netboot http://_web_server_ip/path_to_web-accessible_directory/ontap-version_image.tgz

    6. 从启动菜单中,选择选项 "* ( 7 ) Install new software first"* ,将新软件映像下载并安装到启动设备。

      请忽略以下消息:

    ` " HA 对上的无中断升级不支持此操作步骤 "` 。IT 适用场景软件无中断升级,而不是控制器升级。

    1. 如果系统提示您继续运行操作步骤,请输入 y ,并在系统提示您输入软件包时,输入映像文件的 URL :

      http://web_server_ip/path_to_web-accessible_directory/ontap-version_image.tgz

    2. 如果适用,请输入用户名和密码,或者按 Enter 继续操作。

    3. 当您看到类似以下内容的提示时,请务必输入 n 以跳过备份恢复:

      Do you want to restore the backup configuration now? {y|n} **n**
    4. 出现类似以下内容的提示时,输入 ` * y*` 以重新启动:

      The node must be rebooted to start using the newly installed software. Do you want to reboot now? {y|n}

清除控制器模块上的配置

在 MetroCluster 配置中使用新控制器模块之前,必须清除现有配置。

步骤
  1. 如有必要,暂停节点以显示 LOADER 提示符:

    halt

  2. 在 LOADER 提示符处,将环境变量设置为默认值:

    set-defaults

  3. 保存环境:

    saveenv

  4. 在 LOADER 提示符处,启动启动菜单:

    boot_ontap 菜单

  5. 在启动菜单提示符处,清除配置:

    wipeconfig

    对确认提示回答 yes

    节点将重新启动,并再次显示启动菜单。

  6. 在启动菜单中,选择选项 * 5* 将系统启动至维护模式。

    对确认提示回答 yes

在站点升级之前验证 MetroCluster 运行状况

在执行升级之前,您必须验证 MetroCluster 配置的运行状况和连接。

步骤
  1. 在 ONTAP 中验证 MetroCluster 配置的运行情况:

    1. 检查节点是否为多路径: + node run -node node-name sysconfig -a

      您应对 MetroCluster 配置中的每个节点使用此命令问题描述。

    2. 验证配置中是否没有损坏的磁盘: + storage disk show -broken

      您应在 MetroCluster 配置中的每个节点上问题描述此命令。

    3. 检查是否存在任何运行状况警报:

      s系统运行状况警报显示

      您应在每个集群上问题描述此命令。

    4. 验证集群上的许可证:

      s系统许可证显示

      您应在每个集群上问题描述此命令。

    5. 验证连接到节点的设备:

      network device-discovery show

      您应在每个集群上问题描述此命令。

    6. 验证两个站点上的时区和时间设置是否正确:

      集群日期显示

    您应在每个集群上问题描述此命令。您可以使用 cluster date 命令配置时间和时区。

  2. 确认 MetroCluster 配置的运行模式并执行 MetroCluster 检查。

    1. 确认 MetroCluster 配置,并且操作模式为 normal : + MetroCluster show`

    2. 确认显示所有预期节点: + MetroCluster node show`

    3. 问题描述以下命令:

      MetroCluster check run

    4. 显示 MetroCluster 检查的结果:

      MetroCluster check show`

  3. 使用 Config Advisor 工具检查 MetroCluster 布线。

    1. 下载并运行 Config Advisor 。

    2. 运行 Config Advisor 后,查看该工具的输出并按照输出中的建议解决发现的任何问题。

升级前收集信息

在升级之前,您必须收集每个节点的信息,并在必要时调整网络广播域,删除任何 VLAN 和接口组以及收集加密信息。

步骤
  1. 记录每个节点的物理布线,根据需要为缆线添加标签,以便为新节点正确布线。

  2. 收集每个节点的互连,端口和 LIF 信息。

    您应收集每个节点的以下命令输出:

    • MetroCluster interconnect show

    • MetroCluster configuration-settings connection show

    • network interface show -role cluster , node-mgmt

    • network port show -node node_name -type physical

    • network port vlan show -node node-name

    • network port ifgrp show -node node_name -instance

    • network port broadcast-domain show

    • 网络端口可访问性 show -detail

    • network IPspace show

    • volume show

    • s存储聚合显示

    • ssystem node run -node node-name sysconfig -a

    • SVM FCP 启动程序 show

    • s存储磁盘显示

    • MetroCluster configuration-settings interface show

  3. 收集 site_B (当前正在升级其平台的站点)的 UUID :

    MetroCluster node show -fields node-cluster-uuid , node-uuid

    必须在新的 site_B 控制器模块上准确配置这些值,以确保成功升级。将这些值复制到文件,以便稍后在升级过程中将其复制到正确的命令中。

    以下示例显示了具有 UUID 的命令输出:

    cluster_B::> metrocluster node show -fields node-cluster-uuid, node-uuid
      (metrocluster node show)
    dr-group-id cluster     node   node-uuid                            node-cluster-uuid
    ----------- --------- -------- ------------------------------------ ------------------------------
    1           cluster_A node_A_1 f03cb63c-9a7e-11e7-b68b-00a098908039 ee7db9d5-9a82-11e7-b68b-00a098908039
    1           cluster_A node_A_2 aa9a7a7a-9a81-11e7-a4e9-00a098908c35 ee7db9d5-9a82-11e7-b68b-00a098908039
    1           cluster_B node_B_1 f37b240b-9ac1-11e7-9b42-00a098c9e55d 07958819-9ac6-11e7-9b42-00a098c9e55d
    1           cluster_B node_B_2 bf8e3f8f-9ac4-11e7-bd4e-00a098ca379f 07958819-9ac6-11e7-9b42-00a098c9e55d
    4 entries were displayed.
    cluster_B::*

    建议您将 UUID 记录到如下表中。

    集群或节点

    UUID

    集群 B

    07958819-9ac6-11e7-9b42-00a098c9e55d

    node_B_1

    f37b240b-9ac1-11e7-9b42-00a098c9e55d

    node_B_2

    bf8e3f8f-9ac4-11e7-bd4e-00a098ca379f

    cluster_A

    ee7db9d5-9a82-11e7-b68b-00a098908039

    node_A_1

    f03cb63c-9a7e-11e7-b68b-00a098908039

    node_A_2

    aa9a7a7a-9a81-11e7-a4e9-00a098908c35

  4. 如果 MetroCluster 节点采用 SAN 配置,请收集相关信息。

    您应收集以下命令的输出:

    • fcp adapter show -instance

    • fcp interface show -instance

    • iscsi interface show

    • ucadmin show

  5. 如果根卷已加密,请收集并保存用于 key-manager 的密码短语:

    security key-manager backup show

  6. 如果 MetroCluster 节点对卷或聚合使用加密,请复制有关密钥和密码短语的信息。

    对于追加信息,请参见 "手动备份板载密钥管理信息"

    1. 如果配置了板载密钥管理器: + security key-manager on板 载 show-backup

      您稍后将在升级操作步骤中需要此密码短语。

    2. 如果配置了企业密钥管理( KMIP ),请问题描述执行以下命令:

      security key-manager external show -instance security key-manager key query

  7. 收集现有节点的系统 ID :

    MetroCluster node show -fields node-systemID , ha-partner-systemID , dr-partner-systemID , dr-auxiliary-systemID

    以下输出显示了重新分配的驱动器。

    ::> metrocluster node show -fields node-systemid,ha-partner-systemid,dr-partner-systemid,dr-auxiliary-systemid
    
    dr-group-id cluster     node     node-systemid ha-partner-systemid dr-partner-systemid dr-auxiliary-systemid
    ----------- ----------- -------- ------------- ------------------- ------------------- ---------------------
    1           cluster_A node_A_1   537403324     537403323           537403321           537403322
    1           cluster_A node_A_2   537403323     537403324           537403322           537403321
    1           cluster_B node_B_1   537403322     537403321           537403323           537403324
    1           cluster_B node_B_2   537403321     537403322           537403324           537403323
    4 entries were displayed.

删除调解器或 Tiebreaker 监控

升级平台之前,如果使用 Tiebreaker 或调解器实用程序监控 MetroCluster 配置,则必须删除监控。

步骤
  1. 收集以下命令的输出:

    storage iscsi-initiator show

  2. 从 Tiebreaker ,调解器或其他可启动切换的软件中删除现有 MetroCluster 配置。

    如果您使用的是 …​

    使用此操作步骤 …​

    Tiebreaker

    调解器

    在 ONTAP 提示符处问题描述以下命令:

    MetroCluster configuration-settings mediator remove

    第三方应用程序

    请参见产品文档。

在维护之前发送自定义 AutoSupport 消息

在执行维护问题描述之前,您应发送 AutoSupport 消息以通知 NetApp 技术支持正在进行维护。告知技术支持正在进行维护,可防止他们在假定已发生中断的情况下创建案例。

关于此任务

必须在每个 MetroCluster 站点上执行此任务。

步骤
  1. 登录到集群。

  2. 调用指示维护开始的 AutoSupport 消息:

    ssystem node AutoSupport invoke -node * -type all -message MAIN=maintenance-window-in-hours

    maintenance-window-in-hours 参数指定维护窗口的长度,最长为 72 小时。如果在该时间过后完成维护,您可以调用一条 AutoSupport 消息,指示维护期结束:

    ssystem node AutoSupport invoke -node * -type all -message MAINT=end

  3. 在配对站点上重复上述步骤。

切换 MetroCluster 配置

您必须将配置切换到 site_A ,以便可以升级 site_B 上的平台。

关于此任务

必须在 site_A 上执行此任务

完成此任务后, cluster_A 将处于活动状态,并为两个站点提供数据。cluster_B 处于非活动状态,并已准备好开始升级过程。

MCC 升级集群 A 处于切换状态
步骤
  1. 将 MetroCluster 配置切换到 site_A ,以便可升级 site_B 的节点:

    1. 对 cluster_A 执行问题描述以下命令:

      MetroCluster switchover -controller-replacement true`

      此操作可能需要几分钟才能完成。

    2. 监控切换操作:

      MetroCluster 操作显示

    3. 操作完成后,确认节点处于切换状态:

      MetroCluster show

    4. 检查 MetroCluster 节点的状态:

      MetroCluster node show

    在控制器升级期间禁用协商切换后自动修复聚合。

删除接口配置并卸载旧控制器

您必须将数据 LIF 移动到通用端口,删除旧控制器上的 VLAN 和接口组,然后物理卸载这些控制器。

关于此任务
步骤
  1. 启动旧节点并登录到节点:

    boot_ontap

  2. 将旧控制器上所有数据 LIF 的主端口分配给新旧控制器模块上相同的通用端口。

    1. 显示 LIF :

      network interface show

      包括 SAN 和 NAS 在内的所有数据 LIF 都将由管理员启动并在操作上关闭,因为这些 LIF 在切换站点( cluster_A )上已启动。

    2. 查看输出以查找未用作集群端口的旧控制器和新控制器上相同的通用物理网络端口。

      例如, e0d 是旧控制器上的一个物理端口,也存在于新控制器上。e0d 不会用作集群端口,也不会在新控制器上用作其他端口。

      有关平台型号的端口使用情况,请参见 "NetApp Hardware Universe"

    3. 修改所有数据 LIF 以使用通用端口作为主端口: + network interface modify -vserver svm-name -lif data-lif -home-port port-id

      在以下示例中,此值为 "e0d" 。

      例如:

    network interface modify -vserver vs0 -lif datalif1 -home-port e0d
  3. 删除使用集群端口作为成员端口的所有 VLAN 端口,以及使用集群端口作为成员端口的 ifgrp 。

    1. 删除 VLAN 端口: + network port vlan delete -node node-name -vlan-name portID-vlandid

      例如:

      network port vlan delete -node node1 -vlan-name e1c-80
    2. 从接口组中删除物理端口:

      network port ifgrp remove-port -node node-name -ifgrp interface-group-name -port portID

      例如:

    network port ifgrp remove-port -node node1 -ifgrp a1a -port e0d
    1. 从广播域中删除 VLAN 和接口组端口:

      network port broadcast-domain remove-ports -ipspace ipspace -broadcast-domain broadcast-domain-name -ports nodename : portname , nodename : portname , …​

    2. 根据需要修改接口组端口以使用其他物理端口作为成员。:

      ifgrp add-port -node node-name -ifgrp interface-group-name -port port-id

  4. 将节点暂停到 LOADER 提示符处:

    halt -inhibit-takeover true

  5. 连接到 site_B 上旧控制器( node_B_1-old 和 node_B_2-old )的串行控制台,并验证它是否显示 LOADER 提示符。

  6. 收集 bootarg 值:

    printenv

  7. 断开 node_B_1-old 和 node_B_2-old 上的存储和网络连接,并为缆线贴上标签,以便可以将其重新连接到新节点。

  8. 断开 node_B_1-old 和 node_B_2-old 的电源线。

  9. 从机架中卸下 node_B_1-old 和 node_B_2-old 控制器。

更新交换机 RCF 以适应新平台

您必须将交换机更新为支持新平台型号的配置。

关于此任务

您可以在包含当前正在升级的控制器的站点上执行此任务。在此操作步骤中显示的示例中,我们首先升级 site_B 。

当 site_A 上的控制器升级后, site_A 上的交换机将进行升级。

步骤
  1. 准备 IP 交换机以应用新的 RCF 文件。

    按照适用于您的交换机供应商的操作步骤中的步骤进行操作:

  2. 下载并安装 RCF 文件。

    按照中适用于您的交换机供应商的一节中的步骤进行操作 "MetroCluster IP 安装和配置"

配置新控制器

您必须将控制器装入机架并进行安装,在维护模式下执行所需的设置,然后启动控制器并验证控制器上的 LIF 配置。

设置新控制器

您必须将新控制器装入机架并进行布线。

步骤
  1. 根据需要规划新控制器模块和存储架的位置。

    机架空间取决于控制器模块的平台型号,交换机类型以及配置中的存储架数量。

  2. 正确接地。

  3. 在机架或机柜中安装控制器模块。

  4. 按照中所述,使用缆线将控制器连接到 IP 交换机 "MetroCluster IP 安装和配置"

  5. 启动新节点并将其启动至维护模式。

还原 HBA 配置

根据控制器模块中是否存在 HBA 卡以及 HBA 卡的配置,您需要根据站点的使用情况正确配置这些卡。

步骤
  1. 在维护模式下,为系统中的任何 HBA 配置设置:

    1. 检查端口的当前设置:

      ucadmin show

    2. 根据需要更新端口设置。

    如果您具有此类型的 HBA 和所需模式 …​

    使用此命令 …​

    CNA FC

    ucadmin modify -m fc -t initiator adapter-name

    CNA 以太网

    ucadmin modify -mode cna adapter-name

    FC 目标

    fcadmin config -t target adapter-name

    FC 启动程序

    fcadmin config -t initiator adapter-name

  2. 退出维护模式:

    halt

    运行此命令后,请等待,直到节点停留在 LOADER 提示符处。

  3. 将节点重新启动至维护模式,以使配置更改生效:

    boot_ontap maint

  4. 验证所做的更改:

    如果您使用的是此类型的 HBA…​

    使用此命令 …​

    CNA

    ucadmin show

    FC

    fcadmin show

在新控制器和机箱上设置 HA 状态

您必须验证控制器和机箱的 HA 状态,并在必要时更新此状态以匹配您的系统配置。

步骤
  1. 在维护模式下,显示控制器模块和机箱的 HA 状态:

    ha-config show

    所有组件的 HA 状态均应为 mCCIP

  2. 如果显示的控制器或机箱系统状态不正确,请设置 HA 状态:

    ha-config modify controller mccip

    ha-config modify chassis mccip

设置 MetroCluster IP bootarg 变量

必须在新控制器模块上配置某些 MetroCluster IP bootarg 值。这些值必须与旧控制器模块上配置的值匹配。

关于此任务

在此任务中,您将使用先前在中的升级操作步骤中标识的 UUID 和系统 ID "升级前收集信息"

步骤
  1. 如果要升级的节点为 AFF A400 , FAS8300 或 FAS8700 型号,请在 LOADER 提示符处设置以下 bootarg :

    setenv bootarg.mcc.port_a_ip_config local-ip-address/local-ip-mask , 0 , ha-partner-ip-address , DR-partner-ip-address , DR-aux-partnerip-address , vlan-id

    setenv bootarg.mcc.port_b_ip_config local-ip-address/local-ip-mask , 0 , ha-partner-ip-address , DR-partner-ip-address , DR-aux-partnerip-address , vlan-id

    备注 如果接口使用的是默认 VLAN ,则不需要 vlan-id 。

    以下命令使用 VLAN 120 为第一个网络设置 node_B_1-new 的值,并使用 VLAN 130 为第二个网络设置 VLAN 130 :

    setenv bootarg.mcc.port_a_ip_config 172.17.26.10/23,0,172.17.26.11,172.17.26.13,172.17.26.12,120
    setenv bootarg.mcc.port_b_ip_config 172.17.27.10/23,0,172.17.27.11,172.17.27.13,172.17.27.12,130

    以下命令使用 VLAN 120 为第一个网络设置 node_B_2-new 的值,并使用 VLAN 130 为第二个网络设置 VLAN 130 :

    setenv bootarg.mcc.port_a_ip_config 172.17.26.11/23,0,172.17.26.10,172.17.26.12,172.17.26.13,120
    setenv bootarg.mcc.port_b_ip_config 172.17.27.11/23,0,172.17.27.10,172.17.27.12,172.17.27.13,130

    以下示例显示了使用默认 VLAN 时 node_B_1-new 的命令:

    setenv bootarg.mcc.port_a_ip_config 172.17.26.10/23,0,172.17.26.11,172.17.26.13,172.17.26.12
    setenv bootarg.mcc.port_b_ip_config 172.17.27.10/23,0,172.17.27.11,172.17.27.13,172.17.27.12

    以下示例显示了使用默认 VLAN 时 node_B_2-new 的命令:

    setenv bootarg.mcc.port_a_ip_config 172.17.26.11/23,0,172.17.26.10,172.17.26.12,172.17.26.13
    setenv bootarg.mcc.port_b_ip_config 172.17.27.11/23,0,172.17.27.10,172.17.27.12,172.17.27.13
  2. 如果要升级的节点不是上一步中列出的系统,请在每个运行正常的节点的 LOADER 提示符处,使用 local_IP/mask 设置以下 bootarg :

    setenv bootarg.mcc.port_a_ip_config local-ip-address/local-ip-mask , 0 , ha-partner-ip-address , DR-partner-ip-address , DR-aux-partnerip-address

    setenv bootarg.mcc.port_b_ip_config local-ip-address/local-ip-mask , 0 , ha-partner-ip-address , DR-partner-ip-address , DR-aux-partnerip-address

    以下命令用于设置 node_B_1-new 的值:

    setenv bootarg.mcc.port_a_ip_config 172.17.26.10/23,0,172.17.26.11,172.17.26.13,172.17.26.12
    setenv bootarg.mcc.port_b_ip_config 172.17.27.10/23,0,172.17.27.11,172.17.27.13,172.17.27.12

    以下命令用于设置 node_B_2-new 的值:

    setenv bootarg.mcc.port_a_ip_config 172.17.26.11/23,0,172.17.26.10,172.17.26.12,172.17.26.13
    setenv bootarg.mcc.port_b_ip_config 172.17.27.11/23,0,172.17.27.10,172.17.27.12,172.17.27.13
  3. 在新节点的 LOADER 提示符处,设置 UUID :

    setenv bootarg.mgwd.partner_cluster_uuid partner-cluster-UUUID

    setenv bootarg.mgwd.cluster_uuid local-cluster-UUUID

    setenv bootarg.mcc.pri_partner_uuid DR-partner-node-UUUID

    setenv bootarg.mcc.aux_partner_uuid DR-aux-partner-node-UUUUID

    setenv bootarg.mcc_iscsi.node_uuid local-node-UUUUID

    1. 设置 node_B_1-new 上的 UUID 。

      以下示例显示了用于设置 node_B_1-new 上的 UUID 的命令:

      setenv bootarg.mgwd.cluster_uuid ee7db9d5-9a82-11e7-b68b-00a098908039
      setenv bootarg.mgwd.partner_cluster_uuid 07958819-9ac6-11e7-9b42-00a098c9e55d
      setenv bootarg.mcc.pri_partner_uuid f37b240b-9ac1-11e7-9b42-00a098c9e55d
      setenv bootarg.mcc.aux_partner_uuid bf8e3f8f-9ac4-11e7-bd4e-00a098ca379f
      setenv bootarg.mcc_iscsi.node_uuid f03cb63c-9a7e-11e7-b68b-00a098908039
    2. 设置 node_B_2-new 上的 UUID :

      以下示例显示了用于设置 node_B_2-new 上的 UUID 的命令:

    setenv bootarg.mgwd.cluster_uuid ee7db9d5-9a82-11e7-b68b-00a098908039
    setenv bootarg.mgwd.partner_cluster_uuid 07958819-9ac6-11e7-9b42-00a098c9e55d
    setenv bootarg.mcc.pri_partner_uuid bf8e3f8f-9ac4-11e7-bd4e-00a098ca379f
    setenv bootarg.mcc.aux_partner_uuid f37b240b-9ac1-11e7-9b42-00a098c9e55d
    setenv bootarg.mcc_iscsi.node_uuid aa9a7a7a-9a81-11e7-a4e9-00a098908c35
  4. 如果原始系统配置了 ADP ,请在每个替代节点的 LOADER 提示符处启用 ADP :

    setenv bootarg.mcc.ADP 启用 true

  5. 设置以下变量:

    setenv bootarg.mcc.local_config_id original-sys-id

    setenv bootarg.mcc.dr_partner dr-partner-sys-id

    备注 必须将 setenv bootarg.mcc.local_config_id 变量设置为 * 原始 * 控制器模块 node_B_1-old 的 sys-id 。
    1. 设置 node_B_1-new 上的变量。

      以下示例显示了用于设置 node_B_1-new 上的值的命令:

      setenv bootarg.mcc.local_config_id 537403322
      setenv bootarg.mcc.dr_partner 537403324
    2. 设置 node_B_2-new 上的变量。

      以下示例显示了用于设置 node_B_2-new 上的值的命令:

    setenv bootarg.mcc.local_config_id 537403321
    setenv bootarg.mcc.dr_partner 537403323
  6. 如果对外部密钥管理器使用加密,请设置所需的 boottargets :

    setenv bootarg.kmip.init.ipaddr

    setenv bootarg.kmip.kmip.init.netmask

    setenv bootarg.kmip.kmip.init.gateway

    setenv bootarg.kmip.kmip.init.interface

重新分配根聚合磁盘

使用先前收集的系统将根聚合磁盘重新分配给新控制器模块。

关于此任务

这些步骤在维护模式下执行。

备注 根聚合磁盘是控制器升级过程中唯一必须重新分配的磁盘。数据聚合的磁盘所有权在切换/切回操作中进行处理。
步骤
  1. 将系统启动至维护模式:

    boot_ontap maint

  2. 从维护模式提示符处显示 node_B_1-new 上的磁盘:

    d 展示 -A

    命令输出将显示新控制器模块( 1574774970 )的系统 ID 。但是,根聚合磁盘仍归旧系统 ID ( 537403322 )所有。此示例不显示 MetroCluster 配置中其他节点拥有的驱动器。

    *> disk show -a
    Local System ID: 1574774970
    DISK                  OWNER                 POOL   SERIAL NUMBER   HOME                  DR HOME
    ------------          ---------             -----  -------------   -------------         -------------
    prod3-rk18:9.126L44   node_B_1-old(537403322)  Pool1  PZHYN0MD     node_B_1-old(537403322)  node_B_1-old(537403322)
    prod4-rk18:9.126L49   node_B_1-old(537403322)  Pool1  PPG3J5HA     node_B_1-old(537403322)  node_B_1-old(537403322)
    prod4-rk18:8.126L21   node_B_1-old(537403322)  Pool1  PZHTDSZD     node_B_1-old(537403322)  node_B_1-old(537403322)
    prod2-rk18:8.126L2    node_B_1-old(537403322)  Pool0  S0M1J2CF     node_B_1-old(537403322)  node_B_1-old(537403322)
    prod2-rk18:8.126L3    node_B_1-old(537403322)  Pool0  S0M0CQM5     node_B_1-old(537403322)  node_B_1-old(537403322)
    prod1-rk18:9.126L27   node_B_1-old(537403322)  Pool0  S0M1PSDW     node_B_1-old(537403322)  node_B_1-old(537403322)
    .
    .
    .
  3. 将驱动器架上的根聚合磁盘重新分配给新控制器。

    如果您使用的是 ADP

    然后使用此命令 …​

    是的。

    dreassign -s old-sysid -d new-sysid -r dr-partner-sysid

    dreassign -s old-sysid -d new-sysid

  4. 将驱动器架上的根聚合磁盘重新分配给新控制器:

    dreassign -s old-sysid -d new-sysid

    以下示例显示了在非 ADP 配置中重新分配驱动器的情况:

    *> disk reassign -s 537403322 -d 1574774970
    Partner node must not be in Takeover mode during disk reassignment from maintenance mode.
    Serious problems could result!!
    Do not proceed with reassignment if the partner is in takeover mode. Abort reassignment (y/n)? n
    
    After the node becomes operational, you must perform a takeover and giveback of the HA partner node to ensure disk reassignment is successful.
    Do you want to continue (y/n)? y
    Disk ownership will be updated on all disks previously belonging to Filer with sysid 537403322.
    Do you want to continue (y/n)? y
  5. 验证是否已正确重新分配根聚合中的磁盘 old-remove :

    d展示

    s存储聚合状态

    *> disk show
    Local System ID: 537097247
    
      DISK                    OWNER                    POOL   SERIAL NUMBER   HOME                     DR HOME
    ------------              -------------            -----  -------------   -------------            -------------
    prod03-rk18:8.126L18 node_B_1-new(537097247)  Pool1  PZHYN0MD        node_B_1-new(537097247)   node_B_1-new(537097247)
    prod04-rk18:9.126L49 node_B_1-new(537097247)  Pool1  PPG3J5HA        node_B_1-new(537097247)   node_B_1-new(537097247)
    prod04-rk18:8.126L21 node_B_1-new(537097247)  Pool1  PZHTDSZD        node_B_1-new(537097247)   node_B_1-new(537097247)
    prod02-rk18:8.126L2  node_B_1-new(537097247)  Pool0  S0M1J2CF        node_B_1-new(537097247)   node_B_1-new(537097247)
    prod02-rk18:9.126L29 node_B_1-new(537097247)  Pool0  S0M0CQM5        node_B_1-new(537097247)   node_B_1-new(537097247)
    prod01-rk18:8.126L1  node_B_1-new(537097247)  Pool0  S0M1PSDW        node_B_1-new(537097247)   node_B_1-new(537097247)
    ::>
    ::> aggr status
               Aggr          State           Status                Options
    aggr0_node_B_1           online          raid_dp, aggr         root, nosnap=on,
                                             mirrored              mirror_resync_priority=high(fixed)
                                             fast zeroed
                                             64-bit

启动新控制器

您必须启动新控制器,并注意确保 bootarg 变量正确无误,如果需要,请执行加密恢复步骤。

步骤
  1. 暂停新节点:

    halt

  2. 如果配置了外部密钥管理器,请设置相关的 boottargets :

    setenv bootarg.kmip.init.ipaddr ip-address

    setenv bootarg.kmip.init.netmask netmask

    setenv bootarg.kmip.init.gateway gateway-address

    setenv bootarg.kmip.init.interface interface-id

  3. 检查 partner-sysid 是否为最新版本:

    printenv partner-sysid

    如果 partner-sysid 不正确,请将其设置为:

    setenv partner-sysid partner-sysID

  4. 显示 ONTAP 启动菜单:

    boot_ontap 菜单

  5. 如果使用根加密,请为密钥管理配置选择启动菜单选项。

    如果您使用的是 …​

    选择此启动菜单选项 …​

    板载密钥管理

    选项 10

    按照提示提供恢复和还原密钥管理器配置所需的输入。

    外部密钥管理

    选项 11

    按照提示提供恢复和还原密钥管理器配置所需的输入。

  6. 从启动菜单中,选择 "` ( 6 ) Update flash from backup config` " 。

    备注 选项 6 将重新启动节点两次,然后再完成

    对系统 ID 更改提示回答 "`y` " 。等待第二条重新启动消息:

    Successfully restored env file from boot media...
    
    Rebooting to load the restored env file...
  7. 在 LOADER 上,双击 bootarg 值并根据需要更新这些值。

  8. 仔细检查 partner-sysid 是否正确:

    printenv partner-sysid

    如果 partner-sysid 不正确,请将其设置为:

    setenv partner-sysid partner-sysID

  9. 如果使用根加密,请为密钥管理配置再次选择启动菜单选项。

    如果您使用的是 …​

    选择此启动菜单选项 …​

    板载密钥管理

    选项 10

    按照提示提供恢复和还原密钥管理器配置所需的输入。

    外部密钥管理

    选项 "`11` "

    按照提示提供恢复和还原密钥管理器配置所需的输入。

    根据密钥管理器设置,执行恢复操作步骤的方法是选择选项 "`10` " 或选项 "`11` " ,然后在第一个启动菜单提示符处选择选项 6 。要完全启动节点,您可能需要重复恢复操作步骤,然后选择 "`1` " (正常启动)。

  10. 等待更换的节点启动。

    如果任一节点处于接管模式,请使用 storage failover giveback 命令执行交还。

  11. 如果使用加密,请使用适用于您的密钥管理配置的正确命令还原密钥。

    如果您使用的是 …​

    使用此命令 …​

    板载密钥管理

    sSecurity key-manager 板载同步

    有关详细信息,请参见 "还原板载密钥管理加密密钥"

    外部密钥管理

    sSecurity key-manager external restore -vserver svm -node node-key-server host_name_ip_address : port -key-id key_id -key-tag key_tag node-name

    有关详细信息,请参见 "还原外部密钥管理加密密钥"

  12. 验证所有端口是否都位于广播域中:

    1. 查看广播域:

      network port broadcast-domain show

    2. 根据需要向广播域添加任何端口。

    3. 根据需要重新创建 VLAN 和接口组。

      VLAN 和接口组成员资格可能与旧节点不同。

验证和还原 LIF 配置

验证 LIF 是否托管在升级操作步骤开始时映射的相应节点和端口上。

关于这家 TSAK
步骤
  1. 在切回之前,验证 LIF 是否托管在相应的节点和端口上。

    1. 更改为高级权限级别:

      set -privilege advanced

    2. 覆盖端口配置以确保 LIF 放置正确:

      vserver config override -command "network interface modify -vserver vserver_name -home-port active_port_after_upgrade-lif lif_name -home-node new_node_name"

    vserver config override 命令中输入 network interface modify 命令时,您不能使用选项卡自动完成功能。您可以使用 autoscomplete 创建网络 interface modify ,然后将其括在 vserver config override 命令中。

    1. 返回到管理权限级别:

      set -privilege admin

  2. 将接口还原到其主节点:

    network interface revert * -vserver vserver-name

    根据需要对所有 SVM 执行此步骤。

切回 MetroCluster 配置

在此任务中,您将执行切回操作, MetroCluster 配置将恢复正常运行。site_A 上的节点仍在等待升级。

MCC 升级集群 A 切回
步骤
  1. 在 site_B 上执行 MetroCluster node show 命令并检查输出。问题描述

    1. 验证新节点的表示是否正确。

    2. 验证新节点是否处于 " 正在等待切回状态 " 。

  2. 从活动集群(未进行升级的集群)中的任何节点运行所需的命令,以执行修复和切回。

    1. 修复数据聚合: + MetroCluster heal aggregates`

    2. 修复根聚合:

      MetroCluster 修复根`

    3. 切回集群:

      MetroCluster 切回

  3. 检查切回操作的进度:

    MetroCluster show

    当输出显示 waiting for-switchback 时,切回操作仍在进行中:

    cluster_B::> metrocluster show
    Cluster                   Entry Name          State
    ------------------------- ------------------- -----------
     Local: cluster_B         Configuration state configured
                              Mode                switchover
                              AUSO Failure Domain -
    Remote: cluster_A         Configuration state configured
                              Mode                waiting-for-switchback
                              AUSO Failure Domain -

    当输出显示正常时,切回操作完成:

    cluster_B::> metrocluster show
    Cluster                   Entry Name          State
    ------------------------- ------------------- -----------
     Local: cluster_B         Configuration state configured
                              Mode                normal
                              AUSO Failure Domain -
    Remote: cluster_A         Configuration state configured
                              Mode                normal
                              AUSO Failure Domain -

    如果切回需要很长时间才能完成,您可以使用 MetroCluster config-replication resync-status show 命令检查正在进行的基线的状态。此命令处于高级权限级别。

检查 MetroCluster 配置的运行状况

升级控制器模块后,您必须验证 MetroCluster 配置的运行状况。

关于此任务

此任务可在 MetroCluster 配置中的任何节点上执行。

步骤
  1. 验证 MetroCluster 配置的运行情况:

    1. 确认 MetroCluster 配置以及操作模式是否正常: + MetroCluster show`

    2. 执行 MetroCluster check : + MetroCluster check run`

    3. 显示 MetroCluster 检查的结果:

      MetroCluster check show`

  2. 验证 MetroCluster 连接和状态。

    1. 检查 MetroCluster IP 连接:

      storage iscsi-initiator show

    2. 检查节点是否正在运行:

      MetroCluster node show

    3. 检查 MetroCluster IP 接口是否已启动:

      MetroCluster configuration-settings interface show

    4. 检查本地故障转移是否已启用:

      s存储故障转移显示

升级 cluster_A 上的节点

您必须对 cluster_A 重复升级任务

步骤
  1. 从开始,重复上述步骤升级 cluster_A 上的节点 "正在准备升级"

    在执行任务时,对集群和节点的所有示例引用都将反转。例如,如果提供了从 cluster_A 切换的示例,则您将从 cluster_B 切换

还原 Tiebreaker 或调解器监控

完成 MetroCluster 配置升级后,您可以使用 Tiebreaker 或调解器实用程序恢复监控。

步骤
  1. 根据需要使用适用于您的配置的操作步骤还原监控。

    如果您使用的是 …​ 使用此操作步骤

    Tiebreaker

    调解器

    链接: ./install-IP/concept_mediator_requirements.html 【从 MetroCluster IP 配置配置 ONTAP 调解器服务】。

    第三方应用程序

    请参见产品文档。

维护后发送自定义 AutoSupport 消息

完成升级后,您应发送一条 AutoSupport 消息,指示维护结束,以便可以恢复自动创建案例。

步骤
  1. 要恢复自动生成支持案例,请发送 AutoSupport 消息以指示维护已完成。

    1. 问题描述以下命令: + ssystem node AutoSupport invoke -node * -type all -message MAINT=end

    2. 在配对集群上重复此命令。

配置端到端加密

如果系统支持、则可以对MetroCluster IP站点之间的后端流量(例如NVlog和存储复制数据)进行加密。请参见 "配置端到端加密" 有关详细信息 …​