Skip to main content
본 한국어 번역은 사용자 편의를 위해 제공되는 기계 번역입니다. 영어 버전과 한국어 버전이 서로 어긋나는 경우에는 언제나 영어 버전이 우선합니다.

업그레이드할 노드를 준비합니다

기여자

원래 노드를 교체하기 전에 해당 노드가 HA 쌍 안에 있는지, 누락된 디스크 또는 장애가 발생한 디스크가 없는지, 서로의 스토리지에 액세스할 수 있는지, 클러스터의 다른 노드에 할당된 데이터 LIF를 소유하지 않는지 확인해야 합니다. 또한 원래 노드에 대한 정보도 수집해야 하며, 클러스터가 SAN 환경에 있는 경우 클러스터의 모든 노드가 쿼럼에 있는지 확인해야 합니다.

단계
  1. 테이크오버 모드 중에 두 노드의 워크로드를 적절하게 지원하는 데 필요한 리소스가 각 원래 노드에 있는지 확인하십시오.

    HA Pair 관리 _ 링크를 참조하고 "참조"_ HA Pair에 대한 모범 사례 _ 섹션을 따르십시오. 원래 노드 중 어느 것도 50% 이상의 사용률로 실행되지 않아야 합니다. 50% 미만의 활용률로 실행 중인 노드는 컨트롤러 업그레이드 중에 두 노드의 부하를 처리할 수 있습니다.

  2. 원본 노드에 대한 성능 기준을 만들려면 다음 하위 단계를 완료하십시오.

    1. 진단 사용자 계정이 잠금 해제되어 있는지 확인합니다.

      중요함

      진단 사용자 계정은 하위 수준 진단 목적으로만 사용해야 하며 기술 지원 부서의 안내에 따라서만 사용해야 합니다.

      사용자 계정 잠금 해제에 대한 자세한 내용은 을 참조하십시오 "참조" 시스템 관리 참조 _ 에 대한 링크

    2. 을 참조하십시오 "참조" 를 방문하여 _NetApp Support 사이트_에 연결하고 성능 및 통계 수집기(perfstat Converged)를 다운로드하십시오.

      perfstat Converged 툴을 사용하면 업그레이드 후 비교를 위한 성능 기준을 설정할 수 있습니다.

    3. NetApp Support 사이트의 지침에 따라 성능 기준을 만듭니다.

  3. 을 참조하십시오 "참조" 를 눌러 _NetApp Support 사이트_에 연결하고 NetApp Support 사이트에서 지원 케이스를 여십시오.

    이 케이스를 사용하여 업그레이드 중에 발생할 수 있는 문제를 보고할 수 있습니다.

  4. 노드 3 및 노드 4의 NVMEM 또는 NVRAM 배터리가 충전되었는지 확인하고 충전되지 않은 경우 충전합니다.

    NVMEM 또는 NVRAM 배터리가 충전되었는지 확인하려면 노드 3과 노드 4를 물리적으로 확인해야 합니다. 노드 3 및 노드 4 모델의 상태 표시등에 대한 자세한 내용은 을 참조하십시오 "참조" Hardware Universe_에 대한 링크

    경고 * 주의 * NVRAM 내용을 지우지 마십시오. NVRAM의 내용을 지우려면 NetApp 기술 지원 팀에 문의하십시오.
  5. 노드 3과 노드 4에서 ONTAP 버전을 확인합니다.

    새 노드에는 원래 노드에 설치된 동일한 버전의 ONTAP 9.x가 설치되어 있어야 합니다. 새 노드의 ONTAP 버전이 다른 설치된 경우 새 컨트롤러를 설치한 후 해당 컨트롤러를 netboot 해야 합니다. ONTAP를 업그레이드하는 방법에 대한 지침은 을 참조하십시오 "참조" ONTAP_ 업그레이드 링크

    노드 3 및 노드 4의 ONTAP 버전에 대한 정보는 배송 상자에 포함되어 있어야 합니다. ONTAP 버전은 노드가 부팅될 때 표시되며, 노드를 유지보수 모드로 부팅하고 명령을 실행할 수 있습니다.

    version

  6. 노드 1과 노드 2에 2개 또는 4개의 클러스터 LIF가 있는지 확인합니다.

    network interface show -role cluster

    다음 예제와 같이 시스템에서 모든 클러스터 LIF를 표시합니다.

    cluster::> network interface show -role cluster
            Logical    Status     Network          Current  Current Is
    Vserver Interface  Admin/Oper Address/Mask     Node     Port    Home
    ------- ---------- ---------- ---------------- -------- ------- ----
    node1
            clus1      up/up      172.17.177.2/24  node1    e0c     true
            clus2      up/up      172.17.177.6/24  node1    e0e     true
    node2
            clus1      up/up      172.17.177.3/24  node2    e0c     true
            clus2      up/up      172.17.177.7/24  node2    e0e     true
  7. 노드 1 또는 노드 2에 2개 또는 4개의 클러스터 LIF가 있는 경우 다음 하위 단계를 완료하여 사용 가능한 모든 경로에서 두 클러스터 LIF를 모두 Ping할 수 있는지 확인합니다.

    1. 고급 권한 수준 입력:

      set -privilege advanced

      다음과 같은 메시지가 표시됩니다.

      Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel.
      Do you wish to continue? (y or n):
    2. 를 입력합니다 y.

    3. 노드를 ping하고 연결을 테스트합니다.

      cluster ping-cluster -node node_name

      다음 예와 유사한 메시지가 표시됩니다.

    cluster::*> cluster ping-cluster -node node1
    Host is node1
    Getting addresses from network interface table...
    Local = 10.254.231.102 10.254.91.42
    Remote = 10.254.42.25 10.254.16.228
    Ping status:
    ...
    Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s)
    ................
    Detected 1500 byte MTU on 4 path(s):
    Local 10.254.231.102 to Remote 10.254.16.228
    Local 10.254.231.102 to Remote 10.254.42.25
    Local 10.254.91.42 to Remote 10.254.16.228
    Local 10.254.91.42 to Remote 10.254.42.25
    Larger than PMTU communication succeeds on 4 path(s)
    RPC status:
    2 paths up, 0 paths down (tcp check)
    2 paths up, 0 paths down (udp check)

    +
    노드가 2개의 클러스터 포트를 사용하는 경우 예에서와 같이 4개 경로에서 통신할 수 있어야 합니다.

    1. 관리 레벨 권한으로 돌아가기:

      set -privilege admin

  8. 노드 1과 노드 2가 HA 쌍 내에 있는지 확인하고 노드가 서로 연결되어 있으며 테이크오버가 가능한지 확인합니다.

    storage failover show

    다음 예는 노드가 서로 연결되고 테이크오버가 가능한 경우의 출력을 보여 줍니다.

    cluster::> storage failover show
                                  Takeover
    Node           Partner        Possible State Description
    -------------- -------------- -------- -------------------------------
    node1          node2          true     Connected to node2
    node2          node1          true     Connected to node1

    어느 노드도 부분 반환에 있어서는 안 됩니다. 다음 예제에서는 node1이 부분 반환에 있음을 보여 줍니다.

    cluster::> storage failover show
                                  Takeover
    Node           Partner        Possible State Description
    -------------- -------------- -------- -------------------------------
    node1          node2          true     Connected to node2, Partial giveback
    node2          node1          true     Connected to node1

    노드 중 하나가 부분 반환 상태인 경우 storage failover giveback 명령을 사용하여 기브백을 수행한 다음 명령을 사용하여 storage failover show-giveback 아직 애그리게이트를 다시 제공할 필요가 없는지 확인합니다. 명령에 대한 자세한 내용은 "참조"HA Pair management 링크를 참조하십시오.

  9. 노드 1과 노드 2가 현재 소유자인 집계(홈 소유자가 아님)를 소유하고 있지 않은지 확인합니다.

    storage aggregate show -nodes node_name -is-home false -fields owner-name, home-name, state

    노드 1과 노드 2가 현재 소유자인 Aggregate(홈 소유자가 아님)를 소유하지 않으면 시스템이 다음 예와 유사한 메시지를 반환합니다.

    cluster::> storage aggregate show -node node2 -is-home false -fields owner-name,homename,state
    There are no entries matching your query.

    다음 예제에서는 node2라는 이름의 노드에 대한 명령 출력을 보여 줍니다. node2는 홈 소유이지만 현재 소유자가 아닌 4개의 애그리게이트로 구성됩니다.

    cluster::> storage aggregate show -node node2 -is-home false
                   -fields owner-name,home-name,state
    
    aggregate     home-name    owner-name   state
    ------------- ------------ ------------ ------
    aggr1         node1        node2        online
    aggr2         node1        node2        online
    aggr3         node1        node2        online
    aggr4         node1        node2        online
    
    4 entries were displayed.
  10. 다음 작업 중 하나를 수행합니다.

    의 명령인 경우 9단계…​ 그러면…​

    출력이 비어 있습니다

    11단계를 건너뛰고 로 이동합니다 12단계.

    출력이 있었습니다

    로 이동합니다 11단계.

  11. 노드 1 또는 노드 2가 현재 소유이지만 홈 소유자가 아닌 집계를 소유하고 있으면 다음 하위 단계를 완료합니다.

    1. 파트너 노드가 현재 소유한 애그리게이트를 홈 소유자 노드로 반환:

      storage failover giveback -ofnode home_node_name

    2. 노드 1과 노드 2가 현재 소유자인 애그리게이트를 소유하지 않고 홈 소유자가 아닌 경우:

      storage aggregate show -nodes node_name -is-home false -fields owner-name, home-name, state

      다음 예제는 노드가 Aggregate의 현재 소유자이자 홈 소유자인 경우 명령의 출력을 보여줍니다.

    cluster::> storage aggregate show -nodes node1
              -is-home true -fields owner-name,home-name,state
    
    aggregate     home-name    owner-name   state
    ------------- ------------ ------------ ------
    aggr1         node1        node1        online
    aggr2         node1        node1        online
    aggr3         node1        node1        online
    aggr4         node1        node1        online
    
    4 entries were displayed.
  12. node1과 node2가 서로의 스토리지를 액세스할 수 있는지 확인하고 누락된 디스크가 없는지 확인합니다.

    storage failover show -fields local-missing-disks,partner-missing-disks

    다음 예에서는 디스크가 없는 경우의 출력을 보여 줍니다.

    cluster::> storage failover show -fields local-missing-disks,partner-missing-disks
    
    node     local-missing-disks partner-missing-disks
    -------- ------------------- ---------------------
    node1    None                None
    node2    None                None

    디스크가 누락된 경우 _ 디스크 및 CLI _, _ CLI _ 를 사용한 논리적 스토리지 관리 및 _HA 쌍 관리 _ 를 사용하여 HA 쌍의 스토리지를 구성합니다."참조"

  13. 노드 1과 노드 2가 정상 상태이며 클러스터에 참여할 자격이 있는지 확인합니다.

    cluster show

    다음 예는 두 노드가 모두 정상이고 정상일 때의 출력을 보여줍니다.

    cluster::> cluster show
    
    Node                  Health  Eligibility
    --------------------- ------- ------------
    node1                 true    true
    node2                 true    true
  14. 권한 수준을 고급으로 설정합니다.

    set -privilege advanced

  15. node1과 node2가 동일한 ONTAP 릴리즈를 실행하고 있는지 확인합니다.

    system node image show -node node1,node2 -iscurrent true

    다음 예제는 명령의 출력을 보여 줍니다.

    cluster::*> system node image show -node node1,node2 -iscurrent true
    
                     Is      Is                Install
    Node     Image   Default Current Version   Date
    -------- ------- ------- ------- --------- -------------------
    node1
             image1  true    true    9.1         2/7/2017 20:22:06
    node2
             image1  true    true    9.1         2/7/2017 20:20:48
    
    2 entries were displayed.
  16. 노드 1과 노드 2가 클러스터의 다른 노드에 속한 데이터 LIF를 소유하고 있지 않은지 확인한 다음 를 확인합니다 Current NodeIs Home 출력의 열:

    network interface show -role data -is-home false -curr-node node_name

    다음 예제에서는 node1에 클러스터의 다른 노드가 소유하는 LIF가 없는 경우의 출력을 보여 줍니다.

    cluster::> network interface show -role data -is-home false -curr-node node1
     There are no entries matching your query.

    다음 예제에서는 node1이 다른 노드가 소유한 데이터 LIF를 소유하는 경우의 출력을 보여 줍니다.

    cluster::> network interface show -role data -is-home false -curr-node node1
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    vs0
                data1      up/up      172.18.103.137/24  node1         e0d     false
                data2      up/up      172.18.103.143/24  node1         e0f     false
    
    2 entries were displayed.
  17. 의 출력인 경우 15단계 에서는 노드 1이나 노드 2가 클러스터의 다른 노드에서 소유하는 데이터 LIF를 노드 1이나 노드 2에서 다른 데이터 LIF로 마이그레이션합니다.

    network interface revert -vserver * -lif *

    에 대한 자세한 내용은 를 참조하십시오 network interface revert 명령, 을 참조하십시오 "참조" _ONTAP 9 명령에 연결하려면 수동 페이지 참조 _.

  18. 노드 1이나 노드 2에 장애가 발생한 디스크가 있는지 확인합니다.

    storage disk show -nodelist node1,node2 -broken

    디스크에 오류가 발생한 경우, _ Disk 의 지침에 따라 디스크를 제거하고 CLI _ 을(를) 사용하여 관리를 통합합니다. (을 참조하십시오 "참조" CLI_를 사용하여 _ 디스크 및 애그리게이트 관리에 연결하려면 _.)

  19. 다음 하위 단계를 완료하고 각 명령의 출력을 기록하여 node1 및 node2에 대한 정보를 수집합니다.

    참고
    • 이 정보는 나중에 이 절차의 뒷부분에서 사용합니다.

    • 업그레이드를 시작하기 전에 FAS8080, AFF8080 시스템과 같이 노드당 클러스터 포트가 2개 이상인 시스템이 있는 경우 클러스터 LIF를 노드당 두 개의 클러스터 포트로 마이그레이션하고 재구성해야 합니다. 노드당 둘 이상의 클러스터 포트로 컨트롤러 업그레이드를 수행하는 경우 업그레이드 후 새 컨트롤러에 클러스터 LIF가 누락될 수 있습니다.

    1. 두 노드의 모델, 시스템 ID 및 일련 번호를 기록합니다.

      system node show -node node1,node2 -instance

      참고 이 정보를 사용하여 디스크를 재할당하고 원래 노드의 서비스를 해제할 수 있습니다.
    2. 노드 1과 노드 2 모두에 다음 명령을 입력하고 쉘프, 각 쉘프의 디스크 수, 플래시 스토리지 세부 정보, 메모리, NVRAM 및 네트워크 카드 출력에 대한 정보를 기록합니다.

      run -node node_name sysconfig

      참고 이 정보를 사용하여 노드3 또는 노드4로 전송할 부품 또는 액세서리를 식별할 수 있습니다. 노드가 V-Series 시스템인지 또는 FlexArray 가상화 소프트웨어가 있는지 모르는 경우 출력에서 해당 정보를 확인할 수 있습니다.
    3. 노드 1과 노드 2 모두에 대해 다음 명령을 입력하고 두 노드에서 온라인 상태인 애그리게이트를 기록합니다.

      storage aggregate show -node node_name -state online

      참고 이 정보와 다음 하위 단계의 정보를 사용하여 재배치 중에 애그리게이트와 볼륨이 오프라인 상태로 유지되는 짧은 기간을 제외하고 절차 내내 애그리게이트와 볼륨이 온라인 상태로 유지되는지 확인할 수 있습니다.
    4. node1과 node2에서 다음 명령을 입력하고 두 노드에서 오프라인 상태인 볼륨을 기록합니다.

      volume show -node node_name -state offline

    참고 업그레이드 후에 명령을 다시 실행하고 이 단계의 출력과 출력을 비교하여 다른 볼륨이 오프라인 상태가 되었는지 확인합니다.
  20. 노드 1이나 노드 2에 인터페이스 그룹 또는 VLAN이 구성되어 있는지 확인하려면 다음 명령을 입력합니다.

    network port ifgrp show

    network port vlan show

    인터페이스 그룹 또는 VLAN이 노드 1이나 노드 2에 구성되어 있는지 확인하십시오. 다음 단계와 나중에 이 절차에 해당 정보가 필요합니다.

  21. 노드 1과 노드 2 모두에서 다음 하위 단계를 완료하여 절차의 뒷부분에서 물리적 포트를 올바르게 매핑할 수 있는지 확인합니다.

    1. 다음 명령을 입력하여 이외의 노드에 페일오버 그룹이 있는지 확인합니다 clusterwide:

      network interface failover-groups show

      페일오버 그룹은 시스템에 있는 네트워크 포트 세트입니다. 컨트롤러 하드웨어를 업그레이드하면 물리적 포트의 위치가 변경될 수 있으므로 업그레이드 중에 페일오버 그룹을 실수로 변경할 수 있습니다.

      다음 예에서와 같이 시스템에 노드에 페일오버 그룹이 표시됩니다.

      cluster::> network interface failover-groups show
      
      Vserver             Group             Targets
      ------------------- ----------------- ----------
      Cluster             Cluster           node1:e0a, node1:e0b
                                            node2:e0a, node2:e0b
      
      fg_6210_e0c         Default           node1:e0c, node1:e0d
                                            node1:e0e, node2:e0c
                                            node2:e0d, node2:e0e
      
      2 entries were displayed.
    2. 이외의 페일오버 그룹이 있는 경우 `clusterwide`에서 페일오버 그룹 이름과 페일오버 그룹에 속한 포트를 기록합니다.

    3. 다음 명령을 입력하여 노드에 구성된 VLAN이 있는지 확인합니다.

      network port vlan show -node node_name

      VLAN은 물리적 포트를 통해 구성됩니다. 물리적 포트가 변경될 경우 VLAN을 나중에 다시 생성해야 합니다.

      다음 예에 표시된 것처럼 시스템에 노드에 구성된 VLAN이 표시됩니다.

    cluster::> network port vlan show
    
    Network Network
    Node    VLAN Name Port    VLAN ID MAC Address
    ------  --------- ------- ------- ------------------
    node1   e1b-70    e1b     70      00:15:17:76:7b:69
    1. 노드에 구성된 VLAN이 있는 경우 각 네트워크 포트 및 VLAN ID 페어링을 기록해 두십시오.

  22. 다음 작업 중 하나를 수행합니다.

    인터페이스 그룹 또는 VLAN이…​ 그러면…​

    노드1 또는 노드2에서

    완료 23단계24단계.

    노드 1이나 노드 2에 없습니다

    로 이동합니다 24단계.

  23. 노드 1과 노드 2가 SAN 또는 비 SAN 환경에 있는지 여부를 모르는 경우 다음 명령을 입력하고 해당 출력을 검사합니다.

    network interface show -vserver vserver_name -data-protocol iscsi|fcp

    SVM에 대해 iSCSI와 FC를 구성하지 않을 경우 명령은 다음 예제와 유사한 메시지를 표시합니다.

    cluster::> network interface show -vserver Vserver8970 -data-protocol iscsi|fcp
    There are no entries matching your query.

    를 사용하여 노드가 NAS 환경에 있는지 확인할 수 있습니다 network interface show 명령과 함께 -data-protocol nfs|cifs 매개 변수.

    SVM에 iSCSI 또는 FC를 구성한 경우 명령에 다음 예와 유사한 메시지가 표시됩니다.

    cluster::> network interface show -vserver vs1 -data-protocol iscsi|fcp
    
             Logical    Status     Network            Current  Current Is
    Vserver  Interface  Admin/Oper Address/Mask       Node     Port    Home
    -------- ---------- ---------- ------------------ -------- ------- ----
    vs1      vs1_lif1   up/down    172.17.176.20/24   node1    0d      true
  24. 다음 하위 단계를 완료하여 클러스터의 모든 노드가 쿼럼에 있는지 확인합니다.

    1. 고급 권한 수준 입력:

      set -privilege advanced

      다음과 같은 메시지가 표시됩니다.

      Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel.
      Do you wish to continue? (y or n):
    2. 를 입력합니다 y.

    3. 각 노드에 대해 한 번씩 커널에서 클러스터 서비스 상태를 확인합니다.

      cluster kernel-service show

      다음 예와 유사한 메시지가 표시됩니다.

    cluster::*> cluster kernel-service show
    
    Master        Cluster       Quorum        Availability  Operational
    Node          Node          Status        Status        Status
    ------------- ------------- ------------- ------------- -------------
    node1         node1         in-quorum     true          operational
                  node2         in-quorum     true          operational
    
    2 entries were displayed.

    +
    클러스터의 노드는 대부분의 노드가 정상이고 서로 통신할 수 있는 경우 쿼럼 내에 있습니다. 자세한 내용은 을 참조하십시오 "참조" 시스템 관리 참조 _ 에 대한 링크

    1. 관리 권한 수준으로 돌아가기:

      set -privilege admin

  25. 다음 작업 중 하나를 수행합니다.

    클러스터가 다음과 같은 경우 그러면…​

    SAN이 구성되었습니다

    로 이동합니다 26단계.

    구성된 SAN이 없습니다

    로 이동합니다 29단계.

  26. 다음 명령을 입력하여 출력을 검사하여 SAN iSCSI 또는 FC 서비스가 활성화된 각 SVM에 대한 노드 1과 노드 2에 SAN LIF가 있는지 확인합니다.

    network interface show -data-protocol iscsi|fcp -home-node node_name

    이 명령을 실행하면 노드 1과 노드 2의 SAN LIF 정보가 표시됩니다. 다음 예는 Status Admin/Oper 열의 상태를 UP/UP 으로 보여 줍니다. 이는 SAN iSCSI 및 FC 서비스가 활성화되었음을 나타냅니다.

    cluster::> network interface show -data-protocol iscsi|fcp
                Logical    Status     Network                  Current   Current Is
    Vserver     Interface  Admin/Oper Address/Mask             Node      Port    Home
    ----------- ---------- ---------- ------------------       --------- ------- ----
    a_vs_iscsi  data1      up/up      10.228.32.190/21         node1     e0a     true
                data2      up/up      10.228.32.192/21         node2     e0a     true
    
    b_vs_fcp    data1      up/up      20:09:00:a0:98:19:9f:b0  node1     0c      true
                data2      up/up      20:0a:00:a0:98:19:9f:b0  node2     0c      true
    
    c_vs_iscsi_fcp data1   up/up      20:0d:00:a0:98:19:9f:b0  node2     0c      true
                data2      up/up      20:0e:00:a0:98:19:9f:b0  node2     0c      true
                data3      up/up      10.228.34.190/21         node2     e0b     true
                data4      up/up      10.228.34.192/21         node2     e0b     true

    또는 다음 명령을 입력하여 더 자세한 LIF 정보를 볼 수 있습니다.

    network interface show -instance -data-protocol iscsi|fcp

  27. 다음 명령을 입력하고 시스템의 출력을 기록하여 원래 노드에 있는 FC 포트의 기본 구성을 캡처합니다.

    ucadmin show

    명령은 다음 예에 표시된 대로 클러스터에 있는 모든 FC 포트에 대한 정보를 표시합니다.

    cluster::> ucadmin show
    
                    Current Current   Pending Pending   Admin
    Node    Adapter Mode    Type      Mode    Type      Status
    ------- ------- ------- --------- ------- --------- -----------
    node1   0a      fc      initiator -       -         online
    node1   0b      fc      initiator -       -         online
    node1   0c      fc      initiator -       -         online
    node1   0d      fc      initiator -       -         online
    node2   0a      fc      initiator -       -         online
    node2   0b      fc      initiator -       -         online
    node2   0c      fc      initiator -       -         online
    node2   0d      fc      initiator -       -         online
    8 entries were displayed.

    업그레이드 후 정보를 사용하여 새 노드의 FC 포트 구성을 설정할 수 있습니다.

  28. V 시리즈 시스템이나 FlexArray 가상화 소프트웨어를 사용하여 시스템을 업그레이드하는 경우 다음 명령을 입력하고 출력을 기록하여 원래 노드의 토폴로지에 대한 정보를 캡처합니다.

    storage array config show -switch

    다음 예에서와 같이 토폴로지 정보가 표시됩니다.

    cluster::> storage array config show -switch
    
          LUN LUN                                  Target Side Initiator Side Initi-
    Node  Grp Cnt Array Name    Array Target Port  Switch Port Switch Port    ator
    ----- --- --- ------------- ------------------ ----------- -------------- ------
    node1 0   50  I_1818FAStT_1
                                205700a0b84772da   vgbr6510a:5  vgbr6510s164:3  0d
                                206700a0b84772da   vgbr6510a:6  vgbr6510s164:4  2b
                                207600a0b84772da   vgbr6510b:6  vgbr6510s163:1  0c
    node2 0   50  I_1818FAStT_1
                                205700a0b84772da   vgbr6510a:5  vgbr6510s164:1  0d
                                206700a0b84772da   vgbr6510a:6  vgbr6510s164:2  2b
                                207600a0b84772da   vgbr6510b:6  vgbr6510s163:3  0c
                                208600a0b84772da   vgbr6510b:5  vgbr6510s163:4  2a
    7 entries were displayed.
  29. 다음 하위 단계를 완료합니다.

    1. 원래 노드 중 하나에 다음 명령을 입력하고 출력을 기록합니다.

      service-processor show -node * -instance

    두 노드의 SP에 대한 자세한 정보가 표시됩니다.

    1. SP 상태가 인지 확인합니다 online.

    2. SP 네트워크가 구성되었는지 확인합니다.

    3. SP에 대한 IP 주소 및 기타 정보를 기록합니다.

      원격 관리 디바이스의 네트워크 매개 변수를 다시 사용할 수 있습니다. 이 경우 SP는 새 노드의 SP에 대해 원래 시스템에서 재사용해야 합니다. SP에 대한 자세한 내용은 를 참조하십시오 "참조" 시스템 관리 참조 및 _ONTAP 9 명령에 연결하려면 수동 페이지 참조 _.

  30. 새 노드가 원래 노드와 라이센스가 부여된 기능을 동일하게 사용하려면 다음 명령을 입력하여 원래 시스템에서 클러스터 라이센스를 확인합니다.

    system license show -owner *

    다음 예에서는 cluster1에 대한 사이트 라이센스를 보여 줍니다.

    system license show -owner *
    Serial Number: 1-80-000013
    Owner: cluster1
    
    Package           Type    Description           Expiration
    ----------------- ------- --------------------- -----------
    Base              site    Cluster Base License  -
    NFS               site    NFS License           -
    CIFS              site    CIFS License          -
    SnapMirror        site    SnapMirror License    -
    FlexClone         site    FlexClone License     -
    SnapVault         site    SnapVault License     -
    6 entries were displayed.
  31. 새 노드의 새 라이센스 키는 _NetApp Support 사이트_에서 구할 수 있습니다. 을 참조하십시오 "참조" 링크를 통해 _ NetApp Support 사이트 _ 에 연결할 수 있습니다.

    사이트에 필요한 라이센스 키가 없는 경우 NetApp 세일즈 담당자에게 문의하십시오.

  32. 각 노드에서 다음 명령을 입력하여 원래 시스템에 AutoSupport가 활성화되어 있는지 확인하고 해당 출력을 확인합니다.

    system node autosupport show -node node1,node2

    명령 출력에는 다음 예제와 같이 AutoSupport가 설정되어 있는지 여부가 표시됩니다.

    cluster::> system node autosupport show -node node1,node2
    
    Node             State     From          To                Mail Hosts
    ---------------- --------- ------------- ----------------  ----------
    node1            enable    Postmaster    admin@netapp.com  mailhost
    
    node2            enable    Postmaster    -                 mailhost
    2 entries were displayed.
  33. 다음 작업 중 하나를 수행합니다.

    원래 시스템이…​ 그러면…​

    AutoSupport가 활성화되어 있습니다…​

    로 이동합니다 34단계.

    AutoSupport가 활성화되지 않았습니다…​

    시스템 관리 참조 _ 의 지침에 따라 AutoSupport를 활성화합니다. (을 참조하십시오 "참조" 시스템 관리 참조 _.(에 대한 링크)

    • 참고: * 스토리지 시스템을 처음 구성할 때 AutoSupport는 기본적으로 사용하도록 설정됩니다. AutoSupport는 언제든지 비활성화할 수 있지만 활성화 상태를 유지해야 합니다. AutoSupport를 활성화하면 스토리지 시스템에서 문제가 발생할 경우 문제 및 솔루션을 쉽게 식별할 수 있습니다.

  34. 원본 노드 모두에 다음 명령을 입력하고 출력을 검사하여 AutoSupport가 올바른 메일 호스트 세부 정보와 수신자 이메일 ID로 구성되었는지 확인합니다.

    system node autosupport show -node node_name -instance

    AutoSupport에 대한 자세한 내용은 을 참조하십시오 "참조" 시스템 관리 참조 및 _ONTAP 9 명령에 연결하려면 수동 페이지 참조 _.

  35. 다음 명령을 입력하여 node1에 대한 AutoSupport 메시지를 NetApp에 보냅니다.

    system node autosupport invoke -node node1 -type all -message "Upgrading node1 from platform_old to platform_new"

    참고 이때 노드 2의 경우 AutoSupport 메시지를 NetApp에 보내지 마십시오. 나중에 이 작업을 수행할 수 있습니다.
  36. 다음 명령을 입력하고 출력을 검사하여 AutoSupport 메시지가 전송되었는지 확인합니다.

    system node autosupport show -node node1 -instance

    필드 Last Subject Sent:Last Time Sent: 마지막으로 보낸 메시지의 메시지 제목과 메시지를 보낸 시간을 포함합니다.

  37. 시스템에서 자체 암호화 드라이브를 사용하는 경우 기술 자료 문서를 참조하십시오 "드라이브가 FIPS 인증되었는지 확인하는 방법" 업그레이드하는 HA 쌍에서 사용 중인 자체 암호화 드라이브의 유형을 확인합니다. ONTAP 소프트웨어는 두 가지 유형의 자체 암호화 드라이브를 지원합니다.

    • FIPS 인증 NSE(NetApp Storage Encryption) SAS 또는 NVMe 드라이브

    • FIPS가 아닌 자체 암호화 NVMe 드라이브(SED)

    참고

    동일한 노드 또는 HA 쌍에서 다른 유형의 드라이브와 FIPS 드라이브를 혼합할 수 없습니다.

    동일한 노드 또는 HA 쌍에서 SED를 비암호화 드라이브와 혼합할 수 있습니다.