업그레이드할 노드를 준비합니다
원래 노드를 교체하기 전에 해당 노드가 HA 쌍 안에 있는지, 누락된 디스크 또는 장애가 발생한 디스크가 없는지, 서로의 스토리지에 액세스할 수 있는지, 클러스터의 다른 노드에 할당된 데이터 LIF를 소유하지 않는지 확인해야 합니다. 또한 원래 노드에 대한 정보도 수집해야 하며, 클러스터가 SAN 환경에 있는 경우 클러스터의 모든 노드가 쿼럼에 있는지 확인해야 합니다.
-
테이크오버 모드 중에 두 노드의 워크로드를 적절하게 지원하는 데 필요한 리소스가 각 원래 노드에 있는지 확인하십시오.
HA Pair 관리 _ 링크를 참조하고 "참조"_ HA Pair에 대한 모범 사례 _ 섹션을 따르십시오. 원래 노드 중 어느 것도 50% 이상의 사용률로 실행되지 않아야 합니다. 50% 미만의 활용률로 실행 중인 노드는 컨트롤러 업그레이드 중에 두 노드의 부하를 처리할 수 있습니다.
-
원본 노드에 대한 성능 기준을 만들려면 다음 하위 단계를 완료하십시오.
-
진단 사용자 계정이 잠금 해제되어 있는지 확인합니다.
진단 사용자 계정은 하위 수준 진단 목적으로만 사용해야 하며 기술 지원 부서의 안내에 따라서만 사용해야 합니다.
사용자 계정 잠금 해제에 대한 자세한 내용은 을 참조하십시오 "참조" 시스템 관리 참조 _ 에 대한 링크
-
을 참조하십시오 "참조" 를 방문하여 _NetApp Support 사이트_에 연결하고 성능 및 통계 수집기(perfstat Converged)를 다운로드하십시오.
perfstat Converged 툴을 사용하면 업그레이드 후 비교를 위한 성능 기준을 설정할 수 있습니다.
-
NetApp Support 사이트의 지침에 따라 성능 기준을 만듭니다.
-
-
을 참조하십시오 "참조" 를 눌러 _NetApp Support 사이트_에 연결하고 NetApp Support 사이트에서 지원 케이스를 여십시오.
이 케이스를 사용하여 업그레이드 중에 발생할 수 있는 문제를 보고할 수 있습니다.
-
노드 3 및 노드 4의 NVMEM 또는 NVRAM 배터리가 충전되었는지 확인하고 충전되지 않은 경우 충전합니다.
NVMEM 또는 NVRAM 배터리가 충전되었는지 확인하려면 노드 3과 노드 4를 물리적으로 확인해야 합니다. 노드 3 및 노드 4 모델의 상태 표시등에 대한 자세한 내용은 을 참조하십시오 "참조" Hardware Universe_에 대한 링크
* 주의 * NVRAM 내용을 지우지 마십시오. NVRAM의 내용을 지우려면 NetApp 기술 지원 팀에 문의하십시오. -
노드 3과 노드 4에서 ONTAP 버전을 확인합니다.
새 노드에는 원래 노드에 설치된 동일한 버전의 ONTAP 9.x가 설치되어 있어야 합니다. 새 노드의 ONTAP 버전이 다른 설치된 경우 새 컨트롤러를 설치한 후 해당 컨트롤러를 netboot 해야 합니다. ONTAP를 업그레이드하는 방법에 대한 지침은 을 참조하십시오 "참조" ONTAP_ 업그레이드 링크
노드 3 및 노드 4의 ONTAP 버전에 대한 정보는 배송 상자에 포함되어 있어야 합니다. ONTAP 버전은 노드가 부팅될 때 표시되며, 노드를 유지보수 모드로 부팅하고 명령을 실행할 수 있습니다.
version
-
노드 1과 노드 2에 2개 또는 4개의 클러스터 LIF가 있는지 확인합니다.
network interface show -role cluster
다음 예제와 같이 시스템에서 모든 클러스터 LIF를 표시합니다.
cluster::> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ------- ---------- ---------- ---------------- -------- ------- ---- node1 clus1 up/up 172.17.177.2/24 node1 e0c true clus2 up/up 172.17.177.6/24 node1 e0e true node2 clus1 up/up 172.17.177.3/24 node2 e0c true clus2 up/up 172.17.177.7/24 node2 e0e true
-
노드 1 또는 노드 2에 2개 또는 4개의 클러스터 LIF가 있는 경우 다음 하위 단계를 완료하여 사용 가능한 모든 경로에서 두 클러스터 LIF를 모두 Ping할 수 있는지 확인합니다.
-
고급 권한 수준 입력:
set -privilege advanced
다음과 같은 메시지가 표시됩니다.
Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel. Do you wish to continue? (y or n):
-
를 입력합니다
y
. -
노드를 ping하고 연결을 테스트합니다.
cluster ping-cluster -node node_name
다음 예와 유사한 메시지가 표시됩니다.
cluster::*> cluster ping-cluster -node node1 Host is node1 Getting addresses from network interface table... Local = 10.254.231.102 10.254.91.42 Remote = 10.254.42.25 10.254.16.228 Ping status: ... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 1500 byte MTU on 4 path(s): Local 10.254.231.102 to Remote 10.254.16.228 Local 10.254.231.102 to Remote 10.254.42.25 Local 10.254.91.42 to Remote 10.254.16.228 Local 10.254.91.42 to Remote 10.254.42.25 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
+
노드가 2개의 클러스터 포트를 사용하는 경우 예에서와 같이 4개 경로에서 통신할 수 있어야 합니다.-
관리 레벨 권한으로 돌아가기:
set -privilege admin
-
-
노드 1과 노드 2가 HA 쌍 내에 있는지 확인하고 노드가 서로 연결되어 있으며 테이크오버가 가능한지 확인합니다.
storage failover show
다음 예는 노드가 서로 연결되고 테이크오버가 가능한 경우의 출력을 보여 줍니다.
cluster::> storage failover show Takeover Node Partner Possible State Description -------------- -------------- -------- ------------------------------- node1 node2 true Connected to node2 node2 node1 true Connected to node1
어느 노드도 부분 반환에 있어서는 안 됩니다. 다음 예제에서는 node1이 부분 반환에 있음을 보여 줍니다.
cluster::> storage failover show Takeover Node Partner Possible State Description -------------- -------------- -------- ------------------------------- node1 node2 true Connected to node2, Partial giveback node2 node1 true Connected to node1
노드 중 하나가 부분 반환 상태인 경우
storage failover giveback
명령을 사용하여 기브백을 수행한 다음 명령을 사용하여storage failover show-giveback
아직 애그리게이트를 다시 제공할 필요가 없는지 확인합니다. 명령에 대한 자세한 내용은 "참조"HA Pair management 링크를 참조하십시오. -
노드 1과 노드 2가 현재 소유자인 집계(홈 소유자가 아님)를 소유하고 있지 않은지 확인합니다.
storage aggregate show -nodes node_name -is-home false -fields owner-name, home-name, state
노드 1과 노드 2가 현재 소유자인 Aggregate(홈 소유자가 아님)를 소유하지 않으면 시스템이 다음 예와 유사한 메시지를 반환합니다.
cluster::> storage aggregate show -node node2 -is-home false -fields owner-name,homename,state There are no entries matching your query.
다음 예제에서는 node2라는 이름의 노드에 대한 명령 출력을 보여 줍니다. node2는 홈 소유이지만 현재 소유자가 아닌 4개의 애그리게이트로 구성됩니다.
cluster::> storage aggregate show -node node2 -is-home false -fields owner-name,home-name,state aggregate home-name owner-name state ------------- ------------ ------------ ------ aggr1 node1 node2 online aggr2 node1 node2 online aggr3 node1 node2 online aggr4 node1 node2 online 4 entries were displayed.
-
다음 작업 중 하나를 수행합니다.
의 명령인 경우 9단계… 그러면… 출력이 비어 있습니다
11단계를 건너뛰고 로 이동합니다 12단계.
출력이 있었습니다
로 이동합니다 11단계.
-
노드 1 또는 노드 2가 현재 소유이지만 홈 소유자가 아닌 집계를 소유하고 있으면 다음 하위 단계를 완료합니다.
-
파트너 노드가 현재 소유한 애그리게이트를 홈 소유자 노드로 반환:
storage failover giveback -ofnode home_node_name
-
노드 1과 노드 2가 현재 소유자인 애그리게이트를 소유하지 않고 홈 소유자가 아닌 경우:
storage aggregate show -nodes node_name -is-home false -fields owner-name, home-name, state
다음 예제는 노드가 Aggregate의 현재 소유자이자 홈 소유자인 경우 명령의 출력을 보여줍니다.
cluster::> storage aggregate show -nodes node1 -is-home true -fields owner-name,home-name,state aggregate home-name owner-name state ------------- ------------ ------------ ------ aggr1 node1 node1 online aggr2 node1 node1 online aggr3 node1 node1 online aggr4 node1 node1 online 4 entries were displayed.
-
-
node1과 node2가 서로의 스토리지를 액세스할 수 있는지 확인하고 누락된 디스크가 없는지 확인합니다.
storage failover show -fields local-missing-disks,partner-missing-disks
다음 예에서는 디스크가 없는 경우의 출력을 보여 줍니다.
cluster::> storage failover show -fields local-missing-disks,partner-missing-disks node local-missing-disks partner-missing-disks -------- ------------------- --------------------- node1 None None node2 None None
디스크가 누락된 경우 _ 디스크 및 CLI _, _ CLI _ 를 사용한 논리적 스토리지 관리 및 _HA 쌍 관리 _ 를 사용하여 HA 쌍의 스토리지를 구성합니다."참조"
-
노드 1과 노드 2가 정상 상태이며 클러스터에 참여할 자격이 있는지 확인합니다.
cluster show
다음 예는 두 노드가 모두 정상이고 정상일 때의 출력을 보여줍니다.
cluster::> cluster show Node Health Eligibility --------------------- ------- ------------ node1 true true node2 true true
-
권한 수준을 고급으로 설정합니다.
set -privilege advanced
-
node1과 node2가 동일한 ONTAP 릴리즈를 실행하고 있는지 확인합니다.
system node image show -node node1,node2 -iscurrent true
다음 예제는 명령의 출력을 보여 줍니다.
cluster::*> system node image show -node node1,node2 -iscurrent true Is Is Install Node Image Default Current Version Date -------- ------- ------- ------- --------- ------------------- node1 image1 true true 9.1 2/7/2017 20:22:06 node2 image1 true true 9.1 2/7/2017 20:20:48 2 entries were displayed.
-
노드 1과 노드 2가 클러스터의 다른 노드에 속한 데이터 LIF를 소유하고 있지 않은지 확인한 다음 를 확인합니다
Current Node
및Is Home
출력의 열:network interface show -role data -is-home false -curr-node node_name
다음 예제에서는 node1에 클러스터의 다른 노드가 소유하는 LIF가 없는 경우의 출력을 보여 줍니다.
cluster::> network interface show -role data -is-home false -curr-node node1 There are no entries matching your query.
다음 예제에서는 node1이 다른 노드가 소유한 데이터 LIF를 소유하는 경우의 출력을 보여 줍니다.
cluster::> network interface show -role data -is-home false -curr-node node1 Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- vs0 data1 up/up 172.18.103.137/24 node1 e0d false data2 up/up 172.18.103.143/24 node1 e0f false 2 entries were displayed.
-
의 출력인 경우 15단계 에서는 노드 1이나 노드 2가 클러스터의 다른 노드에서 소유하는 데이터 LIF를 노드 1이나 노드 2에서 다른 데이터 LIF로 마이그레이션합니다.
network interface revert -vserver * -lif *
에 대한 자세한 내용은 를 참조하십시오
network interface revert
명령, 을 참조하십시오 "참조" _ONTAP 9 명령에 연결하려면 수동 페이지 참조 _. -
노드 1이나 노드 2에 장애가 발생한 디스크가 있는지 확인합니다.
storage disk show -nodelist node1,node2 -broken
디스크에 오류가 발생한 경우, _ Disk 의 지침에 따라 디스크를 제거하고 CLI _ 을(를) 사용하여 관리를 통합합니다. (을 참조하십시오 "참조" CLI_를 사용하여 _ 디스크 및 애그리게이트 관리에 연결하려면 _.)
-
다음 하위 단계를 완료하고 각 명령의 출력을 기록하여 node1 및 node2에 대한 정보를 수집합니다.
이 정보는 나중에 이 절차의 뒷부분에서 사용합니다. -
두 노드의 모델, 시스템 ID 및 일련 번호를 기록합니다.
system node show -node node1,node2 -instance
이 정보를 사용하여 디스크를 재할당하고 원래 노드의 서비스를 해제할 수 있습니다. -
노드 1과 노드 2 모두에 다음 명령을 입력하고 쉘프, 각 쉘프의 디스크 수, 플래시 스토리지 세부 정보, 메모리, NVRAM 및 네트워크 카드 출력에 대한 정보를 기록합니다.
run -node node_name sysconfig
이 정보를 사용하여 노드3 또는 노드4로 전송할 부품 또는 액세서리를 식별할 수 있습니다. 노드가 V-Series 시스템인지 또는 FlexArray 가상화 소프트웨어가 있는지 모르는 경우 출력에서 해당 정보를 확인할 수 있습니다. -
노드 1과 노드 2 모두에 대해 다음 명령을 입력하고 두 노드에서 온라인 상태인 애그리게이트를 기록합니다.
storage aggregate show -node node_name -state online
이 정보와 다음 하위 단계의 정보를 사용하여 재배치 중에 애그리게이트와 볼륨이 오프라인 상태로 유지되는 짧은 기간을 제외하고 절차 내내 애그리게이트와 볼륨이 온라인 상태로 유지되는지 확인할 수 있습니다. -
node1과 node2에서 다음 명령을 입력하고 두 노드에서 오프라인 상태인 볼륨을 기록합니다.
volume show -node node_name -state offline
업그레이드 후에 명령을 다시 실행하고 이 단계의 출력과 출력을 비교하여 다른 볼륨이 오프라인 상태가 되었는지 확인합니다. -
-
노드 1이나 노드 2에 인터페이스 그룹 또는 VLAN이 구성되어 있는지 확인하려면 다음 명령을 입력합니다.
network port ifgrp show
network port vlan show
인터페이스 그룹 또는 VLAN이 노드 1이나 노드 2에 구성되어 있는지 확인하십시오. 다음 단계와 나중에 이 절차에 해당 정보가 필요합니다.
-
노드 1과 노드 2 모두에서 다음 하위 단계를 완료하여 절차의 뒷부분에서 물리적 포트를 올바르게 매핑할 수 있는지 확인합니다.
-
다음 명령을 입력하여 이외의 노드에 페일오버 그룹이 있는지 확인합니다
clusterwide
:network interface failover-groups show
페일오버 그룹은 시스템에 있는 네트워크 포트 세트입니다. 컨트롤러 하드웨어를 업그레이드하면 물리적 포트의 위치가 변경될 수 있으므로 업그레이드 중에 페일오버 그룹을 실수로 변경할 수 있습니다.
다음 예에서와 같이 시스템에 노드에 페일오버 그룹이 표시됩니다.
cluster::> network interface failover-groups show Vserver Group Targets ------------------- ----------------- ---------- Cluster Cluster node1:e0a, node1:e0b node2:e0a, node2:e0b fg_6210_e0c Default node1:e0c, node1:e0d node1:e0e, node2:e0c node2:e0d, node2:e0e 2 entries were displayed.
-
이외의 페일오버 그룹이 있는 경우 `clusterwide`에서 페일오버 그룹 이름과 페일오버 그룹에 속한 포트를 기록합니다.
-
다음 명령을 입력하여 노드에 구성된 VLAN이 있는지 확인합니다.
network port vlan show -node node_name
VLAN은 물리적 포트를 통해 구성됩니다. 물리적 포트가 변경될 경우 VLAN을 나중에 다시 생성해야 합니다.
다음 예에 표시된 것처럼 시스템에 노드에 구성된 VLAN이 표시됩니다.
cluster::> network port vlan show Network Network Node VLAN Name Port VLAN ID MAC Address ------ --------- ------- ------- ------------------ node1 e1b-70 e1b 70 00:15:17:76:7b:69
-
노드에 구성된 VLAN이 있는 경우 각 네트워크 포트 및 VLAN ID 페어링을 기록해 두십시오.
-
-
다음 작업 중 하나를 수행합니다.
인터페이스 그룹 또는 VLAN이… 그러면… 노드1 또는 노드2에서
노드 1이나 노드 2에 없습니다
로 이동합니다 24단계.
-
노드 1과 노드 2가 SAN 또는 비 SAN 환경에 있는지 여부를 모르는 경우 다음 명령을 입력하고 해당 출력을 검사합니다.
network interface show -vserver vserver_name -data-protocol iscsi|fcp
SVM에 대해 iSCSI와 FC를 구성하지 않을 경우 명령은 다음 예제와 유사한 메시지를 표시합니다.
cluster::> network interface show -vserver Vserver8970 -data-protocol iscsi|fcp There are no entries matching your query.
를 사용하여 노드가 NAS 환경에 있는지 확인할 수 있습니다
network interface show
명령과 함께-data-protocol nfs|cifs
매개 변수.SVM에 iSCSI 또는 FC를 구성한 경우 명령에 다음 예와 유사한 메시지가 표시됩니다.
cluster::> network interface show -vserver vs1 -data-protocol iscsi|fcp Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home -------- ---------- ---------- ------------------ -------- ------- ---- vs1 vs1_lif1 up/down 172.17.176.20/24 node1 0d true
-
다음 하위 단계를 완료하여 클러스터의 모든 노드가 쿼럼에 있는지 확인합니다.
-
고급 권한 수준 입력:
set -privilege advanced
다음과 같은 메시지가 표시됩니다.
Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel. Do you wish to continue? (y or n):
-
를 입력합니다
y
. -
각 노드에 대해 한 번씩 커널에서 클러스터 서비스 상태를 확인합니다.
cluster kernel-service show
다음 예와 유사한 메시지가 표시됩니다.
cluster::*> cluster kernel-service show Master Cluster Quorum Availability Operational Node Node Status Status Status ------------- ------------- ------------- ------------- ------------- node1 node1 in-quorum true operational node2 in-quorum true operational 2 entries were displayed.
+
클러스터의 노드는 대부분의 노드가 정상이고 서로 통신할 수 있는 경우 쿼럼 내에 있습니다. 자세한 내용은 을 참조하십시오 "참조" 시스템 관리 참조 _ 에 대한 링크-
관리 권한 수준으로 돌아가기:
set -privilege admin
-
-
다음 작업 중 하나를 수행합니다.
클러스터가 다음과 같은 경우 그러면… SAN이 구성되었습니다
로 이동합니다 26단계.
구성된 SAN이 없습니다
로 이동합니다 29단계.
-
다음 명령을 입력하여 출력을 검사하여 SAN iSCSI 또는 FC 서비스가 활성화된 각 SVM에 대한 노드 1과 노드 2에 SAN LIF가 있는지 확인합니다.
network interface show -data-protocol iscsi|fcp -home-node node_name
이 명령을 실행하면 노드 1과 노드 2의 SAN LIF 정보가 표시됩니다. 다음 예는 Status Admin/Oper 열의 상태를 UP/UP 으로 보여 줍니다. 이는 SAN iSCSI 및 FC 서비스가 활성화되었음을 나타냅니다.
cluster::> network interface show -data-protocol iscsi|fcp Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ --------- ------- ---- a_vs_iscsi data1 up/up 10.228.32.190/21 node1 e0a true data2 up/up 10.228.32.192/21 node2 e0a true b_vs_fcp data1 up/up 20:09:00:a0:98:19:9f:b0 node1 0c true data2 up/up 20:0a:00:a0:98:19:9f:b0 node2 0c true c_vs_iscsi_fcp data1 up/up 20:0d:00:a0:98:19:9f:b0 node2 0c true data2 up/up 20:0e:00:a0:98:19:9f:b0 node2 0c true data3 up/up 10.228.34.190/21 node2 e0b true data4 up/up 10.228.34.192/21 node2 e0b true
또는 다음 명령을 입력하여 더 자세한 LIF 정보를 볼 수 있습니다.
network interface show -instance -data-protocol iscsi|fcp
-
다음 명령을 입력하고 시스템의 출력을 기록하여 원래 노드에 있는 FC 포트의 기본 구성을 캡처합니다.
ucadmin show
명령은 다음 예에 표시된 대로 클러스터에 있는 모든 FC 포트에 대한 정보를 표시합니다.
cluster::> ucadmin show Current Current Pending Pending Admin Node Adapter Mode Type Mode Type Status ------- ------- ------- --------- ------- --------- ----------- node1 0a fc initiator - - online node1 0b fc initiator - - online node1 0c fc initiator - - online node1 0d fc initiator - - online node2 0a fc initiator - - online node2 0b fc initiator - - online node2 0c fc initiator - - online node2 0d fc initiator - - online 8 entries were displayed.
업그레이드 후 정보를 사용하여 새 노드의 FC 포트 구성을 설정할 수 있습니다.
-
V 시리즈 시스템이나 FlexArray 가상화 소프트웨어를 사용하여 시스템을 업그레이드하는 경우 다음 명령을 입력하고 출력을 기록하여 원래 노드의 토폴로지에 대한 정보를 캡처합니다.
storage array config show -switch
다음 예에서와 같이 토폴로지 정보가 표시됩니다.
cluster::> storage array config show -switch LUN LUN Target Side Initiator Side Initi- Node Grp Cnt Array Name Array Target Port Switch Port Switch Port ator ----- --- --- ------------- ------------------ ----------- -------------- ------ node1 0 50 I_1818FAStT_1 205700a0b84772da vgbr6510a:5 vgbr6510s164:3 0d 206700a0b84772da vgbr6510a:6 vgbr6510s164:4 2b 207600a0b84772da vgbr6510b:6 vgbr6510s163:1 0c node2 0 50 I_1818FAStT_1 205700a0b84772da vgbr6510a:5 vgbr6510s164:1 0d 206700a0b84772da vgbr6510a:6 vgbr6510s164:2 2b 207600a0b84772da vgbr6510b:6 vgbr6510s163:3 0c 208600a0b84772da vgbr6510b:5 vgbr6510s163:4 2a 7 entries were displayed.
-
-
원래 노드 중 하나에 다음 명령을 입력하고 출력을 기록합니다.
service-processor show -node * -instance
두 노드의 SP에 대한 자세한 정보가 표시됩니다.
-
SP 상태가 인지 확인합니다
online
. -
SP 네트워크가 구성되었는지 확인합니다.
-
SP에 대한 IP 주소 및 기타 정보를 기록합니다.
원격 관리 디바이스의 네트워크 매개 변수를 다시 사용할 수 있습니다. 이 경우 SP는 새 노드의 SP에 대해 원래 시스템에서 재사용해야 합니다. SP에 대한 자세한 내용은 를 참조하십시오 "참조" 시스템 관리 참조 및 _ONTAP 9 명령에 연결하려면 수동 페이지 참조 _.
-
-
새 노드가 원래 노드와 라이센스가 부여된 기능을 동일하게 사용하려면 다음 명령을 입력하여 원래 시스템에서 클러스터 라이센스를 확인합니다.
system license show -owner *
다음 예에서는 cluster1에 대한 사이트 라이센스를 보여 줍니다.
system license show -owner * Serial Number: 1-80-000013 Owner: cluster1 Package Type Description Expiration ----------------- ------- --------------------- ----------- Base site Cluster Base License - NFS site NFS License - CIFS site CIFS License - SnapMirror site SnapMirror License - FlexClone site FlexClone License - SnapVault site SnapVault License - 6 entries were displayed.
-
새 노드의 새 라이센스 키는 _NetApp Support 사이트_에서 구할 수 있습니다. 을 참조하십시오 "참조" 링크를 통해 _ NetApp Support 사이트 _ 에 연결할 수 있습니다.
사이트에 필요한 라이센스 키가 없는 경우 NetApp 세일즈 담당자에게 문의하십시오.
-
각 노드에서 다음 명령을 입력하여 원래 시스템에 AutoSupport가 활성화되어 있는지 확인하고 해당 출력을 확인합니다.
system node autosupport show -node node1,node2
명령 출력에는 다음 예제와 같이 AutoSupport가 설정되어 있는지 여부가 표시됩니다.
cluster::> system node autosupport show -node node1,node2 Node State From To Mail Hosts ---------------- --------- ------------- ---------------- ---------- node1 enable Postmaster admin@netapp.com mailhost node2 enable Postmaster - mailhost 2 entries were displayed.
-
다음 작업 중 하나를 수행합니다.
원래 시스템이… 그러면… AutoSupport가 활성화되어 있습니다…
로 이동합니다 34단계.
AutoSupport가 활성화되지 않았습니다…
시스템 관리 참조 _ 의 지침에 따라 AutoSupport를 활성화합니다. (을 참조하십시오 "참조" 시스템 관리 참조 _.(에 대한 링크)
-
참고: * 스토리지 시스템을 처음 구성할 때 AutoSupport는 기본적으로 사용하도록 설정됩니다. AutoSupport는 언제든지 비활성화할 수 있지만 활성화 상태를 유지해야 합니다. AutoSupport를 활성화하면 스토리지 시스템에서 문제가 발생할 경우 문제 및 솔루션을 쉽게 식별할 수 있습니다.
-
-
원본 노드 모두에 다음 명령을 입력하고 출력을 검사하여 AutoSupport가 올바른 메일 호스트 세부 정보와 수신자 이메일 ID로 구성되었는지 확인합니다.
system node autosupport show -node node_name -instance
AutoSupport에 대한 자세한 내용은 을 참조하십시오 "참조" 시스템 관리 참조 및 _ONTAP 9 명령에 연결하려면 수동 페이지 참조 _.
-
다음 명령을 입력하여 node1에 대한 AutoSupport 메시지를 NetApp에 보냅니다.
system node autosupport invoke -node node1 -type all -message "Upgrading node1 from platform_old to platform_new"
이때 노드 2의 경우 AutoSupport 메시지를 NetApp에 보내지 마십시오. 나중에 이 작업을 수행할 수 있습니다. -
다음 명령을 입력하고 출력을 검사하여 AutoSupport 메시지가 전송되었는지 확인합니다.
system node autosupport show -node node1 -instance
필드
Last Subject Sent:
및Last Time Sent:
마지막으로 보낸 메시지의 메시지 제목과 메시지를 보낸 시간을 포함합니다. -
시스템에서 자체 암호화 드라이브를 사용하는 경우 기술 자료 문서를 참조하십시오 "드라이브가 FIPS 인증되었는지 확인하는 방법" 업그레이드하는 HA 쌍에서 사용 중인 자체 암호화 드라이브의 유형을 확인합니다. ONTAP 소프트웨어는 두 가지 유형의 자체 암호화 드라이브를 지원합니다.
-
FIPS 인증 NSE(NetApp Storage Encryption) SAS 또는 NVMe 드라이브
-
FIPS가 아닌 자체 암호화 NVMe 드라이브(SED)
동일한 노드 또는 HA 쌍에서 다른 유형의 드라이브와 FIPS 드라이브를 혼합할 수 없습니다.
동일한 노드 또는 HA 쌍에서 SED를 비암호화 드라이브와 혼합할 수 있습니다.
-