Skip to main content
이 제품의 최신 릴리즈를 사용할 수 있습니다.
본 한국어 번역은 사용자 편의를 위해 제공되는 기계 번역입니다. 영어 버전과 한국어 버전이 서로 어긋나는 경우에는 언제나 영어 버전이 우선합니다.

H610C 및 H615C 노드를 교체합니다

기여자

CPU, 마더보드 또는 전원이 켜지지 않는 경우와 관련된 컴퓨팅 노드 장애를 복구하려면 섀시를 교체해야 합니다. NetApp HCI 부트스트랩 OS 버전 1.6 이상을 실행하는 H610C 컴퓨팅 노드의 DIMM에 결함이 있는 경우 DIMM을 교체할 수 있으며 섀시를 교체할 필요가 없습니다. H615C 노드의 경우 DIMM에 장애가 발생할 경우 섀시를 교체할 필요가 없으며 장애가 발생한 DIMM만 교체할 수 있습니다.

참고 H610C 및 H615C의 경우 노드와 섀시가 별도의 구성 요소가 아니기 때문에 "노드" 및 "섀시"라는 용어가 상호 교환하여 사용됩니다.
필요한 것
  • 노드에 장애가 있는지 확인했습니다.

  • 교체용 섀시가 있습니다. 교체 제품을 주문하려면 NetApp 지원에 문의하십시오.

  • 정전기 방전(ESD) 손목 보호대가 있거나 다른 정전기 방지 보호 장치를 착용하고 있습니다.

  • 섀시에 연결된 각 케이블에 레이블을 붙였습니다.

이 작업에 대해

VMware vSphere Web Client의 알람은 호스트에 장애가 발생할 경우 사용자에게 경고합니다. VMware vSphere Web Client에서 장애가 발생한 호스트의 일련 번호와 노드 뒷면의 스티커에 있는 일련 번호가 일치해야 합니다.

단계 개요

다음은 이 절차의 단계에 대한 개략적인 설명입니다. 노드 교체를 준비합니다 노드를 교체합니다 클러스터에 노드를 추가합니다 GPU 드라이버를 설치합니다

노드 교체를 준비합니다

노드를 교체하기 전에 노드에서 호스팅되는 VM(가상 머신)을 사용 가능한 호스트로 마이그레이션하고 클러스터에서 노드를 제거해야 합니다. 일련 번호 및 네트워킹 정보와 같은 노드에 대한 세부 정보를 확인해야 합니다.

참고 노드가 여전히 온라인 상태이고 작동 중인 상태에서 구성 요소 장애가 발생하는 경우(예: DIMM(Dual Inline Memory Module) 장애) 장애가 발생하면 장애가 발생한 노드를 제거하기 전에 클러스터에서 드라이브를 제거해야 합니다.
단계
  1. VMware vSphere Web Client에서 사용 가능한 다른 호스트로 VM을 마이그레이션하는 단계를 수행합니다.

    참고 마이그레이션 단계는 VMware 설명서를 참조하십시오.
  2. 장애가 발생한 노드를 선택하고 * 모니터 > 하드웨어 상태 > 센서 * 를 선택합니다.

  3. 장애가 발생한 노드의 일련 번호를 기록해 둡니다. 다음 스크린샷은 예일 뿐입니다.

    에는 VMware vSphere Web Client에서 장애가 발생한 노드의 일련 번호가 나와 있습니다.

    노드 뒷면의 스티커에 있는 일련 번호와 일치하는 일련 번호를 사용하여 섀시를 식별하려면 일련 번호가 필요합니다.

  4. 장애가 발생한 노드를 마우스 오른쪽 단추로 클릭하고 * 연결 > 연결 끊기 * 를 선택합니다.

  5. Yes * 를 선택하여 작업을 확인합니다.

  6. 실패한 노드를 마우스 오른쪽 버튼으로 클릭하고 * 인벤토리에서 제거 * 를 선택합니다.

  7. Yes * 를 선택하여 작업을 확인합니다.

노드를 교체합니다

클러스터에서 장애가 발생한 노드를 제거한 후 장애가 발생한 섀시를 제거하고 교체 섀시를 설치할 수 있습니다.

참고 이 단계를 수행하기 전에 정전기 방지 보호 장치가 있는지 확인하십시오.
단계
  1. 새 섀시의 포장을 풀고 평평한 표면에 놓습니다. 고장난 섀시를 NetApp에 반환할 때 사용할 수 있도록 포장재를 보관합니다.

  2. 분리할 섀시 후면에 삽입되는 각 케이블에 레이블을 부착합니다. 새 섀시를 설치한 후 케이블을 원래 포트에 다시 삽입해야 합니다.

  3. 섀시 뒷면에서 모든 케이블을 분리합니다.

  4. 장착 귀의 손잡이 나사를 풀어 섀시를 분리합니다. 오류가 발생한 섀시를 패키지로 제공하고 NetApp에 반환해야 합니다.

  5. 교체용 섀시를 레일에 밀어 넣습니다.

    주의 섀시를 레일에 밀어 넣을 때 과도한 힘을 가하지 마십시오.
  6. H615C에만 해당합니다. 결함이 있는 섀시에서 DIMM을 제거하고 교체용 섀시에 이러한 DIMM을 삽입합니다.

    참고 장애가 발생한 노드에서 분리했던 동일한 슬롯에 DIMM을 교체해야 합니다.
  7. 결함이 있는 섀시 양쪽에 있는 2개의 전원 공급 장치를 분리하고 교체 섀시에 삽입합니다.

  8. 원래 연결을 끊은 포트에 케이블을 다시 연결합니다. 케이블을 분리할 때 케이블에 추가한 레이블은 도움이 될 것입니다.

    주의 섀시 후면의 공기 환풍구가 케이블 또는 레이블에 의해 막히면 과열되어 구성 요소에 조기 오류가 발생할 수 있습니다. 케이블을 포트에 억지로 밀어 넣지 마십시오. 케이블, 포트 또는 둘 다 손상될 수 있습니다.
  9. 섀시의 전원을 켭니다.

클러스터에 노드를 추가합니다

새 컴퓨팅 노드를 사용하도록 NetApp HCI를 구성해야 합니다.

필요한 것
  • vSphere 인스턴스 NetApp HCI에서 사용 중인 가상 분산 스위치를 사용하여 구축 환경에 노드를 추가하는 경우 vSphere Enterprise Plus 라이센스가 있습니다.

  • NetApp HCI에서 사용 중인 vCenter 또는 vSphere 인스턴스에 만료된 라이센스가 없습니다.

  • 기존 노드와 동일한 네트워크 세그먼트에 사용 가능한 사용하지 않는 IPv4 주소가 있습니다(새 노드는 해당 유형의 기존 노드와 동일한 네트워크에 설치되어야 함).

  • vCenter 관리자 계정 자격 증명이 준비되었습니다.

단계
  1. 웹 브라우저에서 관리 노드의 IP 주소를 엽니다. 예를 들면 다음과 같습니다.

    https://<ManagementNodeIP>
  2. NetApp 하이브리드 클라우드 제어에 NetApp HCI 스토리지 클러스터 관리자 자격 증명을 제공하여 로그인하십시오.

  3. Expand Installation(설치 확장) 창에서 * Expand *(확장 *)를 선택합니다. 브라우저에서 NetApp 배포 엔진이 열립니다.

  4. 로컬 NetApp HCI 스토리지 클러스터 관리자 자격 증명을 제공하여 NetApp 배포 엔진에 로그인합니다.

    참고 Lightweight Directory Access Protocol 자격 증명을 사용하여 로그인할 수 없습니다.
  5. 시작 페이지에서 * 예 * 를 선택합니다.

  6. 최종 사용자 라이센스 페이지에서 다음 작업을 수행합니다.

    1. VMware 최종 사용자 라이센스 계약을 읽습니다.

    2. 약관에 동의하면 계약서 텍스트 끝에 있는 * 동의함 * 을 선택합니다.

  7. 계속 을 선택합니다.

  8. vCenter 페이지에서 다음 단계를 수행합니다.

    1. NetApp HCI 설치와 연결된 vCenter 인스턴스에 대한 FQDN 또는 IP 주소와 관리자 자격 증명을 입력합니다.

    2. Continue * 를 선택합니다.

    3. 새 컴퓨팅 노드를 추가할 기존 vSphere 데이터 센터를 선택하거나 새 데이터 센터 생성 을 선택하여 새 데이터 센터에 새 컴퓨팅 노드를 추가합니다.

      참고 Create New Datacenter(새 데이터 센터 생성) 를 선택하면 Cluster(클러스터) 필드가 자동으로 채워집니다.
    4. 기존 데이터 센터를 선택한 경우 새 컴퓨팅 노드를 연결할 vSphere 클러스터를 선택합니다.

      참고 NetApp HCI가 확장을 위해 선택한 클러스터의 네트워크 설정을 인식하지 못하는 경우 관리, 스토리지 및 vMotion 네트워크에 대한 vmkernel 및 vmnic 매핑이 구축 기본값으로 설정되어 있는지 확인합니다.
    5. Continue * 를 선택합니다.

  9. ESXi 자격 증명 페이지에서 추가하려는 컴퓨팅 노드 또는 노드에 대한 ESXi 루트 암호를 입력합니다. 초기 NetApp HCI 배포 중에 만든 암호와 동일한 암호를 사용해야 합니다.

  10. Continue * 를 선택합니다.

  11. 새 vSphere 데이터 센터 클러스터를 생성한 경우 네트워크 토폴로지 페이지에서 추가하려는 새 컴퓨팅 노드와 일치하는 네트워크 토폴로지를 선택합니다.

    참고 컴퓨팅 노드가 2케이블 토폴로지를 사용하고 있고 기존 NetApp HCI 구축이 VLAN ID로 구성된 경우에만 2케이블 옵션을 선택할 수 있습니다.
  12. 사용 가능한 인벤토리 페이지에서 기존 NetApp HCI 설치에 추가할 노드를 선택합니다.

    팁 일부 컴퓨팅 노드의 경우 vCenter 버전이 지원하는 최고 수준에서 EVC를 활성화해야 설치에 추가할 수 있습니다. vSphere Client를 사용하여 이러한 컴퓨팅 노드에 대해 EVC를 사용하도록 설정해야 합니다. 이 기능을 사용하도록 설정한 후 인벤토리 페이지를 새로 고치고 컴퓨팅 노드를 다시 추가해 보십시오.
  13. Continue * 를 선택합니다.

  14. 선택 사항: 새 vSphere 데이터 센터 클러스터를 생성한 경우 네트워크 설정 페이지에서 기존 클러스터에서 * 기존 클러스터에서 설정 복사 * 확인란을 선택하여 기존 NetApp HCI 배포에서 네트워크 정보를 가져옵니다. 그러면 각 네트워크의 기본 게이트웨이 및 서브넷 정보가 채워집니다.

  15. 네트워크 설정 페이지에서 일부 네트워크 정보가 초기 배포에서 감지되었습니다. 각 새 컴퓨팅 노드는 일련 번호별로 나열되며 새 네트워크 정보를 할당해야 합니다. 각 새 컴퓨팅 노드에 대해 다음 단계를 수행하십시오.

    1. NetApp HCI가 이름 지정 접두사를 발견한 경우 감지된 이름 접두사 필드에서 해당 접두사를 복사하여 호스트 이름 필드에 추가한 새 고유 호스트 이름의 접두사로 삽입합니다.

    2. 관리 IP 주소 필드에 관리 네트워크 서브넷 내의 컴퓨팅 노드에 대한 관리 IP 주소를 입력합니다.

    3. vMotion IP Address 필드에 vMotion 네트워크 서브넷 내의 컴퓨팅 노드에 대한 vMotion IP 주소를 입력합니다.

    4. iSCSI A-IP 주소 필드에 iSCSI 네트워크 서브넷 내에 있는 컴퓨팅 노드의 첫 번째 iSCSI 포트에 대한 IP 주소를 입력합니다.

    5. iSCSI B-IP 주소 필드에 iSCSI 네트워크 서브넷 내에 있는 컴퓨팅 노드의 두 번째 iSCSI 포트에 대한 IP 주소를 입력합니다.

  16. Continue * 를 선택합니다.

  17. 네트워크 설정 섹션의 검토 페이지에서 새 노드는 굵은 텍스트로 표시됩니다. 섹션의 정보를 변경해야 하는 경우 다음 단계를 수행하십시오.

    1. 해당 섹션에 대해 * Edit * 를 선택합니다.

    2. 변경을 마쳤으면 후속 페이지에서 * 계속 * 을 선택하여 검토 페이지로 돌아갑니다.

  18. 선택 사항: 클러스터 통계 및 지원 정보를 NetApp이 호스팅하는 SolidFire Active IQ 서버로 전송하지 않으려면 마지막 확인란의 선택을 취소합니다. 이렇게 하면 NetApp HCI에 대한 실시간 상태 및 진단 모니터링이 비활성화됩니다. 이 기능을 비활성화하면 NetApp이 사전에 NetApp HCI를 지원 및 모니터링하여 운영 환경에 영향을 미치지 않고 문제를 감지하고 해결할 수 있습니다.

  19. 노드 추가 * 를 선택합니다. NetApp HCI에서 리소스를 추가하고 구성하는 동안 진행률을 모니터링할 수 있습니다.

  20. 선택 사항: vCenter에 새 컴퓨팅 노드가 표시되는지 확인합니다.

GPU 드라이버를 설치합니다

H610C 노드와 같이 NVIDIA 그래픽 처리 장치(GPU)를 사용하는 컴퓨팅 노드에는 VMware ESXi에 설치된 NVIDIA 소프트웨어 드라이버가 있어야 증가된 처리 능력을 활용할 수 있습니다. GPU 드라이버를 설치하려면 컴퓨팅 노드에 GPU 카드가 있어야 합니다.

단계
  1. 브라우저를 열고 다음 URL에서 NVIDIA 라이센스 포털로 이동합니다.
    https://nvid.nvidia.com/dashboard/

  2. 환경에 따라 다음 드라이버 패키지 중 하나를 컴퓨터에 다운로드합니다.

    vSphere 버전입니다 드라이버 패키지

    vSphere 6.0

    NVIDIA-GRID-vSphere-6.0-390.94-390.96-392.05.zip

    vSphere 6.5

    NVIDIA-GRID-vSphere-6.5-410.92-410.91-412.16.zip

    vSphere 6.7

    NVIDIA-GRID-vSphere-6.7-410.92-410.91-412.16.zip

  3. 컴퓨터에서 드라이버 패키지를 추출합니다. 그 결과 .vIB 파일은 압축되지 않은 드라이버 파일입니다.

  4. 컴퓨터에서 컴퓨팅 노드에서 실행 중인 ESXi로 .vIB 드라이버 파일을 복사합니다. 각 버전에 대한 다음 명령 예에서는 드라이버가 관리 호스트의 $HOME/nvidia/ESX6.x/ 디렉토리에 있다고 가정합니다. SCP 유틸리티는 대부분의 Linux 배포판에서 쉽게 사용할 수 있으며 모든 Windows 버전에 대해 다운로드 가능한 유틸리티로 사용할 수 있습니다.

    옵션을 선택합니다 설명

    ESXi 6.0

    SCP$HOME/nvidia/ESX6.0/nvidia**.vib root@<esxi_ip_addr>:/.

    ESXi 6.5

    SCP$HOME/nvidia/ESX6.5/nvidia**.vib root@<esxi_ip_addr>:/.

    ESXi 6.7

    SCP$HOME/nvidia/ESX6.7/nvidia**.vib root@<esxi_ip_addr>:/.

  5. 다음 단계를 수행하여 ESXi 호스트에 루트로 로그인하고 ESXi에 NVIDIA vGPU 관리자를 설치합니다.

    1. 다음 명령을 실행하여 ESXi 호스트에 루트 사용자로 로그인합니다.
      ssh root@<ESXi_IP_ADDRESS>

    2. 다음 명령을 실행하여 현재 설치된 NVIDIA GPU 드라이버가 없는지 확인합니다. 이 명령은 메시지를 반환합니다 nvidia-smi: not found.
      nvidia-smi

    3. 다음 명령을 실행하여 호스트에서 유지보수 모드를 사용하도록 설정하고 VIB 파일에서 NVIDIA vGPU 관리자를 설치합니다. 메시지가 표시되어야 Operation finished successfully 합니다.
      esxcli system maintenanceMode set --enable true
      esxcli software vib install -v /NVIDIA**.vib

    4. 다음 명령을 실행하고 8개의 GPU 드라이버가 모두 명령 출력에 나열되어 있는지 확인합니다.
      nvidia-smi

    5. 다음 명령을 실행하여 NVIDIA vGPU 패키지가 설치되고 올바르게 로드되었는지 확인합니다. 명령은 다음과 같은 출력을 반환합니다 nvidia 816 13808.
      vmkload_mod -l | grep nvidia

    6. 다음 명령을 실행하여 유지보수 모드를 종료하고 호스트를 재부팅합니다.
      esxcli system maintenanceMode set –enable false
      reboot -f

  6. NVIDIA GPU를 사용하여 새로 구축된 다른 컴퓨팅 노드에 대해 4-6단계를 반복합니다.

  7. NVIDIA 문서 사이트의 지침에 따라 다음 작업을 수행합니다.

    1. NVIDIA 라이센스 서버를 설치합니다.

    2. NVIDIA vGPU 소프트웨어의 가상 머신 게스트를 구성합니다.

    3. 가상 데스크톱 인프라(VDI)에서 vGPU 지원 데스크톱을 사용하는 경우 NVIDIA vGPU 소프트웨어용 VMware Horizon View를 구성합니다.