Skip to main content
NetApp Solutions
본 한국어 번역은 사용자 편의를 위해 제공되는 기계 번역입니다. 영어 버전과 한국어 버전이 서로 어긋나는 경우에는 언제나 영어 버전이 우선합니다.

Proxmox VE with ONTAP

기여자

Proxmox VE(Virtual Environment)의 공유 스토리지를 사용하면 VM 실시간 마이그레이션 시간이 단축되고, 환경 전체에서 백업 및 정합성 보장 템플릿을 위한 타겟이 향상됩니다. ONTAP 스토리지는 Proxmox VE 호스트 환경의 요구 사항은 물론 게스트 파일, 블록 및 객체 스토리지 요구 사항도 충족할 수 있습니다.

Proxmox VE 호스트에는 FC, 이더넷 또는 기타 지원 인터페이스가 스위치에 케이블로 연결되어 있고 ONTAP 논리 인터페이스에 대한 통신이 있어야 합니다. 항상 "상호 운용성 매트릭스 툴"지원되는 구성을 확인하십시오.

고급 ONTAP 기능

  • 공통 기능 *

  • 스케일아웃 클러스터

  • 보안 인증 및 RBAC 지원

  • 제로 트러스트 멀티 관리자 지원

  • 시큐어 멀티 테넌시

  • SnapMirror을 사용하여 데이터 복제.

  • 스냅샷을 사용한 시점 복제본.

  • 공간 효율적인 클론.

  • 중복제거, 압축 등과 같은 스토리지 효율성 기능

  • Kubernetes에 대한 Trident CSI 지원

  • SnapLock

  • 스냅샷 복사본의 무단 잠금 방지

  • 암호화 지원

  • 콜드 데이터를 오브젝트 저장소에 계층화하는 FabricPool

  • BlueXP  및 CloudInsights 통합

  • Microsoft 오프로드 데이터 전송(ODX)

  • NAS * 를 선택합니다

  • FlexGroup 볼륨은 스케일아웃 NAS 컨테이너로, 로드 분산 및 확장성과 함께 고성능을 제공합니다.

  • FlexCache를 사용하면 데이터를 전 세계에 배포할 수 있지만 데이터에 대한 로컬 읽기 및 쓰기 액세스를 제공합니다.

  • 여러 프로토콜을 지원하므로 SMB 및 NFS를 통해 동일한 데이터에 액세스할 수 있습니다.

  • NFS nConnect 는 TCP 연결당 여러 TCP 세션을 허용하므로 네트워크 처리량이 증가합니다. 따라서 최신 서버에서 사용할 수 있는 고속 NIC의 사용률이 증가합니다.

  • NFS 세션 트렁킹은 향상된 데이터 전송 속도, 고가용성 및 내결함성 제공

  • SMB 다중 채널은 향상된 데이터 전송 속도, 고가용성 및 내결함성을 제공합니다.

  • 파일 권한을 위해 Active Directory/LDAP와 통합

  • TLS를 통해 NFS와 보안 연결

  • NFS Kerberos 지원

  • RDMA를 통한 NFS.

  • Windows와 Unix ID 간의 이름 매핑

  • 자율적 랜섬웨어 방어:

  • 파일 시스템 분석:

  • SAN *

  • SnapMirror 활성 동기화를 사용하여 장애 도메인 간에 클러스터를 확장합니다.

  • ASA 모델은 액티브/액티브 다중 경로와 빠른 경로 페일오버를 제공합니다.

  • FC, iSCSI, NVMe-oF 프로토콜 지원

  • iSCSI CHAP 상호 인증을 지원합니다.

  • 선택적 LUN 맵 및 포트 세트.

Proxmox VE 스토리지 유형은 ONTAP에서 지원됩니다

NAS 프로토콜(NFS/SMB)은 모든 컨텐츠 유형의 Proxmox VE를 지원하며 일반적으로 데이터 센터 레벨에서 한 번 구성됩니다. 게스트 VM은 NAS 스토리지에서 원시 디스크, qcow2 또는 VMDK 유형의 디스크를 사용할 수 있습니다. ONTAP 스냅샷은 클라이언트에서 데이터의 액세스 시점 복제본에 대해 표시할 수 있습니다. SAN 프로토콜(FC/iSCSI/NVMe-oF)을 사용하는 블록 스토리지는 일반적으로 호스트 단위로 구성되며 Proxmox VE에서 지원하는 VM 디스크 및 컨테이너 이미지 콘텐츠 유형으로 제한됩니다. 게스트 VM 및 컨테이너는 블록 스토리지를 원시 디바이스로 사용합니다.

콘텐츠 유형 NFS 를 참조하십시오 SMB/CIFS FC iSCSI NVMe - oF

백업

없음 1

없음 1

없음 1

VM 디스크

2

2

2

CT 볼륨

2

2

2

ISO 이미지

없음 1

없음 1

없음 1

CT 템플릿

없음 1

없음 1

없음 1

스니펫

없음 1

없음 1

없음 1

  • 참고: * 1 - 공유 폴더를 생성하고 디렉토리 스토리지 유형을 사용하려면 클러스터 파일 시스템이 필요합니다. LVM 스토리지 유형을 사용합니다.

SMB/CIFS 스토리지

SMB/CIFS 파일 공유를 사용하려면 스토리지 관리자가 수행해야 하는 특정 작업이 있으며 가상화 관리자는 Proxmox VE UI 또는 셸을 사용하여 공유를 마운트할 수 있습니다. SMB 멀티 채널은 내결함성을 제공하고 성능을 향상시킵니다. 자세한 내용은 을 참조하십시오 "TR4740 - SMB 3.0 다중 채널"

참고 암호는 일반 텍스트 파일에 저장되며 루트 사용자만 액세스할 수 있습니다. 을 "Proxmox VE 설명서"참조하십시오.
ONTAP가 있는 SMB 공유 스토리지 풀
<strong> 스토리지 관리 작업 </strong>

ONTAP를 처음 사용하는 경우 시스템 관리자 인터페이스를 사용하여 이러한 작업을 완료함으로써 더 나은 환경을 조성할 수 있습니다.

  1. SMB에 대해 SVM이 사용되도록 설정되었는지 확인합니다. 자세한 "ONTAP 9 설명서" 내용은 를 참조하십시오.

  2. 컨트롤러당 최소 2개의 리프가 있어야 합니다. 위 링크의 단계를 따릅니다. 참고로, 이 솔루션에 사용된 Lifs의 스크린샷은 다음과 같습니다.

    NAS 인터페이스 세부 정보입니다

  3. Active Directory 또는 워크그룹 기반 인증을 사용합니다. 위 링크의 단계를 따릅니다.

    도메인 정보를 연결합니다

  4. 볼륨을 생성합니다. FlexGroup를 사용할 수 있도록 데이터를 클러스터에 분산하는 옵션을 선택해야 합니다.

    FlexGroup 옵션

  5. SMB 공유를 생성하고 권한을 조정합니다. 자세한 "ONTAP 9 설명서" 내용은 를 참조하십시오.

    SMB 공유 정보

  6. 가상화 관리자가 작업을 완료할 수 있도록 SMB 서버, 공유 이름 및 자격 증명을 제공합니다.

<strong> 가상화 관리 작업 </strong>
  1. 공유 인증에 사용할 SMB 서버, 공유 이름 및 자격 증명을 수집합니다.

  2. 두 개 이상의 인터페이스가 서로 다른 VLAN(내결함성)에 구성되어 있고 NIC가 RSS를 지원하는지 확인합니다.

  3. Management UI를 사용하는 경우 https:<proxmox-node>:8006 DataCenter를 클릭하고 스토리지를 선택한 다음 Add를 클릭하고 SMB/CIFS를 선택합니다.

    SMB 스토리지 내비게이션

  4. 세부 정보를 입력하면 공유 이름이 자동으로 채워집니다. 모든 콘텐츠가 선택되었는지 확인합니다. 추가 를 클릭합니다.

    SMB 스토리지 추가

  5. 다중 채널 옵션을 활성화하려면 클러스터의 노드 중 하나에서 쉘로 이동하고 pvesm set pvesmb01 --options multichannel, max_channel=4를 입력합니다

    다중 채널 설정

  6. 위의 작업에 대한 내용은 /etc/pve/storage.cfg 에 나와 있습니다.

    SMB용 스토리지 구성 파일

NFS 스토리지

ONTAP는 Proxmox VE가 지원하는 모든 NFS 버전을 지원합니다. 내결함성 및 성능 향상을 제공하기 위해 "세션 트렁킹"을 사용합니다. 세션 트렁킹을 사용하려면 NFS v4.1 이상이 필요합니다.

ONTAP를 처음 사용하는 경우 시스템 관리자 인터페이스를 사용하여 이러한 작업을 완료함으로써 더 나은 환경을 조성할 수 있습니다.

ONTAP의 NFS nconnect 옵션
<strong> 스토리지 관리 작업 </strong>
  1. NFS에 대해 SVM이 사용되도록 설정되었는지 확인합니다. 을 참조하십시오 "ONTAP 9 설명서"

  2. 컨트롤러당 최소 2개의 리프가 있어야 합니다. 위 링크의 단계를 따릅니다. 참고로, 이 실습에서 사용하는 리프의 스크린샷은 다음과 같습니다.

    NAS 인터페이스 세부 정보입니다

  3. Proxmox VE 호스트 IP 주소 또는 서브넷에 대한 액세스를 제공하는 NFS 내보내기 정책을 생성하거나 업데이트합니다. "엑스포트 정책 생성""엑스포트 정책에 규칙을 추가합니다"을 참조하십시오.

  4. "볼륨을 생성합니다".. FlexGroup를 사용할 수 있도록 데이터를 클러스터에 분산하는 옵션을 선택해야 합니다.

    FlexGroup 옵션

  5. "엑스포트 정책을 볼륨에 할당합니다"

    NFS 볼륨 정보

  6. NFS 볼륨이 준비되었음을 가상화 관리자에게 알립니다.

<strong> 가상화 관리 작업 </strong>
  1. 두 개 이상의 인터페이스가 서로 다른 VLAN에 구성되어 있는지 확인합니다(내결함성). NIC 본딩을 사용합니다.

  2. 관리 UI를 사용하는 경우 https:<proxmox-node>:8006 데이터 센터 를 클릭하고 스토리지 를 선택한 다음 추가 를 클릭하고 NFS 를 선택합니다.

    NFS 스토리지 탐색

  3. 세부 정보를 입력하고 서버 정보를 입력한 후 NFS 내보내기가 채워지고 목록에서 선택되어야 합니다. 콘텐츠 옵션을 선택해야 합니다.

    NFS 스토리지 추가

  4. 세션 트렁킹의 경우 모든 Proxmox VE 호스트에서 /etc/fstab 파일을 업데이트하여 max_connect 및 NFS 버전 옵션과 함께 다른 lif 주소를 사용하여 동일한 NFS 내보내기를 마운트합니다.

    세션 트렁크에 대한 fstab 항목입니다

  5. 다음은 NFS용 /etc/pve/storage.cfg 콘텐츠입니다.

    NFS용 스토리지 구성 파일입니다

iSCSI를 사용하는 LVM

ONTAP를 사용하는 iSCSI가 있는 LVM 공유 풀

Proxmox 호스트에서 공유 스토리지에 대해 Logical Volume Manager를 구성하려면 다음 작업에 대해 완료합니다.

<strong> 가상화 관리 작업 </strong>
  1. 두 개의 Linux VLAN 인터페이스를 사용할 수 있는지 확인합니다.

  2. 모든 Proxmox VE 호스트에 다중 경로 툴이 설치되어 있는지 확인합니다. 부팅 시 시작되는지 확인합니다.

    apt list | grep multipath-tools
    # If need to install, execute the following line.
    apt-get install multipath-tools
    systemctl enable multipathd
  3. 모든 Proxmox VE 호스트에 대해 iSCSI 호스트 iqn을 수집하고 스토리지 관리자에게 제공합니다.

    cat /etc/iscsi/initiator.name
<strong> 스토리지 관리 작업 </strong>

ONTAP을 처음 사용하는 경우 System Manager를 사용하여 더 나은 환경을 조성할 수 있습니다.

  1. SVM을 iSCSI 프로토콜이 활성화된 상태에서 사용할 수 있는지 확인합니다. 다음을 수행합니다 "ONTAP 9 설명서"

  2. iSCSI 전용의 컨트롤러당 2개의 리프가 있습니다.

    iSCSI 인터페이스 세부 정보입니다

  3. igroup을 생성하고 호스트 iSCSI 이니시에이터를 채웁니다.

  4. SVM에서 원하는 크기로 LUN을 생성하고 위 단계에서 생성된 igroup에 제공합니다.

    iSCSI LUN 세부 정보입니다

  5. LUN이 생성되었음을 가상화 관리자에게 알립니다.

<strong> 가상화 관리 작업 </strong>
  1. 관리 UI `https:<proxmox node>:8006`로 이동하여 데이터 센터 를 클릭하고 스토리지 를 선택한 다음 추가 를 클릭하고 iSCSI 를 선택합니다.

    iSCSI 스토리지 탐색

  2. 스토리지 ID 이름을 제공하십시오. 통신 문제가 없는 경우 ONTAP의 iSCSI lif 주소가 타겟을 선택할 수 있어야 합니다. 의도된 바는 게스트 VM에 대한 LUN 액세스를 직접 제공하지 않는 것이므로 선택 취소합니다.

    iSCSI 스토리지 유형 생성

  3. 이제 추가를 클릭하고 LVM을 선택합니다.

    LVM 스토리지 탐색

  4. 스토리지 ID 이름을 제공하고 위 단계에서 생성한 iSCSI 스토리지와 일치하는 기본 스토리지를 선택합니다. 기본 볼륨에 대한 LUN을 선택합니다. 볼륨 그룹 이름을 제공합니다. 공유 가 선택되어 있는지 확인합니다.

    LVM 스토리지 생성

  5. 다음은 iSCSI 볼륨을 사용하는 LVM에 대한 샘플 스토리지 구성 파일입니다.

    LVM iSCSI 구성

NVMe/TCP가 있는 LVM

ONTAP를 사용하는 NVMe/TCP가 있는 LVM 공유 풀

Proxmox 호스트에서 공유 스토리지에 대해 Logical Volume Manager를 구성하려면 다음 작업을 수행합니다.

<strong> 가상화 관리 작업 </strong>
  1. 두 개의 Linux VLAN 인터페이스를 사용할 수 있는지 확인합니다.

  2. 클러스터의 모든 Proxmox 호스트에서 다음 명령을 실행하여 호스트 이니시에이터 정보를 수집합니다.

    nvme show-hostnqn
  3. 수집된 호스트 nqn 정보를 스토리지 관리자에게 제공하고 필요한 크기의 NVMe 네임스페이스를 요청합니다.

<strong> 스토리지 관리 작업 </strong>

ONTAP을 처음 사용하는 경우 System Manager를 사용하여 더 나은 환경을 조성하십시오.

  1. SVM을 NVMe 프로토콜을 지원하는 상태로 사용할 수 있는지 확인합니다. "ONTAP 9 설명서에 대한 NVMe 작업"을 참조하십시오.

  2. NVMe 네임스페이스를 생성합니다.

    NVMe 네임스페이스 생성

  3. 하위 시스템을 생성하고 호스트 nqns를 할당합니다(CLI를 사용하는 경우). 위의 참조 링크를 따르십시오.

  4. NVMe 네임스페이스가 생성되었음을 가상화 관리자에게 알립니다.

<strong> 가상화 관리 작업 </strong>
  1. 클러스터의 각 Proxmox VE 호스트에서 셸로 이동하고 /etc/NVMe/discovery.conf 파일을 생성하고 환경에 맞는 컨텐츠를 업데이트합니다.

    root@pxmox01:~# cat /etc/nvme/discovery.conf
    # Used for extracting default parameters for discovery
    #
    # Example:
    # --transport=<trtype> --traddr=<traddr> --trsvcid=<trsvcid> --host-traddr=<host-traddr> --host-iface=<host-iface>
    
    -t tcp -l 1800 -a 172.21.118.153
    -t tcp -l 1800 -a 172.21.118.154
    -t tcp -l 1800 -a 172.21.119.153
    -t tcp -l 1800 -a 172.21.119.154
  2. NVMe 하위 시스템에 로그인합니다

    nvme connect-all
  3. 장치 세부 정보를 검사하고 수집합니다.

    nvme list
    nvme netapp ontapdevices
    nvme list-subsys
    lsblk -l
  4. 볼륨 그룹을 생성합니다

    vgcreate pvens02 /dev/mapper/<device id>
  5. 관리 UI `https:<proxmox node>:8006`로 이동하여 데이터 센터를 클릭하고 스토리지를 선택한 다음 Add를 클릭하고 LVM을 선택합니다.

    LVM 스토리지 탐색

  6. 스토리지 ID 이름을 제공하고 기존 볼륨 그룹을 선택한 다음 CLI로 방금 생성한 볼륨 그룹을 선택합니다. 공유 옵션을 선택해야 합니다.

    기존 vg의 LVM

  7. 다음은 NVMe/TCP를 사용하는 LVM에 대한 샘플 스토리지 구성 파일입니다

    NVMe TCP 구성의 LVM