Proxmox VE with ONTAP
Proxmox VE(Virtual Environment)의 공유 스토리지를 사용하면 VM 실시간 마이그레이션 시간이 단축되고, 환경 전체에서 백업 및 정합성 보장 템플릿을 위한 타겟이 향상됩니다. ONTAP 스토리지는 Proxmox VE 호스트 환경의 요구 사항은 물론 게스트 파일, 블록 및 객체 스토리지 요구 사항도 충족할 수 있습니다.
Proxmox VE 호스트에는 FC, 이더넷 또는 기타 지원 인터페이스가 스위치에 케이블로 연결되어 있고 ONTAP 논리 인터페이스에 대한 통신이 있어야 합니다. 항상 "상호 운용성 매트릭스 툴"지원되는 구성을 확인하십시오.
고급 ONTAP 기능
-
공통 기능 *
-
스케일아웃 클러스터
-
보안 인증 및 RBAC 지원
-
제로 트러스트 멀티 관리자 지원
-
시큐어 멀티 테넌시
-
SnapMirror을 사용하여 데이터 복제.
-
스냅샷을 사용한 시점 복제본.
-
공간 효율적인 클론.
-
중복제거, 압축 등과 같은 스토리지 효율성 기능
-
Kubernetes에 대한 Trident CSI 지원
-
SnapLock
-
스냅샷 복사본의 무단 잠금 방지
-
암호화 지원
-
콜드 데이터를 오브젝트 저장소에 계층화하는 FabricPool
-
BlueXP 및 CloudInsights 통합
-
Microsoft 오프로드 데이터 전송(ODX)
-
NAS * 를 선택합니다
-
FlexGroup 볼륨은 스케일아웃 NAS 컨테이너로, 로드 분산 및 확장성과 함께 고성능을 제공합니다.
-
FlexCache를 사용하면 데이터를 전 세계에 배포할 수 있지만 데이터에 대한 로컬 읽기 및 쓰기 액세스를 제공합니다.
-
여러 프로토콜을 지원하므로 SMB 및 NFS를 통해 동일한 데이터에 액세스할 수 있습니다.
-
NFS nConnect 는 TCP 연결당 여러 TCP 세션을 허용하므로 네트워크 처리량이 증가합니다. 따라서 최신 서버에서 사용할 수 있는 고속 NIC의 사용률이 증가합니다.
-
NFS 세션 트렁킹은 향상된 데이터 전송 속도, 고가용성 및 내결함성 제공
-
SMB 다중 채널은 향상된 데이터 전송 속도, 고가용성 및 내결함성을 제공합니다.
-
파일 권한을 위해 Active Directory/LDAP와 통합
-
TLS를 통해 NFS와 보안 연결
-
NFS Kerberos 지원
-
RDMA를 통한 NFS.
-
Windows와 Unix ID 간의 이름 매핑
-
자율적 랜섬웨어 방어:
-
파일 시스템 분석:
-
SAN *
-
SnapMirror 활성 동기화를 사용하여 장애 도메인 간에 클러스터를 확장합니다.
-
ASA 모델은 액티브/액티브 다중 경로와 빠른 경로 페일오버를 제공합니다.
-
FC, iSCSI, NVMe-oF 프로토콜 지원
-
iSCSI CHAP 상호 인증을 지원합니다.
-
선택적 LUN 맵 및 포트 세트.
Proxmox VE 스토리지 유형은 ONTAP에서 지원됩니다
NAS 프로토콜(NFS/SMB)은 모든 컨텐츠 유형의 Proxmox VE를 지원하며 일반적으로 데이터 센터 레벨에서 한 번 구성됩니다. 게스트 VM은 NAS 스토리지에서 원시 디스크, qcow2 또는 VMDK 유형의 디스크를 사용할 수 있습니다. ONTAP 스냅샷은 클라이언트에서 데이터의 액세스 시점 복제본에 대해 표시할 수 있습니다. SAN 프로토콜(FC/iSCSI/NVMe-oF)을 사용하는 블록 스토리지는 일반적으로 호스트 단위로 구성되며 Proxmox VE에서 지원하는 VM 디스크 및 컨테이너 이미지 콘텐츠 유형으로 제한됩니다. 게스트 VM 및 컨테이너는 블록 스토리지를 원시 디바이스로 사용합니다.
콘텐츠 유형 | NFS 를 참조하십시오 | SMB/CIFS | FC | iSCSI | NVMe - oF |
---|---|---|---|---|---|
백업 |
예 |
예 |
없음 1 |
없음 1 |
없음 1 |
VM 디스크 |
예 |
예 |
예 2 |
예 2 |
예 2 |
CT 볼륨 |
예 |
예 |
예 2 |
예 2 |
예 2 |
ISO 이미지 |
예 |
예 |
없음 1 |
없음 1 |
없음 1 |
CT 템플릿 |
예 |
예 |
없음 1 |
없음 1 |
없음 1 |
스니펫 |
예 |
예 |
없음 1 |
없음 1 |
없음 1 |
-
참고: * 1 - 공유 폴더를 생성하고 디렉토리 스토리지 유형을 사용하려면 클러스터 파일 시스템이 필요합니다. LVM 스토리지 유형을 사용합니다.
SMB/CIFS 스토리지
SMB/CIFS 파일 공유를 사용하려면 스토리지 관리자가 수행해야 하는 특정 작업이 있으며 가상화 관리자는 Proxmox VE UI 또는 셸을 사용하여 공유를 마운트할 수 있습니다. SMB 멀티 채널은 내결함성을 제공하고 성능을 향상시킵니다. 자세한 내용은 을 참조하십시오 "TR4740 - SMB 3.0 다중 채널"
암호는 일반 텍스트 파일에 저장되며 루트 사용자만 액세스할 수 있습니다. 을 "Proxmox VE 설명서"참조하십시오. |
<strong> 스토리지 관리 작업 </strong>
ONTAP를 처음 사용하는 경우 시스템 관리자 인터페이스를 사용하여 이러한 작업을 완료함으로써 더 나은 환경을 조성할 수 있습니다.
-
SMB에 대해 SVM이 사용되도록 설정되었는지 확인합니다. 자세한 "ONTAP 9 설명서" 내용은 를 참조하십시오.
-
컨트롤러당 최소 2개의 리프가 있어야 합니다. 위 링크의 단계를 따릅니다. 참고로, 이 솔루션에 사용된 Lifs의 스크린샷은 다음과 같습니다.
-
Active Directory 또는 워크그룹 기반 인증을 사용합니다. 위 링크의 단계를 따릅니다.
-
볼륨을 생성합니다. FlexGroup를 사용할 수 있도록 데이터를 클러스터에 분산하는 옵션을 선택해야 합니다.
-
SMB 공유를 생성하고 권한을 조정합니다. 자세한 "ONTAP 9 설명서" 내용은 를 참조하십시오.
-
가상화 관리자가 작업을 완료할 수 있도록 SMB 서버, 공유 이름 및 자격 증명을 제공합니다.
<strong> 가상화 관리 작업 </strong>
-
공유 인증에 사용할 SMB 서버, 공유 이름 및 자격 증명을 수집합니다.
-
두 개 이상의 인터페이스가 서로 다른 VLAN(내결함성)에 구성되어 있고 NIC가 RSS를 지원하는지 확인합니다.
-
Management UI를 사용하는 경우
https:<proxmox-node>:8006
DataCenter를 클릭하고 스토리지를 선택한 다음 Add를 클릭하고 SMB/CIFS를 선택합니다. -
세부 정보를 입력하면 공유 이름이 자동으로 채워집니다. 모든 콘텐츠가 선택되었는지 확인합니다. 추가 를 클릭합니다.
-
다중 채널 옵션을 활성화하려면 클러스터의 노드 중 하나에서 쉘로 이동하고 pvesm set pvesmb01 --options multichannel, max_channel=4를 입력합니다
-
위의 작업에 대한 내용은 /etc/pve/storage.cfg 에 나와 있습니다.
NFS 스토리지
ONTAP는 Proxmox VE가 지원하는 모든 NFS 버전을 지원합니다. 내결함성 및 성능 향상을 제공하기 위해 "세션 트렁킹"을 사용합니다. 세션 트렁킹을 사용하려면 NFS v4.1 이상이 필요합니다.
ONTAP를 처음 사용하는 경우 시스템 관리자 인터페이스를 사용하여 이러한 작업을 완료함으로써 더 나은 환경을 조성할 수 있습니다.
<strong> 스토리지 관리 작업 </strong>
-
NFS에 대해 SVM이 사용되도록 설정되었는지 확인합니다. 을 참조하십시오 "ONTAP 9 설명서"
-
컨트롤러당 최소 2개의 리프가 있어야 합니다. 위 링크의 단계를 따릅니다. 참고로, 이 실습에서 사용하는 리프의 스크린샷은 다음과 같습니다.
-
Proxmox VE 호스트 IP 주소 또는 서브넷에 대한 액세스를 제공하는 NFS 내보내기 정책을 생성하거나 업데이트합니다. "엑스포트 정책 생성"및 "엑스포트 정책에 규칙을 추가합니다"을 참조하십시오.
-
"볼륨을 생성합니다".. FlexGroup를 사용할 수 있도록 데이터를 클러스터에 분산하는 옵션을 선택해야 합니다.
-
-
NFS 볼륨이 준비되었음을 가상화 관리자에게 알립니다.
<strong> 가상화 관리 작업 </strong>
-
두 개 이상의 인터페이스가 서로 다른 VLAN에 구성되어 있는지 확인합니다(내결함성). NIC 본딩을 사용합니다.
-
관리 UI를 사용하는 경우
https:<proxmox-node>:8006
데이터 센터 를 클릭하고 스토리지 를 선택한 다음 추가 를 클릭하고 NFS 를 선택합니다. -
세부 정보를 입력하고 서버 정보를 입력한 후 NFS 내보내기가 채워지고 목록에서 선택되어야 합니다. 콘텐츠 옵션을 선택해야 합니다.
-
세션 트렁킹의 경우 모든 Proxmox VE 호스트에서 /etc/fstab 파일을 업데이트하여 max_connect 및 NFS 버전 옵션과 함께 다른 lif 주소를 사용하여 동일한 NFS 내보내기를 마운트합니다.
-
다음은 NFS용 /etc/pve/storage.cfg 콘텐츠입니다.
iSCSI를 사용하는 LVM
Proxmox 호스트에서 공유 스토리지에 대해 Logical Volume Manager를 구성하려면 다음 작업에 대해 완료합니다.
<strong> 가상화 관리 작업 </strong>
-
두 개의 Linux VLAN 인터페이스를 사용할 수 있는지 확인합니다.
-
모든 Proxmox VE 호스트에 다중 경로 툴이 설치되어 있는지 확인합니다. 부팅 시 시작되는지 확인합니다.
apt list | grep multipath-tools # If need to install, execute the following line. apt-get install multipath-tools systemctl enable multipathd
-
모든 Proxmox VE 호스트에 대해 iSCSI 호스트 iqn을 수집하고 스토리지 관리자에게 제공합니다.
cat /etc/iscsi/initiator.name
<strong> 스토리지 관리 작업 </strong>
ONTAP을 처음 사용하는 경우 System Manager를 사용하여 더 나은 환경을 조성할 수 있습니다.
-
SVM을 iSCSI 프로토콜이 활성화된 상태에서 사용할 수 있는지 확인합니다. 다음을 수행합니다 "ONTAP 9 설명서"
-
iSCSI 전용의 컨트롤러당 2개의 리프가 있습니다.
-
igroup을 생성하고 호스트 iSCSI 이니시에이터를 채웁니다.
-
SVM에서 원하는 크기로 LUN을 생성하고 위 단계에서 생성된 igroup에 제공합니다.
-
LUN이 생성되었음을 가상화 관리자에게 알립니다.
<strong> 가상화 관리 작업 </strong>
-
관리 UI `https:<proxmox node>:8006`로 이동하여 데이터 센터 를 클릭하고 스토리지 를 선택한 다음 추가 를 클릭하고 iSCSI 를 선택합니다.
-
스토리지 ID 이름을 제공하십시오. 통신 문제가 없는 경우 ONTAP의 iSCSI lif 주소가 타겟을 선택할 수 있어야 합니다. 의도된 바는 게스트 VM에 대한 LUN 액세스를 직접 제공하지 않는 것이므로 선택 취소합니다.
-
이제 추가를 클릭하고 LVM을 선택합니다.
-
스토리지 ID 이름을 제공하고 위 단계에서 생성한 iSCSI 스토리지와 일치하는 기본 스토리지를 선택합니다. 기본 볼륨에 대한 LUN을 선택합니다. 볼륨 그룹 이름을 제공합니다. 공유 가 선택되어 있는지 확인합니다.
-
다음은 iSCSI 볼륨을 사용하는 LVM에 대한 샘플 스토리지 구성 파일입니다.
NVMe/TCP가 있는 LVM
Proxmox 호스트에서 공유 스토리지에 대해 Logical Volume Manager를 구성하려면 다음 작업을 수행합니다.
<strong> 가상화 관리 작업 </strong>
-
두 개의 Linux VLAN 인터페이스를 사용할 수 있는지 확인합니다.
-
클러스터의 모든 Proxmox 호스트에서 다음 명령을 실행하여 호스트 이니시에이터 정보를 수집합니다.
nvme show-hostnqn
-
수집된 호스트 nqn 정보를 스토리지 관리자에게 제공하고 필요한 크기의 NVMe 네임스페이스를 요청합니다.
<strong> 스토리지 관리 작업 </strong>
ONTAP을 처음 사용하는 경우 System Manager를 사용하여 더 나은 환경을 조성하십시오.
-
SVM을 NVMe 프로토콜을 지원하는 상태로 사용할 수 있는지 확인합니다. "ONTAP 9 설명서에 대한 NVMe 작업"을 참조하십시오.
-
NVMe 네임스페이스를 생성합니다.
-
하위 시스템을 생성하고 호스트 nqns를 할당합니다(CLI를 사용하는 경우). 위의 참조 링크를 따르십시오.
-
NVMe 네임스페이스가 생성되었음을 가상화 관리자에게 알립니다.
<strong> 가상화 관리 작업 </strong>
-
클러스터의 각 Proxmox VE 호스트에서 셸로 이동하고 /etc/NVMe/discovery.conf 파일을 생성하고 환경에 맞는 컨텐츠를 업데이트합니다.
root@pxmox01:~# cat /etc/nvme/discovery.conf # Used for extracting default parameters for discovery # # Example: # --transport=<trtype> --traddr=<traddr> --trsvcid=<trsvcid> --host-traddr=<host-traddr> --host-iface=<host-iface> -t tcp -l 1800 -a 172.21.118.153 -t tcp -l 1800 -a 172.21.118.154 -t tcp -l 1800 -a 172.21.119.153 -t tcp -l 1800 -a 172.21.119.154
-
NVMe 하위 시스템에 로그인합니다
nvme connect-all
-
장치 세부 정보를 검사하고 수집합니다.
nvme list nvme netapp ontapdevices nvme list-subsys lsblk -l
-
볼륨 그룹을 생성합니다
vgcreate pvens02 /dev/mapper/<device id>
-
관리 UI `https:<proxmox node>:8006`로 이동하여 데이터 센터를 클릭하고 스토리지를 선택한 다음 Add를 클릭하고 LVM을 선택합니다.
-
스토리지 ID 이름을 제공하고 기존 볼륨 그룹을 선택한 다음 CLI로 방금 생성한 볼륨 그룹을 선택합니다. 공유 옵션을 선택해야 합니다.
-
다음은 NVMe/TCP를 사용하는 LVM에 대한 샘플 스토리지 구성 파일입니다