Proxmox VEとONTAP
Proxmox Virtual Environment(VE)の共有ストレージを使用すると、VMのライブマイグレーションの時間が短縮され、環境全体でバックアップと整合性のあるテンプレートのターゲットとして適しています。ONTAPストレージは、Proxmox VEホスト環境のニーズだけでなく、ゲストファイル、ブロック、オブジェクトストレージのニーズにも対応できます。
Proxmox VEホストは、FC、イーサネット、またはその他のサポート対象インターフェイスをスイッチにケーブル接続し、ONTAP論理インターフェイスと通信できる必要があります。常に確認して "Interoperability Matrix Tool"サポートされている構成をください。
ONTAPの機能の概要
共通機能
-
スケールアウトクラスタ
-
セキュア認証とRBACのサポート
-
ゼロトラストマルチ管理サポート
-
セキュアマルチテナンシー
-
SnapMirrorを使用してデータをレプリケートします。
-
Snapshotによるポイントインタイムコピー。
-
スペース効率に優れたクローン:
-
重複排除、圧縮などのStorage Efficiency機能
-
Kubernetes向けのTrident CSIサポート
-
SnapLock
-
改ざん防止Snapshotコピーロック
-
暗号化のサポート
-
FabricPoolを使用してコールドデータをオブジェクトストアに階層化します。
-
BlueXP とCloudInsightsの統合:
-
Microsoftオフロードデータ転送(ODX)
-
NAS *
-
FlexGroupボリュームはスケールアウトNASコンテナであり、ハイパフォーマンス、負荷分散、拡張性を提供します。
-
FlexCacheを使用すると、データをグローバルに分散しながら、データに対するローカルの読み取り/書き込みアクセスを提供できます。
-
マルチプロトコルのサポートにより、NFSと同様にSMB経由でも同じデータにアクセスできます。
-
NFS nconnectでは、TCP接続ごとに複数のTCPセッションを確立できるため、ネットワークスループットが向上します。これにより、最新のサーバで利用可能な高速NICの使用率が向上します。
-
NFSセッショントランキングにより、データ転送速度、高可用性、フォールトトレランスが向上します。
-
SMBマルチチャネルにより、データ転送速度、高可用性、フォールトトレランスが向上します。
-
ファイル権限のためのActive Directory / LDAPとの統合。
-
TLS経由のNFSとのセキュアな接続。
-
NFS Kerberosのサポート。
-
NFS over RDMAの略。
-
Windows IDとUNIX ID間のネームマッピング。
-
自律型ランサムウェア対策:
-
ファイルシステム分析:
-
SAN*
-
SnapMirrorアクティブ同期により、フォールトドメイン間でクラスタを拡張します。
-
ASAモデルは、アクティブ/アクティブマルチパスとファストパスフェイルオーバーを提供します。
-
FC、iSCSI、NVMe-oFプロトコルをサポート
-
iSCSI CHAP相互認証のサポート。
-
選択的LUNマップとポートセット。
ONTAPでサポートされるProxmox VEストレージタイプ
NASプロトコル(NFS / SMB)は、すべてのコンテンツタイプのProxmox VEをサポートしており、通常はデータセンターレベルで1回設定されます。ゲストVMは、NASストレージ上でraw、qcow2、またはVMDKタイプのディスクを使用できます。クライアントからのデータのポイントインタイムコピーにアクセスするために、ONTAP Snapshotを表示できるようにすることができます。SANプロトコル(FC / iSCSI / NVMe-oF)を使用するブロックストレージは、通常、ホスト単位で構成され、Proxmox VEでサポートされるVMディスクとコンテナイメージのコンテンツタイプに制限されます。ゲストVMとコンテナは、ブロックストレージをrawデバイスとして使用します。
コンテンツタイプ | NFS | SMB / CIFS | FC | iSCSI | NVMe-oF |
---|---|---|---|---|---|
バックアップ |
はい。 |
はい。 |
いいえ1 |
いいえ1 |
いいえ1 |
VM ディスク数 |
はい。 |
はい。 |
はい2 |
はい2 |
はい2 |
CTボリューム |
はい。 |
はい。 |
はい2 |
はい2 |
はい2 |
ISOイメージ |
はい。 |
はい。 |
いいえ1 |
いいえ1 |
いいえ1 |
CTテンプレート |
はい。 |
はい。 |
いいえ1 |
いいえ1 |
いいえ1 |
スニペット |
はい。 |
はい。 |
いいえ1 |
いいえ1 |
いいえ1 |
注: 1 -共有フォルダを作成し、ディレクトリストレージタイプを使用するには、クラスタファイルシステムが必要です。2- LVMストレージタイプを使用します。
SMB / CIFSストレージ
SMB / CIFSファイル共有を利用するには、ストレージ管理者が実行する必要がある特定のタスクがあります。仮想化管理者は、Proxmox VE UIまたはシェルを使用して共有をマウントできます。SMBマルチチャネルにより、フォールトトレランスが実現し、パフォーマンスが向上します。詳細については、を参照してください。"TR4740 - SMB 3.0マルチチャネル"
パスワードはクリアテキストファイルに保存され、rootユーザのみがアクセスできます。を参照してください "Proxmox VEドキュメント"。 |
<strong>ストレージ管理タスク</strong>
ONTAPを初めて使用する場合は、System Managerインターフェイスを使用してこれらのタスクを実行してください。
-
SVMでSMBが有効になっていることを確認します。"ONTAP 9 のドキュメント"詳細については、を参照してください。
-
コントローラごとに少なくとも2つのLIFが必要です。上記のリンクの手順に従います。このソリューションで使用するLIFのスクリーンショットを参照してください。
-
Active Directoryまたはワークグループベースの認証を使用します。上記のリンクの手順に従います。
-
ボリュームを作成します。FlexGroupを使用する場合は、必ずクラスタ全体にデータを分散するオプションをオンにしてください。
-
SMB共有を作成し、権限を調整します。"ONTAP 9 のドキュメント"詳細については、を参照してください。
-
仮想化管理者がタスクを完了できるように、SMBサーバ、共有名、およびクレデンシャルを指定します。
<strong>仮想化管理タスク</strong>
-
共有の認証に使用するSMBサーバ、共有名、およびクレデンシャルを収集します。
-
少なくとも2つのインターフェイスが(フォールトトレランスのために)異なるVLANに設定されており、NICがRSSをサポートしていることを確認してください。
-
管理UIを使用している場合は
https:<proxmox-node>:8006
、データセンターをクリックし、ストレージを選択して、[Add]をクリックして[SMB/CIFS]を選択します。 -
詳細を入力すると、共有名が自動的に入力されます。すべてのコンテンツを選択します。追加をクリックします。
-
マルチチャネルオプションを有効にするには、クラスタ上のいずれかのノードでシェルに移動し、pvesm set pvesmb01 --options multichannel, max_channels=4と入力します。
-
上記のタスクの内容は/etc/pve/storage.cfgにあります。
NFSストレージ
ONTAPは、Proxmox VEでサポートされているすべてのNFSバージョンをサポートしています。フォールトトレランスとパフォーマンスの向上を実現するには、"セッショントランキング"を使用します。セッショントランキングを使用するには、NFS v4.1以上が必要です。
ONTAPを初めて使用する場合は、System Managerインターフェイスを使用してこれらのタスクを実行してください。
<strong>ストレージ管理タスク</strong>
-
SVMでNFSが有効になっていることを確認します。を参照して "ONTAP 9 のドキュメント"
-
コントローラごとに少なくとも2つのLIFが必要です。上記のリンクの手順に従います。ここでは、ラボで使用するLIFのスクリーンショットを参照してください。
-
Proxmox VEホストのIPアドレスまたはサブネットへのアクセスを提供するNFSエクスポートポリシーを作成または更新します。"エクスポートポリシーの作成"およびを参照してください"エクスポートポリシーにルールを追加する"。
-
"ボリュームの作成"です。FlexGroupを使用する場合は、必ずクラスタ全体にデータを分散するオプションをオンにしてください。
-
-
NFSボリュームの準備が完了したことを仮想化管理者に通知
<strong>仮想化管理タスク</strong>
-
少なくとも2つのインターフェイスが異なるVLANに設定されていることを確認します(フォールトトレランス用)。NICボンディングを使用します。
-
管理UIを使用している場合は
https:<proxmox-node>:8006
、データセンターをクリックし、ストレージを選択して、[Add]をクリックして[NFS]を選択します。 -
サーバ情報を指定したら、詳細を入力してNFSエクスポートが読み込まれ、リストから選択されます。コンテンツオプションを選択することを忘れないでください。
-
セッショントランキングの場合、すべてのProxmox VEホストで/etc/fstabファイルを更新して、max_connectおよびNFSバージョンオプションとともに異なるLIFアドレスを使用して同じNFSエクスポートをマウントします。
-
ここでは、NFSの/etc/pve/storage.cfgの内容を示します。
iSCSIを使用したLVM
Proxmoxホスト間で共有ストレージ用の論理ボリュームマネージャを構成するには、次のタスクでを実行します。
<strong>仮想化管理タスク</strong>
-
2つのLinux VLANインターフェイスが使用可能であることを確認します。
-
すべてのProxmox VEホストにmultipath-toolsがインストールされていることを確認します。起動時に起動することを確認します。
apt list | grep multipath-tools # If need to install, execute the following line. apt-get install multipath-tools systemctl enable multipathd
-
すべてのProxmox VEホストのiSCSIホストiqnを収集し、ストレージ管理者に提供します。
cat /etc/iscsi/initiator.name
<strong>ストレージ管理タスク</strong>
ONTAPを初めて使用する場合は、System Managerを使用して操作性を向上させてください。
-
SVMが使用可能でiSCSIプロトコルが有効になっていることを確認します。フォロー"ONTAP 9 のドキュメント"
-
各コントローラにiSCSI専用のLIFを2つ用意します。
-
igroupを作成し、ホストのiSCSIイニシエータを設定します。
-
必要なサイズのLUNをSVM上に作成し、上記の手順で作成したigroupに提供します。
-
LUNが作成されたことを仮想化管理者に通知します。
<strong>仮想化管理タスク</strong>
-
管理UIに移動し
https:<proxmox node>:8006
、データセンターをクリックしてストレージを選択し、追加をクリックしてiSCSIを選択します。 -
ストレージID名を指定してください。通信に問題がない場合は、ONTAPのiSCSI LIFアドレスがターゲットを選択できる必要があります。ここでは、ゲストVMへのLUNアクセスを直接提供しないことを目的としているため、このチェックボックスをオフにします。
-
[Add]をクリックし、[LVM]を選択します。
-
ストレージID名を指定し、前の手順で作成したiSCSIストレージと一致するベースストレージを選択します。ベースボリュームのLUNを選択します。ボリュームグループ名を指定します。共有が選択されていることを確認
-
以下は、iSCSIボリュームを使用するLVMのストレージ構成ファイルの例です。
NVMe/TCP対応LVM
Proxmoxホスト間で共有ストレージ用に論理ボリュームマネージャを構成するには、次のタスクを実行します。
<strong>仮想化管理タスク</strong>
-
2つのLinux VLANインターフェイスが使用可能であることを確認します。
-
クラスタ上のすべてのProxmoxホストで、次のコマンドを実行してホストイニシエータ情報を収集します。
nvme show-hostnqn
-
収集したホストのNQN情報をストレージ管理者に提供し、必要なサイズのNVMeネームスペースを要求します。
<strong>ストレージ管理タスク</strong>
ONTAPを初めて使用する場合は、System Managerを使用して操作性を向上させてください。
-
SVMでNVMeプロトコルが有効になっていることを確認してください。参照してください"ONTAP 9ノNVMeタスクノトキユメント"。
-
NVMeネームスペースを作成します。
-
サブシステムを作成し、ホストのnqnsを割り当てます(CLIを使用している場合)。上記の参照リンクを参照してください。
-
NVMeネームスペースが作成されたことを仮想化管理者に通知します。
<strong>仮想化管理タスク</strong>
-
クラスタ内の各Proxmox VEホストでshellに移動し、/etc/nvme/discovery.confファイルを作成して、環境に固有のコンテンツを更新します。
root@pxmox01:~# cat /etc/nvme/discovery.conf # Used for extracting default parameters for discovery # # Example: # --transport=<trtype> --traddr=<traddr> --trsvcid=<trsvcid> --host-traddr=<host-traddr> --host-iface=<host-iface> -t tcp -l 1800 -a 172.21.118.153 -t tcp -l 1800 -a 172.21.118.154 -t tcp -l 1800 -a 172.21.119.153 -t tcp -l 1800 -a 172.21.119.154
-
NVMeサブシステムへのログイン
nvme connect-all
-
デバイスの詳細を調べて収集します。
nvme list nvme netapp ontapdevices nvme list-subsys lsblk -l
-
ボリュームグループの作成
vgcreate pvens02 /dev/mapper/<device id>
-
管理UIに移動し
https:<proxmox node>:8006
、データセンターをクリックしてストレージを選択し、追加をクリックしてLVMを選択します。 -
ストレージID名を指定し、既存のボリュームグループを選択して、CLIで作成したボリュームグループを選択します。共有オプションを必ずチェックしてください。
-
ここでは、NVMe/TCPを使用するLVMのストレージ構成ファイルの例を示します。