AI 向け Data Mover 解決策
Data Mover 解決策 for AI は、お客様のニーズに基づいて AI 運用の Hadoop データを処理します。ネットアップは、 NIPAM を使用して HDFS から NFS にデータを移動します。あるユースケースでは、オンプレミスのNFSにデータを移動する必要があり、別のお客様は、クラウドのGPUクラウドインスタンスからデータを処理するために、Windows Azure Storage BlobからGoogle Cloud NetApp Volumeにデータを移動する必要がありました。
次の図は、 Data Mover の解決策の詳細を示しています。
Data Mover 解決策を構築するには、次の手順が必要です。
-
ONTAP SAN は HDFS を提供し、 NAS は NIPAM 経由で本番データレイククラスタに NFS ボリュームを提供します。
-
お客様のデータは HDFS と NFS にあります。NFS データは、ビッグデータ分析や AI 処理に使用される他のアプリケーションの本番データにすることができます。
-
NetApp FlexClone テクノロジは、本番用 NFS ボリュームのクローンを作成し、オンプレミスの AI クラスタにプロビジョニングします。
-
HDFS SAN LUN からのデータは、 NIPAM および「 hadoop distcp 」コマンドによって NFS ボリュームにコピーされます。NIPAM は、複数のネットワークインターフェイスの帯域幅を使用してデータを転送します。この処理によってデータコピー時間が短縮され、より多くのデータを転送できるようになります。
-
どちらの NFS ボリュームも、 AI 処理用に AI クラスタにプロビジョニングされます。
-
オンプレミスの NFS データを処理するために、クラウド内の GPU を使用する場合は、 NFS ボリュームが NetApp SnapMirror テクノロジを使用して NetApp Private Storage ( NPS )にミラーリングされ、 GPU のクラウドサービスプロバイダにマウントされます。
-
お客様は、 GPU のデータをクラウドサービスプロバイダから EC2 / EMR 、 HDInsight 、または DataProc サービスで処理したいと考えています。Hadoopデータムーバーは、NIPAMとコマンドを使用して、HadoopサービスからGoogle Cloud NetApp Volumeにデータを移動します
hadoop distcp
。 -
Google Cloud NetApp Volumeのデータは、NFSプロトコルを使用してAIにプロビジョニングされます。AIで処理されたデータは、NIPAM、SnapMirror、NPS経由でNVIDIAクラスタに加えて、オンプレミスの場所でもビッグデータ分析用に送信できます。
このシナリオでは、 NAS システム内のファイル数が多く、オンプレミスのネットアップストレージコントローラで AI 処理を実行するために必要なリモートサイトにデータが配置されています。このシナリオでは、 XCP Migration Tool を使用してデータをより高速に移行することをお勧めします。
ハイブリッドユースケースでは、BlueXPのCopy and Syncを使用してオンプレミスのデータをNFS、CIFS、S3のデータからクラウドに移行し、NVIDIAクラスタ内のGPUなどを使用してAI処理を行うことができます。BlueXPのコピーと同期とXCP移行ツールは、NetApp ONTAP NFSへのNFSデータ移行に使用します。