日本語は機械翻訳による参考訳です。内容に矛盾や不一致があった場合には、英語の内容が優先されます。
概要
このドキュメントでは、ビッグデータ分析および高性能コンピューティング (HPC) システムからデータを移動して、人工知能 (AI) ワークフローで使用できるようにする方法について説明します。 AI は通常、NFS エクスポートを通じて NFS データを処理します。ただし、AI データはビッグ データ分析および高性能コンピューティング (HPC) プラットフォームに保存されている可能性があります。これは、Hadoop 分散ファイル システム (HDFS)、バイナリ ラージ オブジェクト (Blob)、S3 ストレージ、または IBM の General Parallel File System (GPFS) のいずれかになります。このドキュメントでは、Hadoop ネイティブ コマンド、 NetApp In-Place Analytics Module (NIPAM)、およびNetApp XCP を使用して、ビッグ データ分析プラットフォームと GPFS から NFS にデータを移動する方法について説明します。このドキュメントでは、ビッグデータや HPC から AI にデータを移行することによるビジネス上のメリットについても説明します。