Skip to main content
日本語は機械翻訳による参考訳です。内容に矛盾や不一致があった場合には、英語の内容が優先されます。

概要

共同作成者

このドキュメントでは、ビッグデータ分析やハイパフォーマンスコンピューティング( HPC )システムからデータを移動して、人工知能( AI )ワークフローで使用できるようにする方法について説明します。AI は通常、 NFS エクスポートを介して NFS データを処理します。ただし、ビッグデータ分析とハイパフォーマンスコンピューティング( HPC )のプラットフォームに AI データが格納されている可能性があります。これは、 Hadoop 分散ファイルシステム( HDFS )、バイナリ大容量オブジェクト( Blob )、 S3 ストレージ、 IBM の General Parallel File System ( GPFS )などです。本ドキュメントでは、 Hadoop ネイティブのコマンド、 NetApp In-Place Analytics Module ( NIPAM )、および NetApp XCP を使用して、ビッグデータ分析プラットフォームと GPFS から NFS にデータを移動する方法について説明します。このドキュメントでは、ビッグデータや HPC から AI にデータを移動することで得られるビジネス上のメリットについても説明します。