Sinopsis
-
PDF de este sitio de documentos
- Inteligencia artificial
-
Contenedores
- Red Hat OpenShift con NetApp
- Multicloud híbrido de NetApp con VMware
Recopilación de documentos PDF independientes
Creating your file...
Este documento describe cómo trasladar datos de análisis de Big Data y de sistemas de computación de alto rendimiento (HPC) para que se puedan utilizar en flujos de trabajo de inteligencia artificial (IA). Normalmente, la IA procesa datos NFS mediante exportaciones NFS. Sin embargo, es posible que tenga sus datos de IA en una plataforma de análisis de Big Data y de computación de alto rendimiento (HPC). Este podría ser el sistema de archivos distribuidos de Hadoop (HDFS), un objeto grande binario (Blob), el almacenamiento S3 o el sistema de archivos paralelos generales (GPFS) de IBM. En este documento, describimos cómo mover datos desde una plataforma de análisis de Big Data y GPFS a NFS mediante comandos nativos de Hadoop, el módulo de análisis in situ de NetApp (NIPAM) y NetApp XCP. En este documento también se tratan las ventajas empresariales del traslado de datos de grandes volúmenes de datos y de computación de alto rendimiento a la IA.