Skip to main content
NetApp Solutions
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Solution de transfert de données pour l'IA

Contributeurs

La solution de transfert de données pour l'IA repose sur les besoins des utilisateurs en matière de traitement des données Hadoop à partir d'opérations d'IA. NetApp déplace les données de HDFS vers NFS à l'aide de NIPAM. Dans un cas d'utilisation, le client devait déplacer les données vers NFS sur site et un autre client devait déplacer les données de Windows Azure Storage Blob vers Cloud Volumes Service pour traiter les données des instances cloud GPU dans le cloud.

Le schéma suivant illustre les détails de la solution de transfert de données.

Erreur : image graphique manquante

Les étapes suivantes sont requises pour créer la solution de transfert de données :

  1. Le SAN ONTAP fournit HDFS, et NAS fournit le volume NFS via NIPAM au cluster du data Lake de production.

  2. Les données du client sont dans HDFS et NFS. Les données NFS peuvent être des données de production à partir d'autres applications utilisées pour l'analytique Big Data et les opérations d'IA.

  3. La technologie NetApp FlexClone crée un clone du volume NFS de production et le provisionne sur site vers le cluster d'IA.

  4. Les données d'une LUN SAN HDFS sont copiées dans un volume NFS avec NIPAM et l' hadoop distcp commande. NIPAM utilise la bande passante de plusieurs interfaces réseau pour transférer des données. Ce processus réduit le temps de copie des données afin de pouvoir transférer davantage de données.

  5. Les deux volumes NFS sont provisionnés sur le cluster d'IA pour les opérations d'IA.

  6. Pour traiter les données NFS sur site avec des GPU dans le cloud, les volumes NFS sont mis en miroir vers NetApp Private Storage (NPS) avec la technologie NetApp SnapMirror et montés sur les fournisseurs de services cloud pour les GPU.

  7. Le client souhaite traiter des données dans des services EC2/EMR, HDInsight ou DataProc dans des GPU provenant de fournisseurs de services cloud. Le mécanisme de déplacement des données Hadoop déplace les données des services Hadoop vers les services Cloud volumes avec NIPAM et le hadoop distcp commande.

  8. Les données Cloud Volumes Service sont provisionnées à l'IA via le protocole NFS.les données traitées via l'IA peuvent être envoyées sur un emplacement sur site à des fins d'analytique Big Data, en plus du cluster NVIDIA via NIPAM, SnapMirror et NPS.

Dans ce scénario, le client dispose de données volumineuses dans le système NAS à un emplacement distant, requises pour le traitement d'IA sur le contrôleur de stockage NetApp sur site. Dans ce scénario, il est préférable d'utiliser l'outil de migration XCP pour migrer les données plus rapidement.

Le client hybride peut utiliser BlueXP Copy and Sync pour migrer des données sur site de données NFS, CIFS et S3 vers le cloud et vice versa pour le traitement d'IA à l'aide de processeurs graphiques comme ceux d'un cluster NVIDIA. La copie et la synchronisation BlueXP ainsi que l'outil de migration XCP sont tous deux utilisés pour la migration des données NFS vers NetApp ONTAP NFS.