Skip to main content
NetApp artificial intelligence solutions
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Abstrakt

Beitragende kevin-hoke

In diesem Dokument wird beschrieben, wie Daten aus Big-Data-Analyse- und High-Performance-Computing-Systemen (HPC) verschoben werden, damit sie in Workflows der künstlichen Intelligenz (KI) verwendet werden können. AI verarbeitet NFS-Daten normalerweise über NFS-Exporte. Möglicherweise befinden sich Ihre KI-Daten jedoch auf einer Big-Data-Analyse- und High-Performance-Computing-Plattform (HPC). Dies könnte das Hadoop Distributed File System (HDFS), ein Binary Large Object (Blob), S3-Speicher oder das General Parallel File System (GPFS) von IBM sein. In diesem Dokument beschreiben wir, wie Sie Daten von einer Big-Data-Analyseplattform und GPFS mithilfe von Hadoop-nativen Befehlen, dem NetApp In-Place Analytics Module (NIPAM) und NetApp XCP nach NFS verschieben. In diesem Dokument werden auch die geschäftlichen Vorteile der Datenverschiebung von Big Data und HPC zu KI erörtert.