MLOps open source con NetApp
-
PDF del sito di questa documentazione
- Intelligenza artificiale
- Cloud pubblico e ibrido
-
Virtualizzazione
- Virtualizzazione VMware
-
Container
- Red Hat OpenShift con NetApp
Raccolta di documenti PDF separati
Creating your file...
NetApp, NetApp, NetApp, NetApp
Le aziende e le organizzazioni di tutte le dimensioni e di molti settori si stanno rivolgendo all'intelligenza artificiale (ai) per risolvere problemi reali, fornire prodotti e servizi innovativi e ottenere un vantaggio in un marketplace sempre più competitivo. Molte organizzazioni si stanno rivolgendo a strumenti MLOps open-source per restare al passo con il rapido ritmo di innovazione del settore. Questi strumenti open source offrono funzionalità avanzate e funzioni all'avanguardia, ma spesso non tengono conto della disponibilità e della sicurezza dei dati. Sfortunatamente, ciò significa che i data scientist altamente qualificati sono costretti a trascorrere una significativa quantità di tempo in attesa di ottenere l'accesso ai dati o in attesa del completamento di rudimentali operazioni relative ai dati. Abbinando popolari strumenti MLOps open-source a un'infrastruttura dati intelligente di NetApp, le organizzazioni possono accelerare la propria pipeline di dati, che, a sua volta, accelera le proprie iniziative ai. Possono liberare valore dai propri dati garantendo al contempo protezione e sicurezza. Questa soluzione dimostra l'abbinamento delle funzionalità di gestione dei dati di NetApp con i diversi framework e tool open-source più diffusi per affrontare queste sfide.
Il seguente elenco evidenzia alcune funzionalità chiave abilitate da questa soluzione:
-
Gli utenti possono eseguire rapidamente il provisioning di nuovi volumi di dati a elevata capacità e spazi di lavoro di sviluppo supportati dallo storage NetApp scale-out dalle performance elevate.
-
Gli utenti possono clonare near-Instant volumi di dati a elevata capacità e spazi di lavoro di sviluppo per consentire sperimentazione o iterazione rapida.
-
Gli utenti possono risparmiare in modo quasi istantaneo snapshot di volumi di dati a elevata capacità e spazi di lavoro di sviluppo per il backup e/o tracciabilità/baseline.
Un flusso di lavoro MLOps tipico include spazi di lavoro di sviluppo, in genere sotto forma di "Notebook Jupyter"; tracciamento degli esperimenti; pipeline di training automatizzate; pipeline di dati; inferenza/implementazione. Questa soluzione mette in evidenza diversi strumenti e framework che possono essere utilizzati in modo indipendente o congiunto per affrontare i diversi aspetti del flusso di lavoro. Viene inoltre illustrata l'associazione delle funzioni di gestione dei dati di NetApp con ciascuno di questi strumenti. Questa soluzione ha lo scopo di offrire elementi di base dai quali un'organizzazione può creare un flusso di lavoro MLOps personalizzato, specifico per i loro casi d'uso e requisiti.
In questa soluzione vengono trattati i seguenti strumenti/framework:
Nel seguente elenco vengono descritti i modelli comuni per la distribuzione di questi strumenti in modo indipendente o congiunto.
-
Distribuire JupyterHub, MLflow e Apache Airflow in combinazione - JupyterHub per , MLflow per "Notebook Jupyter"il tracciamento degli esperimenti e Apache Airflow per la formazione automatizzata e le pipeline di dati.
-
Implementare Kubeflow e Apache Airflow in combinazione - Kubeflow per "Notebook Jupyter", tracciamento degli esperimenti, pipeline di training automatizzate e inferenza; e flusso d'aria Apache per pipeline di dati.
-
Implementare Kubeflow come soluzione di piattaforma all-in-one MLOps per "Notebook Jupyter", tracciamento degli esperimenti, formazione automatizzata e pipeline di dati e inferenza.