Skip to main content
NetApp Solutions
Se proporciona el idioma español mediante traducción automática para su comodidad. En caso de alguna inconsistencia, el inglés precede al español.

MLOps de código abierto con NetApp

Colaboradores

Mike Oglesby, NetApp Sufian Ahmad, NetApp Rick Huang, NetApp Mohan Acharya, NetApp

Empresas y organizaciones de todos los tamaños y sectores se están decantando por la inteligencia artificial (IA) para resolver problemas del mundo real, ofrecer productos y servicios innovadores, y conseguir una ventaja en un mercado cada vez más competitivo. Muchas organizaciones están recurriendo a herramientas MLOps de código abierto para mantenerse al día con el rápido ritmo de la innovación en la industria. Estas herramientas de código abierto ofrecen capacidades avanzadas y características de vanguardia, pero a menudo no tienen en cuenta la disponibilidad de los datos y la seguridad de los mismos. Desafortunadamente, esto significa que los científicos de datos altamente cualificados se ven obligados a pasar una cantidad significativa de tiempo esperando para obtener acceso a los datos o a esperar a que finalicen las operaciones rudimentarias relacionadas con los datos. Al emparejar las herramientas MLOps populares de código abierto con una infraestructura de datos inteligente de NetApp, las organizaciones pueden acelerar sus canalizaciones de datos, lo que, a su vez, acelera sus iniciativas de IA. Pueden desbloquear el valor de sus datos mientras garantizan su protección y seguridad. Esta solución demuestra la combinación de las funcionalidades de gestión de datos de NetApp con varios marcos y herramientas de código abierto populares para hacer frente a estos desafíos.

En la siguiente lista se destacan algunas funcionalidades clave que posibilita esta solución:

  • Los usuarios pueden aprovisionar rápidamente nuevos volúmenes de datos de alta capacidad y espacios de trabajo de desarrollo respaldados por almacenamiento NetApp de escalado horizontal y de alto rendimiento.

  • Los usuarios pueden clonar casi instantáneamente volúmenes de datos de gran capacidad y espacios de trabajo de desarrollo para permitir experimentación o iteración rápida.

  • Los usuarios pueden guardar casi instantáneamente instantáneas de volúmenes de datos de gran capacidad y espacios de trabajo de desarrollo para backup o trazabilidad/creación de bases de referencia.

Figura que muestra el cuadro de diálogo de entrada/salida o que representa el contenido escrito

Un flujo de trabajo típico de MLOps incorpora espacios de trabajo de desarrollo, que normalmente toman la forma de "Cuadernos Jupyter"; seguimiento de experimentos; canalizaciones de entrenamiento automatizadas; canalizaciones de datos; e inferencia/puesta en marcha. Esta solución destaca varias herramientas y marcos distintos que pueden utilizarse de forma independiente o conjunta para abordar los distintos aspectos del flujo de trabajo. También demostramos el emparejamiento de las funcionalidades de gestión de datos de NetApp con cada una de estas herramientas. Esta solución está diseñada para ofrecer elementos básicos a partir de los cuales una organización puede crear un flujo de trabajo de MLOps personalizado que sea específico para sus casos de uso y requisitos.

En esta solución se tratan las siguientes herramientas/marcos:

La siguiente lista describe patrones comunes para implementar estas herramientas de forma independiente o conjunta.

  • Implemente JupyterHub, MLflow y Apache Airflow en conjunto - JupyterHub para , MLflow para "Cuadernos Jupyter"el seguimiento de experimentos, y Apache Airflow para el entrenamiento automatizado y canalizaciones de datos.

  • Ponga en marcha Kubeflow y Apache Airflow conjuntamente: Kubeflow para "Cuadernos Jupyter", seguimiento de experimentos, canalizaciones de entrenamiento automatizadas e inferencia; y Apache Airflow para canalizaciones de datos.

  • Implemente Kubeflow como una solución de plataforma MLOps todo en uno para "Cuadernos Jupyter"obtener seguimiento de experimentos, formación y canalizaciones de datos automatizadas e inferencia.