简体中文版经机器翻译而成,仅供参考。如与英语版出现任何冲突,应以英语版为准。

结论

提供者 netapp-rickhuang-ai kevin-hoke

Azure NetApp Files ,速写和 dask 可通过与 Docker 和 Kubernetes 等业务流程工具集成来加快和简化大规模 ML 处理和培训的部署。通过统一端到端数据管道,此解决方案可降低许多高级计算工作负载固有的延迟和复杂性,从而有效地弥补开发和运营之间的差距。在培训阶段,数据科学家可以对大型数据集运行查询,并与其他用户安全地共享数据和算法模型。

在构建自己的 AI/ML 管道时,配置架构中组件的集成,管理,安全性和可访问性是一项极具挑战性的任务。让开发人员访问和控制其环境也带来了另一组挑战。

通过在云中构建端到端分布式培训模型和数据管道,我们展示了与不利用 GPU 加速数据处理和计算框架的传统开源方法相比,工作流总完成时间有两个显著的提升。

NetApp , Microsoft ,开源业务流程框架和 NVIDIA 的结合,将最新技术作为托管服务集于一身,并具有极大的灵活性,可加快技术采用速度,加快新 AI/ML 应用程序的上市速度。这些高级服务在云原生环境中提供,可以轻松地移植到内部部署和混合部署架构中。