Skip to main content
NetApp Solutions
본 한국어 번역은 사용자 편의를 위해 제공되는 기계 번역입니다. 영어 버전과 한국어 버전이 서로 어긋나는 경우에는 언제나 영어 버전이 우선합니다.

실행: AI 워크로드 오케스트레이션에 AI 플랫폼 사용

기여자
  • 더 빠르게 혁신을 이룩할 수 있습니다. 연구원들은 NetApp 스토리지 시스템과 함께 AI 리소스 풀링, 큐 처리 및 우선순위 지정 메커니즘을 사용하여 인프라 관리 문제에서 제거되며 데이터 과학에만 집중할 수 있습니다. 실행: AI 및 NetApp 고객은 컴퓨팅 또는 데이터 파이프라인 병목 현상 없이 필요한 만큼 워크로드를 실행하여 생산성을 향상할 수 있습니다.

  • 팀 생산성 향상. Run:AI Fairness 알고리즘은 모든 사용자와 팀이 리소스의 페어공유를 확보할 수 있도록 보장합니다. 우선 순위 프로젝트와 관련된 정책을 미리 설정할 수 있으며, 플랫폼을 통해 사용자 팀 간에 리소스를 동적으로 할당할 수 있으므로 사용자가 원하는 GPU 리소스에 적시에 액세스할 수 있습니다.

  • GPU 활용률이 향상되었습니다. Run:AI Scheduler를 사용하면 Kubernetes에서 분산된 훈련을 위해 소수점 GPU, 정수 GPU 및 여러 GPU 노드를 쉽게 사용할 수 있습니다. 이런 식으로 AI 워크로드는 용량이 아닌 요구사항에 따라 실행됩니다. 데이터 과학 팀은 동일한 인프라에서 더 많은 AI 실험을 실행할 수 있습니다.