Skip to main content
NetApp Solutions
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Run:KI-Plattform zur Orchestrierung von KI-Workloads

Beitragende
  • Schnellere Innovationen Mithilfe von Run:KI-Ressourcen-Pooling, Warteschlangen und Priorisierungsmechanismen werden zusammen mit dem NetApp Storage-System Forscher nicht mehr von den Problemen beim Infrastruktur-Management befreit und können sich ausschließlich auf die Datenwissenschaft konzentrieren. Run:KI und NetApp Kunden steigern die Produktivität, indem sie genau so viele Workloads ohne Engpässe bei Computing oder Daten-Pipeline ausführen.

  • Höhere Teamproduktivität – Run:AI Fairness-Algorithmen garantieren, dass alle Benutzer und Teams einen gerechten Anteil an Ressourcen erhalten. Richtlinien für vorrangige Projekte können voreingestellt werden, und die Plattform ermöglicht die dynamische Zuweisung von Ressourcen von einem Benutzerteam zum anderen, sodass Benutzer rechtzeitig auf begehrte GPU-Ressourcen zugreifen können.

  • Verbesserte GPU-Auslastung. Run:AI Scheduler ermöglicht Benutzern das einfache Verwenden von fraktionalen GPUs, Integer-GPUs und mehreren Nodes von GPUs für verteiltes Training auf Kubernetes. Auf diese Weise werden KI-Workloads je nach Anforderungen und nicht nach Kapazität ausgeführt. Data-Science-Teams können mehr KI-Experimente in der gleichen Infrastruktur ausführen.