Skip to main content
NetApp Solutions
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Testverfahren

Beitragende

Dieser Abschnitt beschreibt die Testverfahren zur Validierung dieser Lösung.

Einrichtung von Betriebssystem und KI-Inferenz

Für AFF C190 haben wir Ubuntu 18.04 mit NVIDIA-Treibern und Docker mit Unterstützung für NVIDIA-GPUs verwendet und MLPerf verwendet "Codieren" Erhältlich als Teil der Lenovo Vorlage an MLPerf Inferenz v0.7.

Für EF280 haben wir Ubuntu 20.04 mit NVIDIA-Treibern und Docker mit Unterstützung für NVIDIA-GPUs und MLPerf verwendet "Codieren" Verfügbar als Teil der Lenovo Vorlage für MLPerf Inferenz v1.1.

Zur Einrichtung des KI-Inferenz führen Sie folgende Schritte aus:

  1. Laden Sie Datensätze herunter, für die eine Registrierung erforderlich ist, den ImageNet 2012 Validation-Satz, den Criteo Terabyte-Datensatz und den Briats 2019-Trainingssatz, und entpacken Sie die Dateien.

  2. Erstellen Sie ein Arbeitsverzeichnis mit mindestens 1 TB und definieren Sie die Umgebungsvariable MLPERF_SCRATCH_PATH Bezug auf das Verzeichnis.

    Sie sollten dieses Verzeichnis im gemeinsam genutzten Speicher für den Netzwerkspeicherfall oder die lokale Festplatte beim Testen mit lokalen Daten freigeben.

  3. Führen Sie das Make-in-Management prebuild Befehl, mit dem der Docker-Container für die erforderlichen Inferenzaufgaben erstellt und gestartet wird.

    Hinweis Die folgenden Befehle werden alle im laufenden Docker-Container ausgeführt:
    • Laden Sie vortrainierte KI-Modelle für MLPerf-Inferenz-Aufgaben herunter: make download_model

    • Laden Sie zusätzliche Datensätze herunter, die kostenlos heruntergeladen werden können: make download_data

    • Daten vorverarbeiten: Make preprocess_data

    • Ausführen: make build.

    • Aufbau der für die GPU optimierten Inferenz-Engines in Computing-Servern: make generate_engines

    • Führen Sie zum Ausführen von Inferenz-Workloads den folgenden Befehl aus (ein Befehl):

make run_harness RUN_ARGS="--benchmarks=<BENCHMARKS> --scenarios=<SCENARIOS>"

KI-Inferenz wird ausgeführt

Es wurden drei Läufe ausgeführt:

  • KI-Inferenz eines einzelnen Servers mit lokalem Storage

  • KI-Inferenz eines einzelnen Servers mittels Netzwerk-Storage

  • Multi-Server-KI-Inferenz mit Netzwerk-Storage