Skip to main content
NetApp artificial intelligence solutions
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Testplan

Beitragende kevin-hoke

Dieses Dokument folgt MLPerf Inference v0.7 "Code" , MLPerf-Inferenz v1.1 "Code" , Und "Regeln" . Wir haben MLPerf-Benchmarks ausgeführt, die für die Inferenz am Rand entwickelt wurden, wie in der folgenden Tabelle definiert.

Bereich Aufgabe Modell Datensatz QSL-Größe Qualität Multistream-Latenzbeschränkung

Vision

Bildklassifizierung

Resnet50v1.5

ImageNet (224 x 224)

1024

99 % von FP32

50 ms

Vision

Objekterkennung (groß)

SSD-ResNet34

COCO (1200x1200)

64

99 % von FP32

66 ms

Vision

Objekterkennung (klein)

SSD – MobileNetsv1

COCO (300x300)

256

99 % von FP32

50 ms

Vision

Medizinische Bildsegmentierung

3D UNET

BraTS 2019 (224x224x160)

16

99 % und 99,9 % von FP32

n/a

Rede

Sprache-zu-Text

RNNT

Librispeech dev-clean

2513

99 % von FP32

n/a

Sprache

Sprachverarbeitung

BERT

SQuAD v1.1

10833

99 % von FP32

n/a

Die folgende Tabelle zeigt Edge-Benchmark-Szenarien.

Bereich Aufgabe Szenarien

Vision

Bildklassifizierung

Einzelstream, Offline, Multistream

Vision

Objekterkennung (groß)

Einzelstream, Offline, Multistream

Vision

Objekterkennung (klein)

Einzelstream, Offline, Multistream

Vision

Medizinische Bildsegmentierung

Einzelner Stream, offline

Rede

Sprache-zu-Text

Einzelner Stream, offline

Sprache

Sprachverarbeitung

Einzelner Stream, offline

Wir haben diese Benchmarks mit der bei dieser Validierung entwickelten Netzwerkspeicherarchitektur durchgeführt und die Ergebnisse mit denen aus lokalen Läufen auf den Edge-Servern verglichen, die zuvor an MLPerf übermittelt wurden. Der Vergleich soll ermitteln, welchen Einfluss der gemeinsam genutzte Speicher auf die Inferenzleistung hat.