Testplan
Dieses Dokument folgt MLPerf Inferenz v0.7 "Codieren", MLPerf Inferenz v1.1 "Codieren", und "Regeln". Wir führten MLPerf-Benchmarks aus, die für die Inferenz am Rand entwickelt wurden, wie in der folgenden Tabelle definiert.
Werden | Aufgabe | Modell | Datensatz | QSL-Größe | Qualität | Einschränkung der Latenz bei mehreren Streams |
---|---|---|---|---|---|---|
Vision |
Bildklassifizierung |
Resnet50v1.5 |
ImageNet (24 x 224) |
1024 |
99 % des FP32 |
50 ms |
Vision |
Objekterkennung (groß) |
SSD - Wiedereinsetzen Net34 |
COCO (1200 x 1200) |
64 |
99 % des FP32 |
66 ms |
Vision |
Objekterkennung (klein) |
SSD- MobileNetsv1 |
COCO (300 x 300) |
256 |
99 % des FP32 |
50 ms |
Vision |
Segmentierung von medizinischem Bildmaterial |
3D-UNET |
Briats 2019 (22x24 x 2160) |
16 |
99 % und 99.9 % des FP32 |
k. A. |
Sprache |
Sprache-zu-Text |
RNNT |
Librispeech dev-clean |
2513 |
99 % des FP32 |
k. A. |
Sprache |
Sprachverarbeitung |
BERT |
Kader v1.1 |
10833 |
99 % des FP32 |
k. A. |
In der folgenden Tabelle sind Edge Benchmark-Szenarien aufgeführt.
Werden | Aufgabe | Szenarien |
---|---|---|
Vision |
Bildklassifizierung |
Single Stream, offline, Multistream |
Vision |
Objekterkennung (groß) |
Single Stream, offline, Multistream |
Vision |
Objekterkennung (klein) |
Single Stream, offline, Multistream |
Vision |
Segmentierung von medizinischem Bildmaterial |
Single Stream offline |
Sprache |
Sprache-zu-Text |
Single Stream offline |
Sprache |
Sprachverarbeitung |
Single Stream offline |
Diese Benchmarks wurden mithilfe der im Rahmen dieser Validierung entwickelten Netzwerk-Storage-Architektur durchgeführt und mit denen von lokalen Ausführung auf den Edge-Servern verglichen, die zuvor MLPerf vorgelegt wurden. Der Vergleich soll ermitteln, welche Auswirkungen der Shared Storage auf die Inferenz-Performance hat.