テスト計画
このドキュメントはMLPerf Inference v0.7に準拠しています。 "コード" 、MLPerf 推論 v1.1 "コード" 、 そして "ルール"。次の表で定義されているように、エッジでの推論用に設計された MLPerf ベンチマークを実行しました。
| 領域 | Task | モデル | データセット | QSLサイズ | 品質 | マルチストリームのレイテンシ制約 |
|---|---|---|---|---|---|---|
ビジョン |
画像分類 |
Resnet50v1.5 |
イメージネット(224x224) |
1024 |
FP32の99% |
50ms |
ビジョン |
物体検出(大) |
SSD-ResNet34 |
COCO(1200x1200) |
64 |
FP32の99% |
66ms |
ビジョン |
物体検出(小) |
SSD-MobileNetsv1 |
COCO(300x300) |
256 |
FP32の99% |
50ms |
ビジョン |
医療画像のセグメンテーション |
3D UNET |
ブラTS 2019 (224x224x160) |
16 |
FP32の99%と99.9% |
N/A |
スピーチ |
音声テキスト変換 |
RNNT |
Librispeech 開発クリーン |
2513 |
FP32の99% |
N/A |
言語 |
言語処理 |
バート |
SQuAD v1.1 |
10833 |
FP32の99% |
N/A |
次の表は、Edge ベンチマークのシナリオを示しています。
| 領域 | Task | シナリオ |
|---|---|---|
ビジョン |
画像分類 |
シングルストリーム、オフライン、マルチストリーム |
ビジョン |
物体検出(大) |
シングルストリーム、オフライン、マルチストリーム |
ビジョン |
物体検出(小) |
シングルストリーム、オフライン、マルチストリーム |
ビジョン |
医療画像のセグメンテーション |
単一ストリーム、オフライン |
スピーチ |
音声テキスト変換 |
単一ストリーム、オフライン |
言語 |
言語処理 |
単一ストリーム、オフライン |
私たちは、この検証で開発されたネットワーク ストレージ アーキテクチャを使用してこれらのベンチマークを実行し、結果を、以前 MLPerf に送信されたエッジ サーバーでのローカル実行の結果と比較しました。この比較は、共有ストレージが推論パフォーマンスにどの程度の影響を与えるかを判断するためのものです。