Plan de test
Ce document suit l'Inférence MLPerf v0.7 "code", MLPerf Inférence v1.1 "code", et "règles". Nous avons exécuté des bancs d'essai MLPerf conçus pour l'inférence à la périphérie, comme défini dans le tableau suivant.
De service | Tâche | Modèle | Jeu de données | Taille QSL | Qualité | La contrainte de latence multiflux |
---|---|---|---|---|---|---|
Vision |
Classification des images |
Reset50v1.5 |
ImageNET (224 x 224) |
1024 |
99 % de FP32 |
50 ms. |
Vision |
Détection d'objet (grande taille) |
SSD- ResNet34 |
COCO (1200 x 1200) |
64 |
99 % de FP32 |
66 ms. |
Vision |
Détection d'objet (petite taille) |
SSD : MobileNetsv1 |
COCO (300 x 300) |
256 |
99 % de FP32 |
50 ms. |
Vision |
Segmentation des images médicales |
NON-ET 3D |
Brages 2019 (224 x 224 x 160) |
16 |
99 % et 99.9 % du FP32 |
s/o |
Voix |
Parole au texte |
RNNT |
Lirispeech dev-Clean |
2513 |
99 % de FP32 |
s/o |
Langue |
Traitement de la langue |
BERT |
Squad v1.1 |
10833 |
99 % de FP32 |
s/o |
Le tableau suivant présente des scénarios de banc d'essai pour Edge.
De service | Tâche | Scénarios |
---|---|---|
Vision |
Classification des images |
Flux unique, hors ligne, flux multiples |
Vision |
Détection d'objet (grande taille) |
Flux unique, hors ligne, flux multiples |
Vision |
Détection d'objet (petite taille) |
Flux unique, hors ligne, flux multiples |
Vision |
Segmentation des images médicales |
Flux unique, hors ligne |
Voix |
Parole-à-texte |
Flux unique, hors ligne |
Langue |
Traitement de la langue |
Flux unique, hors ligne |
Nous avons réalisé ces bancs d'essai à l'aide de l'architecture de stockage en réseau développée lors de cette validation et avons comparé les résultats à ceux des exécutions locales sur les serveurs de périphérie préalablement soumis à MLPerf. La comparaison consiste à déterminer l'impact du stockage partagé sur les performances d'inférence.