Skip to main content
NetApp Solutions
본 한국어 번역은 사용자 편의를 위해 제공되는 기계 번역입니다. 영어 버전과 한국어 버전이 서로 어긋나는 경우에는 언제나 영어 버전이 우선합니다.

테스트 계획

기여자

이 문서는 MLPerf Inference v0.7을 따릅니다 "코드", MLPerf Inference v1.1 "코드", 및 "규칙". 아래 표에 정의된 대로 에지에서 추론을 위해 설계된 MLPerf 벤치마크를 실행했습니다.

영역 작업 모델 데이터 세트 QSL 크기 품질 멀티스트림 지연 제한

비전

영상 분류

Resnet50v1.5

ImageNet(224x224)

1024

FP32의 99%

50ms

비전

물체 감지(대형)

SSD-ResNet34

코코(1200x1200)

64

FP32의 99%

66ms

비전

물체 감지(소형)

SSD - MobileNetsv1

코코(300x300)

256

FP32의 99%

50ms

비전

의료 영상 분할

3D UNET

2019 (224x224x160)

16

FP32의 99% 및 99.9%

해당 없음

음성

텍스트 음성 변환

RNNT

리브리스페흐(LiBrispeech) 개발 - 청소

2513

FP32의 99%

해당 없음

언어

언어 처리

베르

스쿼드 v1.1

10833

FP32의 99%

해당 없음

다음 표에는 Edge 벤치마크 시나리오가 나와 있습니다.

영역 작업 시나리오

비전

영상 분류

단일 스트림, 오프라인, 멀티스트림

비전

물체 감지(대형)

단일 스트림, 오프라인, 멀티스트림

비전

물체 감지(소형)

단일 스트림, 오프라인, 멀티스트림

비전

의료 영상 분할

단일 스트림, 오프라인

음성

텍스트 음성 변환

단일 스트림, 오프라인

언어

언어 처리

단일 스트림, 오프라인

이 검증에서 개발된 네트워크 스토리지 아키텍처를 사용하여 이러한 벤치마크를 수행한 결과 및 이전에 MLPerf에 제출한 에지 서버에서 로컬 실행의 결과를 비교했습니다. 이와 비교하여 공유 스토리지가 추론 성능에 미치는 영향을 확인합니다.