Skip to main content
日本語は機械翻訳による参考訳です。内容に矛盾や不一致があった場合には、英語の内容が優先されます。

まとめ

共同作成者

先進的なドライバーアシスタンスシステム( ADAS )、インダストリー 4.0 、スマートシティ、モノのインターネット( IoT )など、いくつかの新しいアプリケーションシナリオでは、ほぼゼロのレイテンシで継続的なデータストリームを処理する必要があります。このドキュメントでは、こうした要件を満たすエッジ環境のネットアップストレージコントローラと Lenovo ThinkSystem サーバに GPU ベースの人工知能( AI )推論を導入するためのコンピューティングとストレージのアーキテクチャについて説明します。また、このドキュメントでは、業界標準の MLPerf Inference ベンチマークのパフォーマンスデータも提供し、 NVIDIA T4 GPU を搭載したエッジサーバ上のさまざまな推論タスクを評価します。オフライン、単一ストリーム、マルチストリームの推論のシナリオのパフォーマンスを調査し、コスト効率の高い共有ネットワークストレージシステムを使用したアーキテクチャはハイパフォーマンスであり、複数のエッジサーバのデータとモデルを一元的に管理できることを示します。