パフォーマンスに関する FAQ¶
パフォーマンス・ベンチマークはどのくらいの頻度で更新されますか?
新しいパフォーマンス・ベンチマークは通常、インテル® ディストリビューションの OpenVINO™ ツールキットの major.minor
リリースごとに公開されます。
パフォーマンス・ベンチマークで使用されるモデルはどこで見つけられますか?
使用されるすべてのモデルは、Open Model Zoo の GitHub リポジトリーあります。
ベンチマークに使用されるリストに新しいモデルが追加されることはありますか?
パフォーマンス・ベンチマークで使用されるモデルは、導入シナリオでの一般的な採用と使用に基づいて選択されています。さまざまなワークロードと使用法をサポートする新しいモデルが定期的に追加されます。
ベンチマーク結果を自身で実行するにはどうすればよいですか?
すべてのパフォーマンス・ベンチマークは、インテル® ディストリビューションの OpenVINO™ ツールキットに含まれる benchmark_app というオープンソース・ツールによって生成されます。このツールは、Python および C++ アプリで利用できます。
パフォーマンスのテストに関する簡単な手順については、パフォーマンス値の取得ガイドを参照してください。
ベンチマークに使用されるワークロードの詳しい説明はどこで見つけられますか?
推論で使用される画像サイズは、ベンチマークされたネットワークによって異なります。以下の表は、各ネットワーク・モデルの入力サイズのリストと、そのモデルの詳細情報へのリンクを示しています。
Model |
パブリック・ネットワーク |
Task |
入力サイズ |
---|---|---|---|
THUDM |
トランスフォーマー |
32K |
|
Meta AI |
自動回帰言語 |
4096 |
|
Mistral AI |
自動回帰言語 |
4096 |
|
Hugginface |
潜在拡散モデル |
77 |
|
BERT |
質問/回答 |
128 |
|
BERT-large |
質問/回答 |
384 |
|
Efficientdet |
分類 |
512x512 |
|
Mask R-CNN ResNet 50 Atrous |
オブジェクト・インスタンスのセグメント化 |
800x1365 |
|
Mobilenet V2 PyTorch |
分類 |
224x224 |
|
ResNet-50_v1_ILSVRC-2012 |
分類 |
224x224 |
|
ssd-mobilenet-V1-coco onnx モデル |
オブジェクト検出 |
300x300 |
|
ssd-resnet34 onnx モデル |
オブジェクト検出 |
1200x1200 |
|
U-Net |
セマンティックのセグメント化 |
368x480 |
|
YOLO v3 Tiny |
オブジェクト検出 |
416x416 |
|
Yolov8nano |
オブジェクト検出 |
608x608 |
ベンチマークで使用されるハードウェアはどこで購入できますか?
インテルは世界中のベンダーと提携しています。ハードウェア・メーカーのリストについては、インテル® AI: インプロダクション・パートナーおよびソリューション・カタログを参照してください。ハードウェアを購入する前に、インテル® デベロッパー・クラウド for the Edge を使用してモデルをリモートでテストおよび実行できます。
パフォーマンスや精度を向上させるためモデルを最適化するにはどうすればよいですか?
モデルを最適化するガイドラインと推奨事項のセットは、最適化ガイドで入手できます。さらにサポートが必要な場合は、コミュニティー・フォーラムのディスカッションに参加してください。
VNNI サポートのない CPU でのベンチマークに INT8 最適化モデルが使用されるのはなぜですか?
OpenVINO™ ツールキットのモデル・オプティマイザーを使用した低精度の最適化の利点は、インテル® DL ブーストを通じて VNNI をサポートするプロセッサー以外にも広がっています。FP32 と比較して INT8 はビット幅が狭いため、インテル® CPU はさらに高速にデータを処理できます。そのため、インテル® ハードウェア内でサポートされている低精度の最適化に関わりなく、変換されたモデルでより高いスループットが提供されます。さまざまなネットワーク・モデルと、インテル® Core™ i7-8700T の AVX-2、インテル® Xeon® 5218T およびインテル® Xeon® 8270 の AVX-512 (VNNI) など、選択したインテル® CPU アーキテクチャーのブースト係数を比較します。INT8 および FP32 精度のモデル精度を参照してください。
HW プラットフォームに基づく OpenVINO™ パフォーマンス結果はどこで検索できますか?
さまざまなハードウェア・プラットフォーム上で特定のニューラル・ネットワーク・モデルのパフォーマンス結果を検索する一般的なアプローチをサポートするため、ウェブサイトの形式が変更されました。異なるニューラル・ネットワーク・モデルをで作業するときに、特定の HW プラットフォームのパフォーマンスを参照するのとは対照的です。
レイテンシーはどのように測定されていますか?
レイテンシーは、OpenVINO™ ランタイムを同期モードで実行することによって測定されます。このモードでは、次のフレームまたは画像が処理される前に、各フレームや画像が一連のステージ (前処理、推論、後処理) 全体を通じて処理されます。この KPI は、単一画像の推論を行うアプリケーションに関連します。例えば、医療用途における超音波画像の分析や、石油ガス産業における地震画像の分析などが挙げられます。他のユースケースには、環境の変化に対応する産業用ロボットの反応や、推論結果に対する素早い反応が求められる自律走行車の障害物回避など、リアルタイム (またはほぼリアルタイム) のアプリケーションが含まれます。