ssd-resnet34-1200-onnx¶
ユースケースと概要説明¶
ssd-resnet-34-1200-onnx
モデルは、物体検出を行うことを目的とした ResNet-34 バックボーン・ネットワークに基づくマルチスケール SSD です。このモデルは、Common Objects in Context (COCO) 画像データセットからトレーニングされました。このモデルは PyTorch* フレームワークで事前トレーニングされ、ONNX* 形式に変換されます。追加情報については、リポジトリーを参照してください。
仕様¶
メトリック |
値 |
---|---|
タイプ |
検出 |
GFLOPs |
433.411 |
MParams |
20.058 |
ソース・フレームワーク |
PyTorch* |
精度¶
メトリック |
値 |
---|---|
coco_precision |
20.73% |
入力¶
元のモデルは RGB
形式の画像を想定し、変換されたモデルは BGR
形式の画像を想定していることに注意してください。
変換されたモデル¶
画像、形状: 1, 3, 1200, 1200
、形式: B, C, H, W
。
説明:
B
- バッチサイズC
- チャネルH
- 高さW
- 幅
チャネルの順番は BGR
です。
出力¶
注: モデル・オプティマイザーの変換後に出力形式が変更されます。変更の詳細な説明については、モデル・オプティマイザー開発ガイドを参照してください。
元のモデル¶
分類子、名前 -
labels
、形状 -1, N
には、[1、81] 範囲で検出された各境界ボックスの予測クラスが含まれます。モデルは、80 カテゴリのオブジェクト (0 クラスは背景用) を含む Common Objects in Context (COCO) データセットでトレーニングされました。<omz_dir>/data/dataset_classes/coco_80cl_bkgr.txt
ファイルで提供されるクラス名へのマッピング。確率、名前 -
scores
、形状 -1, N
には、検出された各境界ボックスの信頼度が含まれます。検出ボックス、名前 -
bboxes
、形状 -1, N, 4
、形式[y_min, x_min, y_max, x_max]
の検出ボックス座標が含まれます。ここで、(x_min
、y_min
) は左上隅の座標、(x_max
、y_max
) は右下隅の座標です。座標は入力画像サイズに合わせて再スケールされます。
変換されたモデル¶
分類子、形状 -
1, 200
には、[1、81] 範囲で検出された各境界ボックスの予測クラス ID が含まれます。このモデルは、80 カテゴリーのオブジェクトを含む Common Objects in Context (COCO) データセットでトレーニングされました。<omz_dir>/data/dataset_classes/coco_80cl_bkgr.txt
ファイルで提供されるクラス名へのマッピング。確率、形状 -
1, 200
には、検出された各境界ボックスの信頼度が含まれます。検出ボックス、形状 -
1, 200, 4
には、[y_min, x_min, y_max, x_max]
形式の検出ボックス座標が含まれます。(x_min
,y_min
) は左上隅の座標、(x_max
,y_max
) は右下隅の座標です。座標は正規化された形式で、範囲は [0, 1] です。
モデルをダウンロードして OpenVINO™ IR 形式に変換¶
以下の例に示すように、モデルをダウンロードし、必要に応じてモデル・ダウンローダーやその他の自動化ツールによってモデルを OpenVINO™ IR 形式に変換できます。
モデル・ダウンローダーの使用例:
omz_downloader --name <model_name>
モデル・コンバーターの使用例:
omz_converter --name <model_name>
デモの使い方¶
Open Model Zoo が提供する次のデモでこのモデルを使用して、その機能を確認できます。
法務上の注意書き¶
元のモデルは、Apache License バージョン 2.0 に基づいて配布されています。ライセンスの内容は、<omz_dir>/models/public/licenses/APACHE-2.0-MLPerf.txt
で確認できます。