ssdlite_mobilenet_v2¶
ユースケースと概要説明¶
ssdlite_mobilenet_v2
モデルはオブジェクト検出に使用されます。詳細については、論文: MobileNetV2: 逆残差と線形ボトルネックを参照してください。
仕様¶
メトリック |
値 |
---|---|
タイプ |
検出 |
GFLOPs |
1.525 |
MParams |
4.475 |
ソース・フレームワーク |
TensorFlow* |
精度¶
メトリック |
値 |
---|---|
coco_precision |
24.2946% |
入力¶
元のモデル¶
画像、名前: image_tensor
、形状: 1, 300, 300, 3
、形式: B, H, W, C
。
説明:
B
- バッチサイズH
- 画像の髙さW
- 画像の幅C
- チャネル数
予想される色の順序: RGB
。
変換されたモデル¶
画像、名前: image_tensor
、形状: 1, 300, 300, 3
、形式: B, H, W, C
。
説明:
B
- バッチサイズH
- 画像の髙さW
- 画像の幅C
- チャネル数
予想される色の順序: BGR
。
出力¶
元のモデル¶
分類子、名前:
detection_classes
。範囲 [1, 91] の予測された境界ボックスクラスが含まれます。このモデルは、91 カテゴリーのオブジェクトを含む Common Objects in Context (COCO) データセットでトレーニングされました。<omz_dir>/data/dataset_classes/coco_91cl_bkgr.txt
ファイルで提供されるクラス名へのマッピング。確率、名前:
detection_scores
。検出された境界ボックスの確率が含まれます。検出ボックス、名前:
detection_boxes
。次の形式の検出ボックスの座標が含まれます:[y_min, x_min, y_max, x_max]
、ここで (x_min
,y_min
) は左上隅の座標、(x_max
,y_max
) は右下隅の座標です。座標は入力画像サイズに合わせて再スケールされます。検出番号、名前:
num_detections
。予測された検出ボックスの数が含まれます。
変換されたモデル¶
概要検出情報の配列、名前: DetectionOutput
、形状: 1, 1, 100, 7
、形式 1, 1, N, 7
。ここで N
は検出された境界ボックスの数です。各検出の形式は次のとおりです。
[image_id
, label
, conf
, x_min
, y_min
, x_max
, y_max
]
説明:
image_id
- バッチ内の画像の IDlabel
- 範囲 [1, 91] の予測クラス ID、<omz_dir>/data/dataset_classes/coco_91cl_bkgr.txt
ファイルで提供されるクラス名にマッピングされます。conf
- 予測されたクラスの信頼度(
x_min
,y_min
) - 境界ボックスの左上隅の座標 (座標は正規化された形式で、範囲 [0, 1])(
x_max
,y_max
) - 境界ボックスの右下隅の座標 (座標は正規化された形式で、範囲 [0, 1])
モデルをダウンロードして OpenVINO™ IR 形式に変換¶
以下の例に示すように、モデルをダウンロードし、必要に応じてモデル・ダウンローダーやその他の自動化ツールによってモデルを OpenVINO™ IR 形式に変換できます。
モデル・ダウンローダーの使用例:
omz_downloader --name <model_name>
モデル・コンバーターの使用例:
omz_converter --name <model_name>
デモの使い方¶
Open Model Zoo が提供する次のデモでこのモデルを使用して、その機能を確認できます。
法務上の注意書き¶
元のモデルは、Apache License バージョン 2.0 に基づいて配布されています。ライセンスの内容は、<omz_dir>/models/public/licenses/APACHE-2.0-TF-Models.txt
で確認できます。