faster-rcnn-resnet101-coco-sparse-60-0001¶
ユースケースと概要説明¶
これは、Common Objects in Context (COCO) トレーニング・データセットを使用してトレーニングされた Faster R-CNN オブジェクト検出ネットワークの再トレーニング・バージョンです。実際の実装は Detectron に基づいており、畳み込みレイヤーをスパース化するため追加のネットワーク重みプルーニングが適用されます (ネットワーク・パラメーターの 60% がゼロに設定されます)。
モデル入力は、BGR
順に 1, 800, 1280, 3
の単一イメージで構成されるブロブです。ピクセル値は [0, 255] の範囲の整数です。
仕様¶
メトリック |
値 |
---|---|
評価指標 (mAP) |
38.74%** |
GFlops |
849.9109 |
MParams |
52.79 |
ソース・フレームワーク |
TensorFlow* |
COCO: Common Objects in Context の平均精度メトリックの説明を参照してください。プライマリー・チャレンジ・メトリックが使用されます。COCO 検証データセットでテストされています。
入力¶
画像、名前: image
、形状: 1, 800, 1280, 3
、形式: B, H, W, C
。
説明:
B
- バッチサイズH
- 画像の髙さW
- 画像の幅C
- チャネル数
予想される色の順序は BGR
です。
出力¶
ネットは形状 1, 1, 100, 7
の BLOB を出力します。各行はそれぞれ [image_id
, class_id
, confidence
, x0
, y0
, x1
, y1
] で構成されます。
image_id
- バッチ内の画像の IDclass_id
- 範囲 [1, 80] の予測クラス ID、<omz_dir>/data/dataset_classes/coco_80cl_bkgr.txt
ファイルで提供されるクラス名にマッピングされます。confidence
- [0, 1] 検出スコア。値が大きいほど、検出の信頼性が高くなります。(
x0
,y0
) - [0, 1] の範囲の境界ボックスの左上隅の正規化された座標(
x1
,y1
) - [0, 1] 範囲の境界ボックスの右下隅の正規化された座標
デモの使い方¶
Open Model Zoo が提供する次のデモでこのモデルを使用して、その機能を確認できます。