faster_rcnn_inception_resnet_v2_atrous_coco

ユースケースと概要説明

Inception ResNet v2 Atrous バージョンによる高速 R-CNN。物体検出に使用されます。詳細についてはこちらを参照してください。

仕様

メトリック

タイプ

物体検出

GFlops

30.687

MParams

13.307

ソース・フレームワーク

TensorFlow*

精度

メトリック

coco_precision

40.69%

入力

元のモデル

画像、名前: image_tensor、形状: 1, 600, 1024, 3、形式: B, H, W, C

説明:

  • B - バッチサイズ

  • H - 画像の髙さ

  • W - 画像の幅

  • C - チャネル数

予想される色の順序: RGB

変換されたモデル

  1. 画像、名前: image_tensor、形状: 1, 600, 1024, 3、形式: B, H, W, C

    説明:

  • B - バッチサイズ

  • H - 画像の髙さ

  • W - 画像の幅

  • C - チャネル数

    予想される色の順序: BGR

  1. 入力画像サイズの情報、名前: image_info、形状: 1, 3、形式: B, C

    説明:

    • B - バッチサイズ

    • C - H, W, S 形式の 3 つの値のベクトル。ここで、H は画像の高さ、W は画像の幅、S は画像のスケール係数 (通常は 1) です。

出力

元のモデル

  1. 分類子、名前: detection_classes。範囲 [1, 91] の予測された境界ボックスクラスが含まれます。このモデルは、91 カテゴリーのオブジェクトを含む Common Objects in Context (COCO) データセットでトレーニングされました。<omz_dir>/data/dataset_classes/coco_91cl_bkgr.txt ファイルで提供されるクラス名へのマッピング。

  2. 確率、名前: detection_scores。検出された境界ボックスの確率が含まれます。

  3. 検出ボックス、名前: detection_boxes。次の形式の検出ボックスの座標が含まれます:[y_min, x_min, y_max, x_max]、ここで (x_min, y_min) は左上隅の座標、(x_max, y_max) は右下隅の座標です。座標は入力画像サイズに合わせて再スケールされます。

  4. 検出番号、名前: num_detections。予測された検出ボックスの数が含まれます。

変換されたモデル

概要検出情報の配列、名前: reshape_do_2d、形状: 1, 1, 100, 7、形式 1, 1, N, 7。ここで N は検出された境界ボックスの数です。各検出の形式は次のとおりです:。
[image_id, label, conf, x_min, y_min, x_max, y_max]

説明:

  • image_id - バッチ内の画像の ID

  • label - 範囲 [1, 91] の予測クラス ID、<omz_dir>/data/dataset_classes/coco_91cl_bkgr.txt ファイルで提供されるクラス名にマッピングされます。

  • conf - 予測されたクラスの信頼度

  • (x_min, y_min) - 境界ボックスの左上隅の座標 (座標は正規化された形式で、範囲 [0, 1])

  • (x_max, y_max) - 境界ボックスの右下隅の座標 (座標は正規化された形式で、範囲 [0, 1])

モデルをダウンロードして OpenVINO™ IR 形式に変換

以下の例に示すように、モデルをダウンロードし、必要に応じてモデル・ダウンローダーやその他の自動化ツールによってモデルを OpenVINO™ IR 形式に変換できます。

モデル・ダウンローダーの使用例:

omz_downloader --name <model_name>

モデル・コンバーターの使用例:

omz_converter --name <model_name>

デモの使い方

Open Model Zoo が提供する次のデモでこのモデルを使用して、その機能を確認できます。