yolof

ユースケースと概要説明

YOLOF は、FPN を使用しない、シンプルで、高速、効率的な物体検出器です。“You Only Look One-level Feature” の論文に基づいたモデルです。これは PyTorch* フレームワークで実装されました。モデルはバックボーンとして Cross Stage Partial ブロックを備えた DarkNet-53 を使用しました。詳細についてはリポジトリーを参照してください。このモデルは、80 クラスの Common Objects in Context (COCO) データセットで事前トレーニングされました。<omz_dir>/data/dataset_classes/coco_80cl.txt ファイルで提供されるラベル名へのクラス ID のマッピング。

仕様

メトリック

タイプ

検出

GFLOPs

175.37942

MParams

48.228

ソース・フレームワーク

PyTorch*

精度

変換されたモデルの Common Objects in Context (COCO) 検証データセットで取得された精度メトリック。

メトリック

mAP

60.69%

COCO mAP (0.5)

66.23%

COCO mAP (0.5:0.05:0.95)

43.63%

入力

元のモデル

画像、名前: image_input、形状: 1, 3, 608, 608、形式: B, C, H, W

説明:

  • B - バッチサイズ

  • C - チャネル

  • H - 高さ

  • W - 幅

チャネルの順番は BGR です。平均値: [103.53、116.28、123.675]

変換されたモデル

画像、名前: image_input、形状: 1, 3, 608, 608、形式: B, C, H, W

説明:

  • B - バッチサイズ

  • C - チャネル

  • H - 高さ

  • W - 幅

チャネルの順番は BGR です。

出力

元のモデル

インスタンスのリスト。後処理はモデル内に実装され、モデルの推論中に実行されます。各インスタンスは次のフィールドを持つオブジェクトです。

  • detection box

  • label - 予測されたクラス ID

  • score - 予測されたクラスの信頼度

検出ボックスの形式は [x_min, y_min, x_max, y_max] です。
説明:

  • (x_min, y_min) - 境界ボックスの左上隅の座標

  • (x_max, y_max) - 境界ボックスの右下隅の座標

変換されたモデル

検出概要情報の配列、名前 - boxes、形状 - 1, 504, 38, 38。anchor 値は、16,16,  32,32,  64,64,  128,128,  256,256,  512,512 です。

各ケースの形式は B, N*84, Cx, Cy です。
説明:

  • B - バッチサイズ

  • CxCy - セル・インデックス

  • N - セルの検出ボックスの数

検出ボックスの形式は [x, y, h, w, class_id_1, …, class_id_80] です。
説明:

  • (x, y) - ボックスの中心の生の座標。対応するアンカーを乗算して、セル座標に対する相対値を取得します

  • hw - ボックスの生の高さと幅、指数関数を適用し、対応するアンカーを乗算して、絶対的な高さと幅の値を取得します

  • class_id_1、…、class_id_80 - ロジット形式でのクラスにわたる確率分布。sigmoid 関数を適用して各クラスの信頼度を取得します

モデルをダウンロードして OpenVINO™ IR 形式に変換

以下の例に示すように、モデルをダウンロードし、必要に応じてモデル・ダウンローダーやその他の自動化ツールによってモデルを OpenVINO™ IR 形式に変換できます。

モデル・ダウンローダーの使用例:

omz_downloader --name <model_name>

モデル・コンバーターの使用例:

omz_converter --name <model_name>

デモの使い方

Open Model Zoo が提供する次のデモでこのモデルを使用して、その機能を確認できます。