f3net

ユースケースと概要説明

F3Net: 顕著な物体検出の融合、フィードバック、およびフォーカス。詳細は、リポジトリーこちらをご覧ください。

仕様

メトリック

タイプ

顕著な物体の検出

GFLOPs

31.2883

MParams

25.2791

ソース・フレームワーク

PyTorch*

精度

メトリック

F 値

84.21%

F 値は Pascal-S データセットで推定され、精度と再現率の加重調和平均として定義されます。

F-measure = (1 + β^2) * (Precision * Recall) / (β^2 * (Precision + Recall))

経験的に、精度をより重視するため β^2 は 0.3 に設定されます。

精度と再現率は、二値化された顕著オブジェクト・マスクとグラウンドトゥルースに基づいて計算されます。

Precision = TP/TP + FPRecall = TP/TP + FN

ここで、TPTNFPFN はそれぞれ真陽性、真陰性、偽陽性、偽陰性を示します。評価手順の詳細については、こちらを参照してください。

入力

元のモデル

画像、名前: input.1、形状: 1, 3, 352, 352、形式: B, C, H, W

説明:

  • B - バッチサイズ

  • C - チャネル数

  • H - 画像の髙さ

  • W - 画像の幅

予想される色の順序は、RGB です。平均値 - [124.55, 118.90, 102.94] スケール値 - [56.77, 55.97, 57.50]

変換されたモデル

画像、名前: input.1、形状: 1, 3, 352, 352、形式: B, C, H, W

説明:

  • B - バッチサイズ

  • C - チャネル数

  • H - 画像の髙さ

  • W - 画像の幅

予想される色の順序は、BGR です。

出力

元のモデル

顕著性マップ、名前 - saliency_map、形状 - 1, 1, 352, 352、形式 - B, C, H, W

説明:

  • B - バッチサイズ

  • C - チャネル数

  • H - 画像の髙さ

  • W - 画像の幅

[0, 1] 範囲への変換確率については、顕著性マップにシグモイド関数を適用する必要があります。

変換されたモデル

変換されたモデルには、元のモデルと同じパラメーターが含まれます。

モデルをダウンロードして OpenVINO™ IR 形式に変換

以下の例に示すように、モデルをダウンロードし、必要に応じてモデル・ダウンローダーやその他の自動化ツールによってモデルを OpenVINO™ IR 形式に変換できます。

モデル・ダウンローダーの使用例:

omz_downloader --name <model_name>

モデル・コンバーターの使用例:

omz_converter --name <model_name>

デモの使い方

Open Model Zoo が提供する次のデモでこのモデルを使用して、その機能を確認できます。