person-reidentification-retail-0277

ユースケースと概要説明

これは、一般的なシナリオの個人再識別モデルです。全身画像を入力として使用し、コサイン距離によって画像のペアを照合する埋め込みベクトルを出力します。このモデルは、高速推論向けに開発された Linear Context Transform (LCT) ブロックを備えた OmniScaleNet バックボーンに基づいています。1/16 スケールの特徴マップからの単一の再識別ヘッドは、256 個の浮動小数点数の埋め込みベクトルを出力します。

仕様

メトリック

Market-1501 rank@1 精度

96.2%

Market-1501 mAP

87.7%

ポーズカバレッジ

直立、画像面と平行

隠れた歩行者のサポート

オクルージョン・カバレッジ

<50%

GFlops

1.993

MParams

2.103

ソース・フレームワーク

PyTorch*

ランク 1 の累積一致曲線 (CMC) は、上位 1 ランク内に少なくとも 1 人の真陽性者を特定できる可能性を示す精度です。平均平均精度 (mAP) は、すべての照会の平均精度 (AP) の平均です。AP は、適合率および再現率曲線の下の領域として定義されます。

入力

ネットは、B, C, H, W 形式の形状 1, 3, 256, 128 の 1 つの入力イメージを予期します。
説明:

  • B - バッチサイズ

  • C - チャネル数

  • H - 画像の髙さ

  • W - 画像の幅

予想される色の順序は BGR です。

出力

ネットは、reid_embedding という名前の 1, 256 形状のブロブを出力します。これは、コサイン距離を使用して他の記述子と比較できます。

デモの使い方

Open Model Zoo が提供する次のデモでこのモデルを使用して、その機能を確認できます。