person-detection-action-recognition-0006

ユースケースと概要説明

これは、スマート・クラスルーム・シナリオのアクション検出器です。これは、3x3 畳み込みブロックの計算量を削減する深さ方向の畳み込みを含む RMNet バックボーンに基づいています。1/8 と 1/16 スケールの特徴マップからの最初の SSD ヘッドには、4 つのクラスター化された事前ボックスがあり、検出された人物 (2 クラス検出器) を出力します。2 番目の SSD ベースのヘッドは、検出された人物の行動を予測します。
考えられる行動: 座る、書く、手を上げる、立つ、振り向く、机の上に横になる

仕様

メトリック

Detector AP (内部テストセット 2)

90.70%

精度 (内部テストセット 2)

80.74%

ポーズカバレッジ

座る、書く、手を上げる、立つ

振り向く、机の上に横になる

隠れた歩行者のサポート

オクルージョン・カバレッジ

<50%

歩行者の最低身長

80 ピクセル (1080p)

GFlops

8.225

MParams

2.001

ソース・フレームワーク

TensorFlow*

平均精度 (AP) は、精度/再現率曲線の下の領域として定義されます。

入力

画像、名前: input、形状: 1, 400, 680, 3、形式: B, H, W, C

説明:

  • B - バッチサイズ

  • H - 画像の髙さ

  • W - 画像の幅

  • C - チャネル数

予想される色の順序は BGR です。

出力

最終出力は 4 つのブランチです。

  1. 名前: ActionNet/out_detection_loc、形状: b, num_priors, 4 - SSD 形式のボックス座標

  2. 名前: ActionNet/out_detection_conf、形状: b, num_priors, 2 - 検出の信頼度

  3. 名前: ActionNet/action_heads/out_head_1_anchor_1、形状: b, 50, 85, 6 - アクションの信頼度

  4. 名前: ActionNet/action_heads/out_head_2_anchor_1、形状: b, 25, 43, 6 - アクションの信頼度

  5. 名前: ActionNet/action_heads/out_head_2_anchor_2、形状: b, 25, 43, 6 - アクションの信頼度

  6. 名前: ActionNet/action_heads/out_head_2_anchor_3、形状: b, 25, 43, 6 - アクションの信頼度

  7. 名前: ActionNet/action_heads/out_head_2_anchor_4、形状: b, 25, 43, 6 - アクションの信頼度

説明:

  • b - バッチサイズ

  • num_priors - SSD 形式の前の件数 (50x85x1+25x43x4=8550 に相当)

デモの使い方

Open Model Zoo が提供する次のデモでこのモデルを使用して、その機能を確認できます。