human-pose-estimation-0007#

ユースケースと概要説明#

これは、EfficientHRNet アプローチ (Associative Embedding フレームワークに従う) に基づく複数の人物の 2D 姿勢推定ネットワークです。画像内のすべての人物について、ネットワークはポーズ、つまりキーポイントとキーポイント間の接続で構成される体の骨格を検出します。ポーズには、ears、eyes、nose、shoulders、elbows、wrists、hips、knees、ankles (耳、目、鼻、肩、肘、手首、腰、膝、足首) など、最大 17 個のキーポイントを含めることができます。

#

仕様#

メトリック

平均精度 (AP)

54.3%

GFlops

14.3253

MParams

8.1506

ソース・フレームワーク

PyTorch*

COCO キーポイント評価サイトで説明されている平均精度メトリック。

入力#

画像、名前: image、形状: 1, 3, 448, 448、形式: B, C, H, W、ここで:

  • B - バッチサイズ

  • C - チャネル数

  • H - 画像の髙さ

  • W - 画像の幅

予想される色の順序は BGR です。

出力#

最終出力は 2 つのブロブです:

  1. すべてのタイプのキーポイントの位置ヒートマップを含む形状 1, 17, 224, 224ヒートマップ。非最大抑制アルゴリズムによって除外された位置には、否定値が割り当てられています。

  2. 形状 1, 17, 224, 224, 1埋め込みには、個々のキーポイントをポーズにグループ化する連想埋め込み値が含まれています。

デモの使い方#

このモデルは、Open Model Zoo が提供する次のデモで使用して、その機能を示します: