single-human-pose-estimation-0001

ユースケースと概要説明

こちらに基づいた単一の人間の姿勢推定モデル。

仕様

メトリック

AP(coco orig)

69.04%

GFlops

60.125

MParams

33.165

ソース・フレームワーク

PyTorch*

入力

元のモデル

画像、名前: data、形状: 1, 3, 384, 288、形式: B, C, H, W

説明:

  • B - バッチサイズ

  • C - チャネル数

  • H - 画像の髙さ

  • W - 画像の幅

予想される色の順序は、RGB です。平均値: [123.675、116.28、103.53]平均値 - [58.395、57.12、57.375]

変換されたモデル

画像、名前: data、形状: 1, 3, 384, 288、形式: B, C, H, W

説明:

  • B - バッチサイズ

  • C - チャネル数

  • H - 画像の髙さ

  • W - 画像の幅

予想される色の順序: BGR

出力

元のモデル

最終出力はテンソルのリストです。リストの要素数は 6 です。形状を持つすべてのテンソル: 1, 17, 48, 36 (キーポイントごとに独自のヒートマップ)。トレーニング中の損失を計算するには、6 つの出力が必要です。ただし、将来的には、予測結果の取得と後処理のために、最後の出力が使用されます。次の各テンソルは、(コンテキスト・メトリック AP で) より正確な予測を提供します。

変換されたモデル

最終出力は、名前が heatmaps で形状が 1, 17, 48, 36 のテンソルです (キーポイントごとに独自のヒートマップ)。

モデルをダウンロードして OpenVINO™ IR 形式に変換

以下の例に示すように、モデルをダウンロードし、必要に応じてモデル・ダウンローダーやその他の自動化ツールによってモデルを OpenVINO™ IR 形式に変換できます。

モデル・ダウンローダーの使用例:

omz_downloader --name <model_name>

モデル・コンバーターの使用例:

omz_converter --name <model_name>

デモの使い方

Open Model Zoo が提供する次のデモでこのモデルを使用して、その機能を確認できます。