googlenet-v3-pytorch

ユースケースと概要説明

Inception v3 は、ImageNet データセットで事前トレーニングされた画像分類モデルです。この PyTorch* アーキテクチャーの実装は、TorchVision パッケージのコンピューター・ビジョンのインセプション・アーキテクチャーの再考の論文で説明されています (こちらを参照)。

モデル入力は、RGB 順に 1, 3, 299, 299 の単一イメージで構成されるブロブです。

モデル出力は、ImageNet データベース内の分類と一致する 1000 の異なる分類の典型的なオブジェクト分類子です。

仕様

メトリック

タイプ

分類

GFLOPs

11.469

MParams

23.817

ソース・フレームワーク

PyTorch*

精度

メトリック

上位 1

77.69%

上位 5

93.7%

入力

元のモデル

画像、名前: data、形状: 1, 3, 299, 299、形式: B, C, H, W

説明:

  • B - バッチサイズ

  • C - チャネル数

  • H - 画像の髙さ

  • W - 画像の幅

予想される色の順序は、RGB です。平均値: [123.675, 116.28, 103.53]、スケール値: [58.395, 57.12, 57.375]

変換されたモデル

画像、名前: data、形状: 1, 3, 299, 299、形式: B, C, H, W

説明:

  • B - バッチサイズ

  • C - チャネル数

  • H - 画像の髙さ

  • W - 画像の幅

予想される色の順序は、BGR です。

出力

ImageNet クラスに基づくオブジェクト分類子、名前: prob、形状: 1, 1000、形式: B, C

説明:

  • B - バッチサイズ

  • C - ロジット形式の各クラスの確率ベクトル

モデルをダウンロードして OpenVINO™ IR 形式に変換

以下の例に示すように、モデルをダウンロードし、必要に応じてモデル・ダウンローダーやその他の自動化ツールによってモデルを OpenVINO™ IR 形式に変換できます。

モデル・ダウンローダーの使用例:

omz_downloader --name <model_name>

モデル・コンバーターの使用例:

omz_converter --name <model_name>

デモの使い方

Open Model Zoo が提供する次のデモでこのモデルを使用して、その機能を確認できます。