ONNX Faster R-CNN モデルの変換

危険

ここで説明されているコードは非推奨になりました。従来のソリューションの適用を避けるため使用しないでください。下位互換性を確保するためにしばらく保持されますが、最新のアプリケーションでは使用してはなりません

このガイドでは、非推奨となった変換方法について説明します。新しい推奨方法に関するガイドは、Python チュートリアルに記載されています。

以下の手順は、maskrcnn-benchmark model モデルから ONNX ファイル形式に変換された Faster R-CNN モデルにのみ適用されます。

  1. onnx/models から事前トレーニング済みモデルファイルをダウンロードします (commit-SHA: 8883e49e68de7b43e263d56b9ed156dfa1e03117)。

  2. 現在の作業ディレクトリーをモデル変換 API インストール・ディレクトリーに変更し、次のパラメーターを使用してモデル変換を実行して、モデルの中間表現を生成します。

    mo \
    --input_model FasterRCNN-10.onnx \
    --input_shape [1,3,800,800] \
    --input 0:2 \
    --mean_values [102.9801,115.9465,122.7717] \
    --transformations_config front/onnx/faster_rcnn.json
    

    input_shape コマンドライン・パラメーターで指定された高さと幅は異なる場合があることに注意してください。サポートされている入力画像のサイズと前後処理手順の詳細については、Faster R-CNN の記事を参照してください。

  3. 生成された IR の出力 (クラス・インデックス、確率、ボックス座標) を解釈します。以下は、DetectionOutput レイヤーからの出力です。

    • クラス・インデックス

    • 確率

    • ボックス座標