PyTorch F3Net モデルの変換

危険

ここで説明されているコードは非推奨になりました。従来のソリューションの適用を避けるため使用しないでください。下位互換性を確保するためにしばらく保持されますが、最新のアプリケーションでは使用してはなりません

このガイドでは、非推奨となった変換方法について説明します。新しい推奨方法に関するガイドは、Python チュートリアルに記載されています。

F3Net : Salient Object Detection のための融合、フィードバック、フォーカス

F3Net リポジトリーのクローン作成

リポジトリーのクローンを作成するには、次のコマンドを実行します。

git clone http://github.com/weijun88/F3Net.git

モデルをダウンロードして ONNX に変換

事前トレーニングされたモデルをダウンロードするか、モデルを自身でトレーニングするには、F3Net モデル・リポジトリーの手順を参照してください。最初に、モデルを ONNX 形式に変換します。モデル・リポジトリーの src ディレクトリーに次の Python スクリプトを作成して実行します。

import torch
from dataset import Config
from net import F3Net

cfg = Config(mode='test', snapshot=<path_to_checkpoint_dir>)
net = F3Net(cfg)
image = torch.zeros([1, 3, 352, 352])
torch.onnx.export(net, image, 'f3net.onnx', export_params=True, do_constant_folding=True, opset_version=11)

このスクリプトは ONNX モデルファイル f3net.onnx を生成します。モデル変換は commit-SHA: eecace3adf1e8946b571a4f4397681252f9dc1b8 を使用してテストされました。

ONNX F3Net モデルから IR への変換

mo --input_model <MODEL_DIR>/f3net.onnx