[従来] ONNX モデルから変換

危険

ここで説明されているコードは非推奨になりました。従来のソリューションの適用を避けるため使用しないでください。下位互換性を確保するためにしばらく保持されますが、最新のアプリケーションでは使用してはなりません

このガイドでは、非推奨となった変換方法について説明します。新しい推奨方法に関するガイドは、ONNX モデルから変換の記事に記載されています。

ONNX モデルはフロントエンド API 経由でサポートされます。IR への変換をスキップし、OpenVINO ランタイム API によってモデルを直接読み取ることもできます。詳細については、推論の例を参照してください。モデルのプルーニングにおける新しいカスタム入力/出力、前処理の追加、または Python 変換拡張機能など、より複雑な場合でも、convert_model の使用が必要になります。

ONNX モデルから変換

モデルを変換するには、ONNX モデルをパブリック・リポジトリーから直接ダウンロードするか、ONNX 形式へのエクスポートをサポートするフレームワークから変換する必要があります。

ONNX モデルを変換するには、<INPUT_MODEL>.onnx ファイルへのパスを指定して convert_model() メソッドを実行します。

ov_model = convert_model("<INPUT_MODEL>.onnx")
compiled_model = core.compile_model(ov_model, "AUTO")

重要

convert_model() メソッドは、後で使用するため最適化、コンパイル、またはファイルに保存できる ov.Model を返します。

mo コマンドライン・ツールを使用して、モデルを IR に変換できます。取得された IR は、read_model() によって読み取られ、推論できます。

mo --input_model <INPUT_MODEL>.onnx

ONNX 固有のパラメーターはないため、モデルの変換にはフレームワークに依存しないパラメーターのみが使用できます。詳細については、モデルを中間表現 (IR) に変換するガイドの一般的な変換パラメーターセクションを参照してください。

サポートされる ONNX レイヤー

サポートされる標準レイヤーのリストについては、サポートされる操作を参照してください。

関連情報

特定の ONNX モデルを変換するための段階的な手順を提供するチュートリアルについては、モデル変換チュートリアルのページを参照してください。いくつかの例を示します。