OpenVINO ワークフロー¶
OpenVINO は、ユースケースや個人またはプロジェクトの状況に応じて、複数のワークフローを提供します。このセクションでは、モデルの準備から最適化、推論の実行、ソリューションのデプロイに至るまでの手順を詳しく説明します。
サポートされているモデル形式のいずれかでモデルを取得したら、続行方法を決定できます。
このアプローチは、モデルを直接実行することを前提としています。
このアプローチでは、モデルを OpenVINO IR に明示的に変換することを前提としています。つまり、変換ステージは最終アプリケーションの一部ではありません。
OpenVINO は、モデルの読み取り、変換、保存に次の関数を使用します。
ファイルから ov.Model を作成します。
サポートされるファイル形式: OpenVINO IR、ONNX、PaddlePaddle、TensorFlow および TensorFlow Lite。PyTorch ファイルは直接サポートされません。
OpenVINO ファイルは直接読み取られ、他の形式は自動的に変換されます。
ファイルまたは ov.Model オブジェクトから ov.CompiledModel を作成します。
サポートされるファイル形式: OpenVINO IR、ONNX、PaddlePaddle、TensorFlow および TensorFlow Lite。PyTorch ファイルは直接サポートされません。
OpenVINO ファイルは直接読み取られ、他の形式は自動的に変換されます。
ファイルまたは Python メモリー・オブジェクトから ov.Model を作成します。
サポートされるファイル形式: ONNX、PaddlePaddle、TensorFlow および TensorFlow Lite。
サポートされるフレームワーク・オブジェクト: PaddlePaddle、TensorFlow および PyTorch。
この方法は Python API でのみ使用できます。
ov.Model を OpenVINO IR 形式で保存します。
デフォルトで重みを FP16 に圧縮します。
この方法は Python API でのみ使用できます。