OpenVINO ワークフロー

OpenVINO は、ユースケースや個人またはプロジェクトの状況に応じて、複数のワークフローを提供します。このセクションでは、モデルの準備から最適化、推論の実行、ソリューションのデプロイに至るまでの手順を詳しく説明します。

サポートされているモデル形式のいずれかでモデルを取得したら、続行方法を決定できます。

このアプローチは、モデルを直接実行することを前提としています。

OpenVINO workflow diagram for convenience

このアプローチでは、モデルを OpenVINO IR に明示的に変換することを前提としています。つまり、変換ステージは最終アプリケーションの一部ではありません。

OpenVINO workflow diagram for performance

OpenVINO は、モデルの読み取り、変換、保存に次の関数を使用します。

  • ファイルから ov.Model を作成します。

  • サポートされるファイル形式: OpenVINO IR、ONNX、PaddlePaddle、TensorFlow および TensorFlow Lite。PyTorch ファイルは直接サポートされません。

  • OpenVINO ファイルは直接読み取られ、他の形式は自動的に変換されます。

  • ファイルまたは ov.Model オブジェクトから ov.CompiledModel を作成します。

  • サポートされるファイル形式: OpenVINO IR、ONNX、PaddlePaddle、TensorFlow および TensorFlow Lite。PyTorch ファイルは直接サポートされません。

  • OpenVINO ファイルは直接読み取られ、他の形式は自動的に変換されます。

  • ファイルまたは Python メモリー・オブジェクトから ov.Model を作成します。

  • サポートされるファイル形式: ONNX、PaddlePaddle、TensorFlow および TensorFlow Lite。

  • サポートされるフレームワーク・オブジェクト: PaddlePaddle、TensorFlow および PyTorch。

  • この方法は Python API でのみ使用できます。

  • ov.Model を OpenVINO IR 形式で保存します。

  • デフォルトで重みを FP16 に圧縮します。

  • この方法は Python API でのみ使用できます。

事前トレーニングされたモデルを OpenVINO IR に変換する方法を学びます。
トレーニング中の圧縮とトレーニング後の量子化の両方に複数の最適化手法を適用することで、より優れた推論パフォーマンスを達成するモデルの最適化方法を学びます。
デプロイメント、およびディープラーニング・モデルを実行する最も迅速な方法を確認できます。
モデルをローカルにデプロイし、アプリケーションからファイルを直接読み取り、システムで利用可能なリソースを利用します。
ローカルシステムへのデプロイでは、推論の実行セクションで説明されている手順を使用します。
モデルをリモートでデプロイし、アプリケーションを推論サーバーに接続し、外部リソースを利用します。アプリのパフォーマンスに影響を与えることはありません。
OpenVINO モデルサーバーへのデプロイは迅速であり、推論の実行セクションで説明されている追加の手順は必要ありません。
PyTorch ネイティブ・アプリケーションで OpenVINO を使用して PyTorch モデルをデプロイします。