[従来] TensorFlow Lite モデルから変換¶
危険
ここで説明されているコードは非推奨になりました。従来のソリューションの適用を避けるため使用しないでください。下位互換性を確保するためにしばらく保持されますが、最新のアプリケーションでは使用してはなりません。
このガイドでは、非推奨となった変換方法について説明します。新しい推奨方法に関するガイドは、TensorFlow Lite モデルから変換の記事に記載されています。
TensorFlow Lite モデルを変換するには、mo
スクリプトを使用して、入力モデル .tflite
ファイルへのパスを指定します。
mo --input_model <INPUT_MODEL>.tflite
TensorFlow Lite モデルはフロントエンド API 経由でサポートされます。IR への変換をスキップし、OpenVINO ランタイム API によってモデルを直接読み取ることもできます。詳細については、推論の例を参照してください。モデルのプルーニングにおける新しいカスタム入力/出力、前処理の追加、または Python 変換拡張機能など、より複雑な場合でも、convert_model
の使用が必要になります。
重要
convert_model()
メソッドは、後で使用するため最適化、コンパイル、またはファイルに保存できる ov.Model
を返します。
サポートされる TensorFlow Lite モデル¶
公開されている TensorFlow Lite モデルの 80% 以上は、オープンソースの TensorFlow Hub および MediaPipe でサポートされています。サポートされていないモデルとして、カスタム TensorFlow Lite 操作があります。