[従来] TensorFlow Lite モデルから変換

危険

ここで説明されているコードは非推奨になりました。従来のソリューションの適用を避けるため使用しないでください。下位互換性を確保するためにしばらく保持されますが、最新のアプリケーションでは使用してはなりません

このガイドでは、非推奨となった変換方法について説明します。新しい推奨方法に関するガイドは、TensorFlow Lite モデルから変換の記事に記載されています。

TensorFlow Lite モデルを変換するには、mo スクリプトを使用して、入力モデル .tflite ファイルへのパスを指定します。

mo --input_model <INPUT_MODEL>.tflite

TensorFlow Lite モデルはフロントエンド API 経由でサポートされます。IR への変換をスキップし、OpenVINO ランタイム API によってモデルを直接読み取ることもできます。詳細については、推論の例を参照してください。モデルのプルーニングにおける新しいカスタム入力/出力、前処理の追加、または Python 変換拡張機能など、より複雑な場合でも、convert_model の使用が必要になります。

重要

convert_model() メソッドは、後で使用するため最適化、コンパイル、またはファイルに保存できる ov.Model を返します。

サポートされる TensorFlow Lite レイヤー

サポートされる標準レイヤーのリストについては、サポートされる操作を参照してください。

サポートされる TensorFlow Lite モデル

公開されている TensorFlow Lite モデルの 80% 以上は、オープンソースの TensorFlow Hub および MediaPipe でサポートされています。サポートされていないモデルとして、カスタム TensorFlow Lite 操作があります。