TensorFlow Lite モデルの変換#
Kaggle または Hugging Face から TensorFlow Lite モデルをダウンロードできます。モデルを変換するには、入力モデル .tflite
ファイルへのパスを引数として変換を行います:
import openvino as ov
ov.convert_model('your_model_file.tflite')
ovc your_model_file.tflite
注
TensorFlow Lite モデルは、最初に OpenVINO IR を準備しなくても、OpenVINO ランタイム API による openvino.Core.read_model
メソッドまたは openvino.Core.compile_model
メソッドによってロードできます。詳細については、推論の例を参照してください。モデルの読み込みレイテンシーが推論アプリケーションにとって重要である場合は、引き続き openvino.convert_model
を使用することを推奨します。
サポートされる TensorFlow Lite レイヤー#
サポートされる標準レイヤーのリストについては、サポートされる操作を参照してください。
サポートされる TensorFlow Lite モデル#
公開されている TensorFlow Lite モデルの 80% 以上は、オープンソースの Kaggle および MediaPipe でサポートされています。サポートされていないモデルとして、カスタム TensorFlow Lite 操作があります。