TensorFlow Lite モデルから変換

TensorFlow Lite モデルを変換するには、入力モデル .tflite ファイルへのパスを引数として変換を行います。

import openvino as ov
ov.convert_model('your_model_file.tflite')
ovc your_model_file.tflite

TensorFlow Lite モデルは、最初に OpenVINO IR を準備しなくても、OpenVINO ランタイム API による openvino.Core.read_model メソッドまたは openvino.Core.compile_model メソッドによってロードできます。詳細については、推論の例を参照してください。モデルの読み込みレイテンシーが推論アプリケーションにとって重要である場合は、引き続き openvino.convert_model を使用することを推奨します。

サポートされる TensorFlow Lite レイヤー

サポートされる標準レイヤーのリストについては、サポートされる操作を参照してください。

サポートされる TensorFlow Lite モデル

公開されている TensorFlow Lite モデルの 80% 以上は、オープンソースの TensorFlow Hub および MediaPipe でサポートされています。サポートされていないモデルとして、カスタム TensorFlow Lite オペレーションがあります。