TensorFlow Lite モデルから変換¶
TensorFlow Lite モデルを変換するには、入力モデル .tflite
ファイルへのパスを引数として変換を行います。
import openvino as ov
ov.convert_model('your_model_file.tflite')
ovc your_model_file.tflite
注
TensorFlow Lite モデルは、最初に OpenVINO IR を準備しなくても、OpenVINO ランタイム API による openvino.Core.read_model
メソッドまたは openvino.Core.compile_model
メソッドによってロードできます。詳細については、推論の例を参照してください。モデルの読み込みレイテンシーが推論アプリケーションにとって重要である場合は、引き続き openvino.convert_model
を使用することを推奨します。
サポートされる TensorFlow Lite モデル¶
公開されている TensorFlow Lite モデルの 80% 以上は、オープンソースの TensorFlow Hub および MediaPipe でサポートされています。サポートされていないモデルとして、カスタム TensorFlow Lite オペレーションがあります。