従来の機能とコンポーネント#
OpenVINO は近年急速に成長しているため、機能やコンポーネントの多くは他のソリューションに置き換えられています。機能は完全に廃止される前に、OpenVINO ユーザーがプロジェクトを調整するのに十分な時間を確保できるように、一部はサポートされています。
このセクションでは主な変更点と、現在の OpenVINO 製品で最高のエクスペリエンスと結果を得る方法を説明します。
OpenVINO 開発ツールパッケージ
新しいソリューション: OpenVINO ランタイムには、サポートされるすべてのコンポーネントが含まれています
古いソリューション: OpenVINO 2025.0 で廃止予定
OpenVINO 開発ツールは、モデル・トランスフォーメーション API、ベンチマーク・ツール、精度チェッカー、アノテーション・コンバーター、トレーニング後の最適化ツール、Open Model Zoo ツールなど、モデルに対して高度な操作を行うツールを備えた OpenVINO パッケージでした。これらのツールのほとんどは廃止されるか、他のソリューションに置き換えられて OpenVINO ランタイムパッケージに移行されます。
モデル・オプティマイザー / トランスフォーメーション API
新しいソリューション: 直接モデルのサポートと OpenVINO コンバーター (OVC)
古いソリューション: 従来のトランスフォーメーション API は OpenVINO 2025.0 で廃止が予定されています
すべての主要なモデル・フレームワークが直接サポートされるようになり、モデル・オプティマイザーとその後のトランスフォーメーション API の役割は大幅に減少しました。モデルファイルを明示的に変換するため、より軽量で効率的なソリューションである OpenVINO コンバーター (OpenVINO 2023.1 から) に置き換えられました。
Open Model ZOO
新しいソリューション: ユーザーはパブリック・モデル・リポジトリーを使用することが推奨されます
古いソリューション: OpenVINO 2025.0 で廃止予定
Open Model Zoo は、OpenVINO で使用するために準備されたモデルのコレクションと、プロセスの自動化を可能にする小規模なツールセットを提供してきました。ツールの大部分が別のソリューションに置き換えられ、いくつかのモデル・リポジトリーのサイズとアクセス数が増大したため、Open Model Zoo は維持されなくなります。完全に削除されるまでは、そのリソースを引き続き使用できます。
公開モデル・データベースに関しては、Hugging Face が OpenVINO 推奨モデルのソースとなっています。
マルチデバイス実行
新しいソリューション: 自動デバイス選択
古いソリューション: 従来のマルチデバイス実行は OpenVINO 2025.0 で廃止が予定されています
マルチデバイス実行モードの動作と結果は、自動デバイス選択の
CUMULATIVE_THROUGHPUT
オプションによってカバーされます。唯一の違いは、CUMULATIVE_THROUGHPUT
は AUTO で指定されたデバイスを使用するため、手動でデバイスを追加するのは必須ではありませんが、MULTI では推論の前にデバイスを指定する必要があることです。廃止:#
Apache MXNet、Caffe、および Kaldi モデル形式
新しいソリューション: 外部ツールによる ONNX への変換
古いソリューション: OpenVINO 2024.0 でモデルのサポートが終了しました
トレーニング後の最適化ツール (POT)
新しいソリューション: ニューラル・ネットワーク圧縮フレームワーク (NNCF) は、同じ機能を提供するようになりました
古いソリューション: POT は OpenVINO 2024.0 で廃止されました
推論 API 1.0
新しいソリューション: API 2.0 は OpenVINO 2022.1 でサポートが開始されました
古いソリューション: OpenVINO 2024.0 で廃止されました
コンパイルツール
新しいソリューション: ツールはもはや必要ありません
古いソリューション: OpenVINO 2023.0 で廃止されました
特定のデバイス上で推論モデルをコンパイルする必要がある場合、次のスクリプトを使用します:
import openvino as ov core = ov.Core() compiled_model = core.compile_model(model_path, device, properties) output_stream = compiled_model.export_model()ov::Core core; ov::CompiledModel model = core.compile_model("modelPath", "deviceName"); std::fstream stream("compiled_model.blob"); model.export_model(stream);
TensorFlow 統合 (OVTF)
新しいソリューション: 直接モデルのサポートと OpenVINO コンバーター (OVC)
古いソリューション: OpenVINO 2023.0 で廃止されました
OpenVINO は、明示的なモデル変換を必要としないネイティブ TensorFlow をサポートしています。