OpenVINO について

OpenVINO は、さまざまなディープラーニング・モデルをシンプルかつ効率的に導入するためのツールキットです。このセクションでは、製品と、製品がサポートするソフトウェアおよびハードウェア・ソリューションに関する情報が記載されています。

OpenVINO (Open Visual Inference and Neural network Optimization) は、ユーザー・アプリケーションのディープラーニング・モデルを最適化、高速化、デプロイするように設計されたオープンソース・ソフトウェア・ツールキットです。OpenVINO は、CPU (x86 および Arm)、GPU、NPU など幅広いインテルのハードウェア・プラットフォームで効率良く動作するようにインテルによって開発されました。

機能

OpenVINO の主な目的の 1 つは、ユーザー・アプリケーションにおけるディープラーニング・モデルの導入を合理化することです。モデルの推論を最適化および高速化します。これは、生成 AI、大規模言語モデル、オブジェクト検出、分類、セグメント化などのユースケースでは重要です。

  • モデル最適化

    OpenVINO は、大規模言語モデルの重み圧縮や最適化インテル Optimum と Hugging Face の統合など、トレーニング・ステージとトレーニング後のステージの両方で複数の最適化メソッドを提供します。

  • モデル変換とフレームワークの互換性

    サポートされているモデルは、直接ロードすることも、OpenVINO 形式に変換してパフォーマンスを向上することもできます。サポートされるフレームワークには、ONNX、PyTorch、TensorFlow、TensorFlow Lite、Keras、PaddlePaddle が含まれます。

  • モデル推論

    OpenVINO は、さまざまなハードウェア・プラットフォーム上でディープラーニング・モデルを加速し、リアルタイムでの効率的な推論を保証します。

  • サーバーへのデプロイ

    モデルは、OpenVINO ランタイムを使用してローカルにデプロイすることも、モデルサーバーにデプロイすることもできます。ランタイムは、C および Python バインディングを備えた C++ ライブラリーのセットであり、共通 API によって推論ソリューションを提供します。モデルサーバーにより、外部リソースを使用した迅速なモデル推論が可能です。

アーキテクチャー

OpenVINO がどのように機能するか理解するには、アーキテクチャーコア・コンポーネントに関する開発者向けドキュメントを参照してください。

OpenVINO エコシステム

ツールキットには、モデルの最適化とランタイムの主要コンポーネントに加えて、以下も含まれています。

コミュニティー

OpenVINO コミュニティーは、オープンソースのツールキットの成長と開発において重要な役割を果たしています。ユーザーは、次のチャネルにアクセスして OpenVINO に貢献し、サポートを受けることができます。

ケーススタディー

OpenVINO は、ヘルスケア、小売、安全性とセキュリティー、輸送など、幅広い業界やアプリケーションなど、さまざまなケーススタディーで採用されています。OpenVINO がさまざまな分野で効率、精度、安全性をどのように強化するかについては、成功事例のページをご覧ください。