用語集

頭字語と略語

略称

説明

API

アプリケーション・プログラミング・インターフェイス

AVX

アドバンスト・ベクトル・エクステンション

clDNN

ディープ・ニューラル・ネットワーク用の計算ライブラリー

CLI

コマンドライン・インターフェイス

CNN

畳み込みニューラル・ネットワーク

CPU

中央処理装置

CV

コンピューター・ビジョン

DL

ディープラーニング

DLL

動的リンク・ライブラリー

DNN

ディープ・ニューラル・ネットワーク

ELU

指数線形整流ユニット

FCN

完全畳み込みネットワーク

FP

浮動小数点

GCC

GNU* コンパイラー・コレクション

GPU

グラフィックス・プロセシング・ユニット

HD (High Definition)

高精度

IR

中間表現

JIT (Just In Time)

ジャストインタイム

JTAG (Joint Test Action Group)

共同テスト行動グループ

LPR (License-Plate Recognition)

ナンバープレートの認識

LRN

ローカル応答の正規化

mAP

評価指標 (Mean Average Precision)

インテル® OneDNN

インテル® oneAPI ディープ・ニューラル・ネットワーク・ライブラリー

mo

モデル変換用のコマンドライン・ツール、tools.mo.convert_model 用の CLI (従来)

MVN

平均分散の正規化 (Mean Variance Normalization)

NCDHW

画像数、チャネル、奥行き、高さ、幅

NCHW

画像数、チャネル、高さ、幅

NHWC

画像数、高さ、幅、チャネル

NMS (Non-Maximum Suppression)

非最大抑制

NN (Neural Network)

ニューラル・ネットワーク

NST (Neural Style Transfer)

ニューラルスタイル転送

OD (Object Detection)

物体検出

OS

オペレーティング・システム

ovc

OpenVINO モデルサーバー、モデル変換用のコマンドライン・ツール

PCI

周辺コンポーネント相互接続 (Peripheral Component Interconnect)

PReLU (Parametric Rectified Linear Unit)

パラメトリック整流リニアユニット

PSROI (Position Sensitive Region Of Interest)

位置依存の関心領域

RCNN、R-CNN (Region-based Convolutional Neural Network)

領域ベースの畳み込みニューラル・ネットワーク

ReLU

整流リニアユニット

ROI (Region Of Interest)

関心領域

SDK

ソフトウェア開発キット

SSD

シングルショット・マルチボックス検出器

SSE

ストリーミング SIMD 拡張機能

USB

ユニバーサル・シリアル・バス

VGG (Visual Geometry Group)

ビジュアル・ジオメトリー・グループ

VOC (Visual Object Classes)

ビジュアル・オブジェクト・クラス

WINAPI

Windows アプリケーション・プログラミング・インターフェイス

用語

用語には OpenVINO で使用される用語が含まれます。

バッチ
infer の 1 回の呼び出しで分析する画像の数。最大バッチサイズは、コンパイル前に設定されたモデルのプロパティーです。NHWC、NCHW、および NCDHW の画像データレイアウト表現では、‘N’ はバッチ内の画像数を指します。
デバイス・アフィニティー (Device Affinity)
推論を実行する推奨ハードウェア・デバイス (CPU、GPU、NPU など)。
拡張メカニズム、カスタムレイヤー
OpenVINO™ ランタイムとモデル変換 API を拡張して、サポートされていない操作を含むモデルを操作できるようにする機能を提供するメカニズム。
レイヤー/操作 (layer/operation)
OpenVINO では、両方の用語は同義的に扱われます。混乱を避けるために、“レイヤー” という用語は省略され、“オペレーション” という用語が現在受け入れられています。
モデル変換 API
変換 API は、一般的なフレームワークでトレーニングされたモデルをインポートし、他の OpenVINO コンポーネントで使用できる形式に変換するために使用されます。モデル変換 API は、Python の openvino.convert_model() メソッドと ovc コマンドライン・ツールによって表されます。
OpenVINO™ コア
OpenVINO™ コアは、特定のインテル® ハードウェア・デバイス (CPU、GPU、NPU など) での推論を管理するソフトウェア・コンポーネントです。
OpenVINO™ API
サポートされるすべてのデバイスのデフォルト API。これにより、中間表現からモデルをロードしたり、ONNX、PaddlePaddle、TensorFlow、TensorFlow Lite ファイル形式から変換したり、入出力形式を設定したり、さまざまなデバイスでモデルを実行したりできます。
OpenVINO™ ランタイム
アプリケーションで入力テンソルを推論し、結果を取得するために使用するクラスのセットを備えた C++ ライブラリー。
ov::Model
OpenVINO™ ランタイムが IR から読み取るか、ONNX、PaddlePaddle、TensorFlow、TensorFlow Lite 形式から変換するモデルのクラス。モデルの構造、重み、バイアスで構成されます。
ov::CompiledModel
OpenVINO™ ランタイムが (複数の) 推論要求を要求し、同期または非同期で推論を実行できるようにするコンパイル済みモデルのインスタンス。
ov::InferRequest
デバイスによってコンパイルされ、コンパイルされたモデルによって表されるモデル上の推論のエンドポイントを表すクラス。入力はここで設定され、出力もこのインターフェイスから要求される必要があります。
ov::ProfilingInfo
操作ごとの基本的な推論プロファイル情報を表します。
ov::Layout
画像データのレイアウトは、画像のバッチ表現を指します。レイアウトには、メモリー内の 4D または 5D テンソルデータのシーケンスが表示されます。一般的な NCHW 形式は、水平方向のピクセル、垂直方向の行、チャネルごとのプレーン、およびイメージをバッチで表します。[レイアウト API の概要] も参照してください。
ov::element::Type
データ要素のタイプを表します。例えば、f32 は 32 ビット浮動小数点、f16 は 16 ビット浮動小数点です。
プラグイン/推論デバイス/推論モード
OpenVINO では、いくつかのコア・コンポーネントに基づいてハードウェアを推論できるようになります。以前のバージョンのドキュメントでは “プラグイン” と呼ばれていましたが、一部の記事では今でもこの用語が使用されている場合があります。ソフトウェア内での役割のため、現在はデバイスとモード (“仮想” デバイス) と呼ばれています。概念の詳細については、推論デバイスとモードを参照してください。
Tensor
モデルの入力と出力、および操作の重みとバイアスを保存するメモリーコンテナ。