ポストプロセッサー¶
ポストプロセッサーは、モデル推論の後、メトリック計算の前に、予測データやアノテーション・データを処理するクラスです。アダプターとは異なり、ポストプロセッサーは生のモデル出力では動作せず、特定の表現形式で動作します。(例: クリップボックスのポストプロセッサーは、処理のため検出アノテーションと検出予測を期待します)。
表現コンテナの表現を複雑に使用する場合は、設定ファイルにオプション annotation_source
と prediction_source
を追加できます。特定の表現のみを処理したい場合は、別の方法でポストプロセッサーがすべての適切な表現に使用されます。annotation_source
および prediction_source
には、それぞれアノテーション識別子と出力レイヤー名のカンマ区切りのリストが含まれている必要があります。
すべてのポストプロセッサーには、構成に使用できるパラメーターがあります。ポストプロセッサーとパラメーターは、構成ファイルを通じて設定されます。ポストプロセッサーは、特定のポストプロセッサーを使用するため構成ファイルの datasets
セクションで提供されます。
サポートされるポストプロセッサー¶
精度チェッカーは、次の一連のポストプロセッサーをサポートしています。
-
cast_to_int
- キャスト検出境界ボックスの座標を浮動小数点形式で整数に指定します。サポートされる表現:DetectionAnotation
、DetectionPrediction
、TextDetectionAnnotation
、TextDetectionPrediction
。round_policy
- 丸めの方法:nearest
、greater
、lower
、nearest_to_zero
。
-
clip_boxes
- クリッピング検出境界ボックスのサイズ。サポートされる表現:DetectionAnotation
、DetectionPrediction
。dst_width
およびdst_height
- それぞれボックスクリッピングのデスティネーションの幅と高さ。ティネーションのサイズが等しい場合は、代わりにsize
を使用することもできます。指定しない場合は、画像サイズが使用されます。apply_to
- 処理のターゲットボックスを決定するオプション (グラウンド・トゥルース・ボックスのannotation
と検出結果のprediction
、all
は両方)。bboxes_normalized
は、ターゲット境界ボックスが正規化された形式であることを示すフラグです。
normalize_boxes
- グラウンドトゥルース検出境界ボックスの正規化 (範囲 [0, 1] にキャスト)。サポートされる表現:DetectionAnotation
、DetectionPrediction
、ActionDetectionAnotation
、ActionDetectionPrediction
-
correct_yolo_v2_boxes
- Yolo v2 に固有のアプローチを使用した検出予測 bbox 座標のサイズ変更。サポートされる表現:DetectionAnotation
、DetectionPrediction
。dst_width
およびdst_height
- それぞれデスティネーションの幅と高さ。ティネーションのサイズが等しい場合は、代わりにsize
を使用することもできます。
-
resize_prediction_boxes
- 画像サイズに応じて正規化された検出予測ボックスのサイズを変更します。サポートされる表現:DetectionAnotation
、DetectionPrediction
。rescale
このオプションが有効な場合、元の入力サイズを乗算する前に、入力サイズのボックスの再スケーリングが行われます。(オプションであり、デフォルトはFalse
)。unpadding
このオプションが有効な場合、元の入力サイズを乗算する前に、追加のパディングを削除するためボックス正規化座標の再計算が行われます。(オプションであり、デフォルトはFalse
)。uncrop
このオプションが有効な場合、正規化された座標を元の画像サイズに変換する際に、max_square
トリミング効果が削除されます。(オプションであり、デフォルトはFalse
)。
-
faster_rcnn_postprocessing_resize
- 前処理ステップの前に、元の画像サイズに従って正規化された検出予測ボックスのサイズを変更します。サポートされる表現:DetectionAnotation
、DetectionPrediction
。現時点では、次の場合にのみ機能します。前処理ステップには、入力画像サイズを変更する操作が 1 つだけ含まれており、その操作は
resize
前処理ステップには、入力画像サイズを変更する操作が 2 つだけ含まれており、その操作は
resize
とpadding
です。
rescale
このオプションが有効な場合、後処理を適用する前に入力サイズのボックスの再スケーリングが実行されます (オプションで、デフォルトはFalse
です)。
-
nms
- 非最大抑制サポートされる表現:DetectionAnotation
、DetectionPrediction
、ActionDetectionAnnotation
、ActionDetectionPrediction
。overlap
- マージ検出の重複しきい値。use_min_area
- オーバーラップを計算するベース領域として 2 つの境界ボックスの最小領域を使用するかを決定するブール値。
class_aware_nms
- クラス認識の非最大抑制。nms として表され、特定のクラスに属するボックスに個別に適用されます。サポートされる表現とパラメーターはnms
の場合と同一です。-
diou_nms
- 距離 IoU の非最大値の抑制。サポートされる表現:DetectionAnotation
、DetectionPrediction
、ActionDetectionAnnotation
、ActionDetectionPrediction
。overlap
- マージ検出の重複しきい値。
-
soft_nms
- ソフトな非最大抑制。サポートされる表現:DetectionAnotation
、DetectionPrediction
、ActionDetectionAnnotation
、ActionDetectionPrediction
。keep_top_k
- 保持する必要がある検出の最大数。sigma
- 更新された検出スコア計算のシグマ値。min_score
- ブレークポイント。
-
weighted_nms
- 重み付けされた非最大抑制。サポートされる表現:DetectionAnotation
、DetectionPrediction
。overlap
- マージ検出の重複しきい値。
-
filter
- さまざまなパラメーターを使用してデータをフィルタリングします。サポートされる表現:DetectionAnotation
、DetectionPrediction
。apply_to
- 処理のターゲットボックスを決定すします (グラウンド・トゥルース・ボックスのannotation
と検出結果のprediction
、all
は両方)。remove_filtered
- フィルタリングされたデータを削除します。アノテーションによって、デフォルトとしてフィルタリングされたデータを削除せずに無視できます。それ以外では、フィルタリングされたデータは自動的に削除されます。-
フィルタリングでサポートされているパラメーター:
labels
、min_confidence
、height_range
、width_range
、is_empty
、min_visibility
、aspect_ratio
、area_ratio
、area_range
。height_range
、width_range
によるフィルタリングは、TextDetectionAnnotation
、TextDetectionPrediction
、area_range
(PoseEstimationAnnotation
、PoseEstimationPrediction
およびTextDetectionAnnotation
、TextDetectionPrediction
) でも使用できます。
-
normalize_landmarks_points
- グラウンド・トゥルース・ランドマーク・ポイントの正規化。サポートされる表現:FacialLandmarksAnnotation
、FacialLandmarksPrediction
。use_annotation_rect
- ソース画像サイズの代わりに、ポイント・スケーリングにアノテーションのメタデータに保存されている四角形サイズを使用できるようにします。
-
encode_segmentation_mask
- セグメント化ラベルイメージをセグメント化マスクとしてエンコードします。サポートされる表現:SegmentationAnotation
、SegmentationPrediction
。-
apply_to
- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。注: この後処理には、特定のデータセット・メタ (アノテーションの場合はsegmentation_colors
、予測の場合はprediction_to_gt_labels
) が必要です。
-
-
resize_segmentation_mask
- セグメント化マスクのサイズを変更します。サポートされる表現:SegmentationAnotation
、SegmentationPrediction
、BackgroundMattingAnnotation
、BackgroundMattingPrediction
、SalientRegionAnnotation
、SalientRegionPrediction
、AnomalySegmentationAnnotation
、AnomalySegmentationPrediction
。-
dst_width
とdst_height
はそれぞれ、サイズ変更のデスティネーションの幅と高さです。ティネーションのサイズが等しい場合は、代わりにsize
を使用することもできます。最終入力サイズにパディングなしでサイズ変更するには、to_dst_image_size
フラグにTrue
で使用します。これらのパラメーターが指定されていない場合、元の画像サイズがデフォルトになります。 apply_to
- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。
-
-
extend_segmentation_mask
- アノテーション・セグメント化マスクを予測されたマスクサイズに拡張して、境界を特定の値で埋めます。サポートされる表現:SegmentationAnotation
、SegmentationPrediction
。filling_label
- 境界線を埋める値 (デフォルトは 255)。pad_type
- パディングスペースの位置。サポートされる位置:center
、left_top
、right_bottom
(デフォルトはcenter
)。
-
zoom_segmentation_mask
- ズームのセグメント化マスク。サポートされる表現:SegmentationAnotation
、SegmentationPrediction
。zoom
- ズーム操作時のサイズ。
-
crop_segmentation_mask
- 2-D、3-D アノテーション・マスクのトリミング。サポートされる表現:BrainTumorSegmentationAnnotation
、BrainTumorSegmentationPrediction
、SegmentationAnnotation
、SegmentationPrediction
。-
dst_width
、dst_height
とdst_volume
はそれぞれ、トリミングされた 3D 画像の出力先の幅、高さ、ボリュームです。ティネーションのサイズが 3 つの次元すべてで等しい場合は、size
を使用することもできます。
-
-
crop_or_pad-segmentation_mask
- 元の画像のマスクサイズがデスティネーションのサイズより大きい場合は中央のトリミングを行い、ソースのサイズがデスティネーションより小さい場合はパディングを行います。パディング値は 0、現実化は右下です。dst_width
とdst_height
はそれぞれ、キーポイントのサイズ変更のデスティネーションの幅と高さです。ティネーションのサイズが等しい場合は、代わりにsize
を使用することもできます。サポートされる表現:SegmentationAnotation
、SegmentationPrediction
。
crop_padded_prediction
- 元の画像がパディングされている場合は、パディングサイズに合わせてトリミングを行います。サポートされる表現:SegmentationAnotation
、SegmentationPrediction
。heatmap2keypoints
- ヒートマップからランドマークのキーポイントを抽出します。サポートされる表現:FacialLandmarksHeatMapAnnotation
、FacialLandmarksHeatMapPrediction
。-
clip_segmentation_mask
- セグメント化マスク値をクリッピングします。サポートされる表現:BrainTumorSegmentationAnnotation
、BrainTumorSegmentationPrediction
。min_value
- 範囲の下限。max_value
- 範囲の上限。
-
segmentation_prediction_resample
- 出力予測を 2 つのステップでリサンプリングします。1) 境界ボックスのサイズに合わせてサイズを変更します。2) アノテーション・サイズまで拡張します。サポートされる表現:BrainTumorSegmentationAnnotation
、BrainTumorSegmentationPrediction
。正しい境界ボックスのサイズを設定するには、brats_numpy
コンバーターまたはcrop_brats
プリプロセッサーのboxes_file
タグを使用する必要があります。make_argmax
- リサンプリング後に argmax 操作を予測マスクに適用します (デフォルトではFalse
)。オプションmake_argmax
を 1 つだけ指定します。
-
transform_brats_prediction
- 予測をWT-TC-ET
形式からNCR/NET-ED-ET
に変換します。各予測チャネルからのしきい値 (しきい値は0.5
) を超える要素の値を、指定された順序で 1 チャネルマスクに順次埋め込みます。order
- チャネルの入力順序を指定しますvalues
- 新しい順序に従って各チャネルの値を指定します
-
remove_brats_prediction_padding
- 出力予測を 2 つのステップで処理します。1) パディングを削除。2) 注釈サイズまで拡張。サポートされる表現:BrainTumorSegmentationAnnotation
、BrainTumorSegmentationPrediction
。make_argmax
- argmax 操作を予測マスクに適用します (デフォルトはFalse
)。
-
extract_answers_tokens
- アノテーション・テキストから予測されたトークンのシーケンスを抽出します。サポートされる表現:QuestionAnsweringAnnotation
、QuestionAnsweringPrediction
。max_answer
- 回答の最大長 (オプション、デフォルト値は 30)。n_best_size
- 回答に対する n ベスト予測サイズの合計数 (オプション、デフォルト値は 20)。v2_with_no_answers
- ブール値。true の場合、SQuADv2 データセットが使用されていることを示しますが、いくつかの質問には回答できません。no_answer_score_threshold
- このしきい値を下回ると、SQuADv2 予測は無視されます (回答のない予測)。
bidaf_extract_answers_tokens
- アノテーション・テキストから予測されたトークンのシーケンスを抽出します。サポートされる表現:QuestionAnsweringBiDAFAnnotation
、QuestionAnsweringPrediction
。translate_3d_poses
- 3D ポーズを変換します。サポートされる表現:PoseEstimation3dAnnotation
、PoseEstimation3dPrediction
。予測された各ポーズの 3D 座標を、対応する移動ベクトル上でシフトします。-
resize_super_resolution
- 超解像予測画像のリサイズ。サポートされる表現:SuperResolutionAnotation
、SuperResolutionPrediction
。-
dst_width
とdst_height
はそれぞれ、サイズ変更のデスティネーションの幅と高さです。ティネーションのサイズが等しい場合は、代わりにsize
を使用することもできます。これらのパラメーターのいずれも指定されていない場合は、高解像度の画像サイズがデフォルトとして使用されます。target
- サイズ変更のターゲット画像を選択 (予測またはアノテーション)
-
-
resize_style_transfer
- スタイル転送予測画像のサイズ変更。サポートされる表現:StyleTransferAnotation
、StyleTransferPrediction
。dst_width
とdst_height
はそれぞれ、サイズ変更のデスティネーションの幅と高さです。
crop_image
- 画像のトリミング。サポートされる表現:ImageInpaintingAnnotation
、ImageInpaintingPrediction
、ImageProcessingAnnotation
、ImageProcessingPrediction
。-
corner_crop_image
- 画像の隅をトリミングします。サポートされる表現:ImageInpaintingAnnotation
、ImageInpaintingPrediction
、ImageProcessingAnnotation
、ImageProcessingPrediction
。dst_width
とdst_height
はデスティネーションの幅と高さです。-
corner_type
はクロップのタイプです。設定可能なオプションは次のとおりです。top-left
top-right
bottom-left
-
bottom-right
デフォルトの選択はtop-left
-
resize
- 画像またはセグメント化マスクのサイズを変更します。サポートされる表現:SegmentationAnotation
、SegmentationPrediction
、StyleTransferAnotation
、StyleTransferPrediction
、SuperResolutionAnotation
、SuperResolutionPrediction
、ImageProcessingAnnotation
、ImageProcessingPrediction
、SalientRegionAnnotation
、SalientRegionPrediction
、BackgroundMattingAnnotation
、BackgroundMattingPrediction
、AnomalySegmentationAnnotation
、AnomalySegmentationPrediction
。-
dst_width
とdst_height
はそれぞれ、サイズ変更のデスティネーションの幅と高さです。ティネーションのサイズが等しい場合は、代わりにsize
を使用することもできます。これらのパラメーターが指定されていない場合、画像サイズはデフォルトになります。 apply_to
- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。resize_realization
- パラメーターは、サイズ変更に使用するライブラリーの機能を指定します:opencv
またはpillow
(デフォルトはpillow
です)。opencv
ライブラリーは次の表現でサポートされています:StyleTransferAnnotation
、StyleTransferPrediction
,SuperResolutionAnnotation
、SuperResolutionPrediction
、ImageProcessingAnnotation
、ImageProcessingPrediction
、ImageInpaintingAnnotation
、ImageInpaintingPrediction
。
-
rgb_to_gray
- RGB 形式で保存された参照データをグレースケールに変換します。サポートされる表現:SuperResolutionAnnotation
、SuperResolutionPrediction
、ImageProcessingAnnotation
、ImageProcessingPrediction
、StyleTransferAnnotation
、StyleTransferPrediction
。bgr_to_gray
- BGR 形式で保存された参照データをグレースケールに変換します。サポートされる表現:SuperResolutionAnnotation
、SuperResolutionPrediction
、ImageProcessingAnnotation
、ImageProcessingPrediction
、StyleTransferAnnotation
、StyleTransferPrediction
。remove_repeats
- 繰り返される予測トークンを削除します。サポートされる表現:MachineTranslationPrediction
、MachineTranslationAnnotation
。to_lower_case
- トークンを小文字に変換します。サポートされる表現:MachineTranslationPrediction
、MachineTranslationAnnotation
。-
sr_image_recovery
- 入力を YCrCb 形式に復元し、予測グレーチャネルと入力 Cr および Cb チャネルを使用して、予測を BRG または RGB 形式に変換します。サポートされる表現:SuperResolutionPrediction
。target_color
- 超解像度画像のターゲット色空間 -bgr
およびrgb
がサポートされています。(オプションであり、デフォルトはrgb
)。size
- YCrCb 画像を復元するモデル入力のサイズ。dst_width
とdst_height
- YCrCb 画像を復元するモデル入力の幅と高さ。
colorization_recovery
- LAB 色空間で AB チャネルとして表現されるカラー化モデルの結果から BGR 画像を復元します。サポートされる表現:ImageProcessingAnnotation
、ImageProcessingPrediction
。argmax_segmentation_mask
- カテゴリー・アノテーションのセグメント化マスクを数値に変換します。サポートされる表現:SegmentationAnnotation
、SegmentationPrediction
。-
shift_labels
- 予測された検出ラベルをシフトします。サポートされる表現:DetectionPrediction
。offset
- シフトの値。
normalize_salience_map
- 参照顕著性マップを [0, 255] の範囲から [0, 1] の範囲に変換します。サポートされる表現:SalientRegionAnnotation
、SalientRegionPrediction
。-
min_max_normalization
- 指定された最小値と最大値から回帰データを [0, 1] に正規化します。サポートされる表現:FeatureRegressionAnnotation
、RegressionAnnotation
、RegressionPrediction
min
- 範囲内の最小値、オプション、デフォルトは 0。max
- 範囲の最小値。apply_to
- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。
pad_signal
- 入力データが左パディングされた場合は、基準信号に左パディングを追加します。サポートされる表現:NoiseSuppressionAnnotation
、NoiseSuppressionPrediction
。time_series_denormalize
- 予測曲線とグランドトゥルース曲線に非正規化を適用します。サポートされる表現:TimeSeriesForecastingAnnotation
、TimeSeriesForecastingQuantilesPrediction
。-
interpolation
- 値をターゲット範囲に補間します。サポートされる表現:ImageProcessingPrediction
、ImageProcessingAnnotation
。mode
- 補間モード。現在は、linear
モードのみが利用できます。(オプション、デフォルトはlinear
です)target_min
- ターゲット範囲の最小値。(オプション、デフォルト値は 0)target_max
- ターゲット範囲の最大値。(オプション、デフォルト値は 255)as_log
- ソース値の対数スケールで動作します。(オプション、デフォルト値は False)
-
invert_mask
- セグメント化または背景マットマスクを反転します。サポートされる表現:SegmentationAnnotation
、SegmentationPrediction
、BackgroundMattingAnnotation
、BackgroundMattingPrediction
。apply_to
- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。
-
rescale_mask
指定されたmin
値とmax
値を持つようにマスクデータ範囲を再スケールします。サポートされる表現:BackgroundMattingAnnotation
、BackgroundMattingPrediction
。apply_to
- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。min
- 範囲内の最小値、オプション、デフォルトは 0。max
- 範囲内の最大値。
-
sentence_similarity_pooling
- 文の類似性タスクの単語の埋め込みをプールします。サポートされる表現:SentenceSimilarityAnnotation
、ReidentificationPrediction
。pooling type
- 埋め込みのプーリングタイプ - 平均プーリングの場合はmean
、最大プーリングの場合はmax
(オプション、デフォルトはmean
)。remove_padding
- 単語埋め込みから文字列の末尾のパディングを削除します (オプション、デフォルトはTrue
)。
hand_landmarks
- 手のランドマーク座標をソース画像の座標空間に変換します。サポートされる表現:HandLandmarksPrediction
。