Elu#
バージョン名: Elu-1
カテゴリー: 活性化関数
簡単な説明: 指数線形単位の要素ごとの活性化関数。
詳細な説明
Elu の操作については、この記事で紹介されています。これは、次の数式に基づいて、指定された入力テンソルに対して要素ごとの活性化関数を実行します:
ここで、α は alpha 属性に対応します。
Elu は、alpha が 0 に等しい場合、ReLU 操作と同等です。
属性
alpha
説明: マイナス要因のスケール
値の範囲: 負でない任意の浮動小数点数
タイプ:
float
必須: はい
入力:
1: タイプ T の任意の形状のテンソル。必須。
出力:
1: 入力テンソルに適用された要素ごとの Elu 関数の結果。T タイプのテンソルで、入力テンソルと同じ形状です。
タイプ
T: サポートされている任意の浮動小数点タイプ。
例
<layer ... type="Elu">
<data alpha="1.0"/>
<input>
<port id="0">
<dim>1</dim>
<dim>128</dim>
</port>
</input>
<output>
<port id="1">
<dim>1</dim>
<dim>128</dim>
</port>
</output>
</layer>