Selu#
バージョン名: Selu-1
カテゴリー: 活性化関数
簡単な説明: Selu は、スケーリングされた指数線形単位の要素ごとの活性化関数です。
詳細な説明
Selu 操作は、自己正規化ニューラル・ネットワーク (SNN) の活性化関数として記事で紹介されています。
Seluは、次の数式に基づいて、指定された入力テンソル data
に対して要素ごとの活性化関数を実行します:
ここで、α と λ はそれぞれ入力 alpha
と lambda
に対応します。
他の参考文献に記載されている別の数学的表現:
属性: Selu 操作には属性がありません。
入力
1:
data
。タイプ T の任意の形状のテンソル。必須。2:
alpha
。T タイプの 1 つの要素を持つ 1D テンソル。必須。3:
lambda
。T タイプの 1 つの要素を持つ 1D テンソル。必須。
出力
1:
data
入力テンソルに適用された要素ごとの Selu 関数の結果。タイプ T のテンソルで、data
入力テンソルと同じ形状です。
タイプ
T: サポートされている任意の浮動小数点タイプ。
例
<layer ... type="Selu">
<input>
<port id="0">
<dim>256</dim>
<dim>56</dim>
</port>
<port id="1">
<dim>1</dim>
</port>
<port id="2">
<dim>1</dim>
</port>
</input>
<output>
<port id="3">
<dim>256</dim>
<dim>56</dim>
</port>
</output>
</layer>