Selu#

バージョン名: Selu-1

カテゴリー: 活性化関数

簡単な説明: Selu は、スケーリングされた指数線形単位の要素ごとの活性化関数です。

詳細な説明

Selu 操作は、自己正規化ニューラル・ネットワーク (SNN) の活性化関数として記事で紹介されています。

Seluは、次の数式に基づいて、指定された入力テンソル data に対して要素ごとの活性化関数を実行します:

Selu(x)=λ{xif x>0α(ex1)if x0

ここで、α と λ はそれぞれ入力 alphalambda に対応します。

他の参考文献に記載されている別の数学的表現:

Selu(x)=λ(max(0,x)+min(0,α(ex1)))

属性: Selu 操作には属性がありません。

入力

  • 1: data。タイプ T の任意の形状のテンソル。必須。

  • 2: alphaT タイプの 1 つの要素を持つ 1D テンソル。必須。

  • 3: lambdaT タイプの 1 つの要素を持つ 1D テンソル。必須。

出力

  • 1: data 入力テンソルに適用された要素ごとの Selu 関数の結果。タイプ T のテンソルで、data 入力テンソルと同じ形状です。

タイプ

  • T: サポートされている任意の浮動小数点タイプ。

 <layer ... type="Selu"> 
    <input> 
        <port id="0"> 
            <dim>256</dim> 
            <dim>56</dim> 
        </port> 
        <port id="1"> 
            <dim>1</dim> 
        </port> 
        <port id="2"> 
            <dim>1</dim> 
        </port> 
    </input> 
    <output> 
        <port id="3"> 
            <dim>256</dim> 
           <dim>56</dim> 
        </port> 
    </output> 
</layer>