GELU#

バージョン名: Gelu-2

カテゴリー: 活性化関数

簡単な説明: ガウス誤差線形単位の要素ごとの活性化関数。

詳細な説明

Gelu の操作については、この記事で紹介されています。これは、次の数式に基づいて、指定された入力テンソルに対して要素ごとの活性化関数を実行します:

Gelu(x)=xΦ(x)=x12[1+erfx2]

ここで、Φ(x) はガウス分布の累積分布関数です。

さらに、Gelu 関数は次のように近似できます:

Gelu(x)0.5x(1+tanh[2/π(x+0.044715x3)])

属性: Gelu 操作には属性がありません。

入力:

  • 1: タイプ T の任意の形状のテンソル。必須。

出力:

  • 1: 入力テンソルに適用された要素ごとの Gelu 関数の結果。T タイプのテンソルで、入力テンソルと同じ形状です。

タイプ

  • T: サポートされている任意の浮動小数点タイプ。

<layer ... type="Gelu"> 
    <input> 
        <port id="0"> 
            <dim>1</dim> 
            <dim>128</dim> 
        </port> 
    </input> 
    <output> 
        <port id="1"> 
            <dim>1</dim> 
            <dim>128</dim> 
        </port> 
    </output> 
</layer>