クラス
アクティベーション<T extends TNumber > | アクティベーションの抽象基本クラス 注: |
ELU <T extends TFloating > | 指数線形単位。 |
指数関数<T extends TFloating > | 指数関数的活性化関数。 |
HardSigmoid <T extends TFloating > | ハード シグモイド アクティベーション。 |
線形<U はTNumberを拡張 > | リニアアクティベーション機能(パススルー)。 |
ReLU <T はTNumberを拡張 > | Rectified Linear Unit(ReLU)のアクティベーション。 |
SELU <T extends TFloating > | スケーリングされた指数線形単位 (SELU)。 |
シグモイド<T extends TFloating > | シグモイドの活性化。 |
ソフトマックス<T extends TFloating > | Softmax は、実数ベクトルをカテゴリ確率のベクトルに変換します。 |
ソフトプラス<T extends TFloating > | Softplus アクティベーション関数、 softplus(x) = log(exp(x) + 1) 。 |
ソフトサイン<T extends TFloating > | Softsign アクティベーション関数、 softsign(x) = x / (abs(x) + 1) 。 |
Swish <T extends TFloating > | スウィッシュ起動機能。 |
Tanh <T extends TFloating > | 双曲線正接活性化関数。 |