Unité linéaire exponentielle.
L'unité linéaire exponentielle (ELU) avec alpha > 0
est :
x
si x > 0
et alpha * (exp(x) - 1)
si x < 0
.
L'hyperparamètre ELU alpha
contrôle la valeur à laquelle une ELU sature pour les entrées nettes négatives. Les ELU diminuent l'effet de gradient de disparition.
Les ELU ont des valeurs négatives, ce qui rapproche la moyenne des activations de zéro. Les activations moyennes plus proches de zéro permettent un apprentissage plus rapide car elles rapprochent le gradient du gradient naturel. Les ELU saturent jusqu'à une valeur négative lorsque l'argument devient plus petit. La saturation signifie une petite dérivée qui diminue la variation et les informations propagées à la couche suivante.
Exemple d'utilisation :
Operand<TFloat32> input = ...; ELU<TFloat32> elu = new ELU<>(tf, 2.0f); Operand<TFloat32> result = elu.call(input);
Constructeurs Publics
ELU (Ops tf) Crée un nouvel ELU avec alpha= ERROR(/#ALPHA_DEFAULT) . | |
ELU (Ops tf, double alpha) Crée une nouvelle ELU |
Méthodes publiques
Opérande <T> |
Méthodes héritées
Constructeurs Publics
ELU publique (Ops tf)
Crée un nouvel ELU avec alpha= ERROR(/#ALPHA_DEFAULT)
.
Paramètres
tf | les opérations TensorFlow |
---|
ELU publique (Ops tf, double alpha)
Crée une nouvelle ELU
Paramètres
tf | les opérations TensorFlow |
---|---|
alpha | Une pente scalaire de section négative. Il contrôle la valeur à laquelle une ELU sature pour les entrées nettes négatives. |
Méthodes publiques
Appel d'opérande public <T> (entrée d'opérande <T>)
Obtient l’opération de calcul pour l’activation.
Paramètres
saisir | le tenseur d'entrée |
---|
Retours
- L'opérande d'activation