ELU

classe publique ELU

Unité linéaire exponentielle.

L'unité linéaire exponentielle (ELU) avec alpha > 0 est :

x si x > 0 et alpha * (exp(x) - 1) si x < 0 .

L'hyperparamètre ELU alpha contrôle la valeur à laquelle une ELU sature pour les entrées nettes négatives. Les ELU diminuent l'effet de gradient de disparition.

Les ELU ont des valeurs négatives, ce qui rapproche la moyenne des activations de zéro. Les activations moyennes plus proches de zéro permettent un apprentissage plus rapide car elles rapprochent le gradient du gradient naturel. Les ELU saturent jusqu'à une valeur négative lorsque l'argument devient plus petit. La saturation signifie une petite dérivée qui diminue la variation et les informations propagées à la couche suivante.

Exemple d'utilisation :

     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 

Constructeurs Publics

ELU (Ops tf)
Crée un nouvel ELU avec alpha= ERROR(/#ALPHA_DEFAULT) .
ELU (Ops tf, double alpha)
Crée une nouvelle ELU

Méthodes publiques

Opérande <T>
appel (entrée opérande <T>)
Obtient l’opération de calcul pour l’activation.

Méthodes héritées

Constructeurs Publics

ELU publique (Ops tf)

Crée un nouvel ELU avec alpha= ERROR(/#ALPHA_DEFAULT) .

Paramètres
tf les opérations TensorFlow

ELU publique (Ops tf, double alpha)

Crée une nouvelle ELU

Paramètres
tf les opérations TensorFlow
alpha Une pente scalaire de section négative. Il contrôle la valeur à laquelle une ELU sature pour les entrées nettes négatives.

Méthodes publiques

Appel d'opérande public <T> (entrée d'opérande <T>)

Obtient l’opération de calcul pour l’activation.

Paramètres
saisir le tenseur d'entrée
Retours
  • L'opérande d'activation