ReLU

classe publique ReLU

Activation de l'unité linéaire rectifiée (ReLU).

Avec les valeurs par défaut, cela renvoie l'activation ReLU standard : max(x, 0) , le maximum par élément de 0 et le tenseur d'entrée.

La modification des paramètres par défaut vous permet d'utiliser des seuils non nuls, de modifier la valeur maximale de l'activation et d'utiliser un multiple non nul de l'entrée pour les valeurs inférieures au seuil.

Par exemple:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

Constantes

flotter ALPHA_DEFAULT
flotter MAX_VALUE_DEFAULT
flotter SEUIL_DEFAULT

Constructeurs Publics

ReLU (Ops tf)
Crée un nouveau ReLU avec alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , seuil= THRESHOLD_DEFAULT ,
ReLU (Ops tf, float alpha, float maxValue, seuil flottant)
Crée un nouveau ReLU

Méthodes publiques

Opérande <T>
appel (entrée opérande <T>)
Obtient l’opération de calcul pour l’activation.

Méthodes héritées

Constantes

public statique final float ALPHA_DEFAULT

Valeur constante : 0,0

public statique final float MAX_VALUE_DEFAULT

Valeur constante : NaN

public statique final float THRESHOLD_DEFAULT

Valeur constante : 0,0

Constructeurs Publics

public ReLU (Ops tf)

Crée un nouveau ReLU avec alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , seuil= THRESHOLD_DEFAULT ,

Paramètres
tf les opérations TensorFlow

public ReLU (Ops tf, float alpha, float maxValue, float seuil)

Crée un nouveau ReLU

Paramètres
tf les opérations TensorFlow
alpha régit la pente pour les valeurs inférieures au seuil.
valeurmax définit le seuil de saturation (la plus grande valeur que la fonction renverra).
seuil la valeur seuil de la fonction d'activation en dessous de laquelle les valeurs seront amorties ou remises à zéro.

Méthodes publiques

Appel d'opérande public <T> (entrée d'opérande <T>)

Obtient l’opération de calcul pour l’activation.

Paramètres
saisir le tenseur d'entrée
Retours
  • L'opérande d'activation