ReLU

classe pubblica ReLU

Attivazione dell'Unità Lineare Rettificata (ReLU).

Con i valori predefiniti, restituisce l'attivazione ReLU standard: max(x, 0) , il massimo per elemento di 0 e il tensore di input.

La modifica dei parametri predefiniti consente di utilizzare soglie diverse da zero, modificare il valore massimo dell'attivazione e utilizzare un multiplo diverso da zero dell'ingresso per valori inferiori alla soglia.

Per esempio:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

Costanti

galleggiante ALFA_DEFAULT
galleggiante MAX_VALUE_DEFAULT
galleggiante SOGLIA_DEFAULT

Costruttori pubblici

ReLU (Ops tf)
Crea una nuova ReLU con alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , soglia= THRESHOLD_DEFAULT ,
ReLU (Ops tf, float alpha, float maxValue, soglia float)
Crea una nuova ReLU

Metodi pubblici

Operando <T>
chiamata (ingresso operando <T>)
Ottiene l'operazione di calcolo per l'attivazione.

Metodi ereditati

Costanti

float finale statico pubblico ALPHA_DEFAULT

Valore costante: 0,0

float finale statico pubblico MAX_VALUE_DEFAULT

Valore costante: NaN

float finale statico pubblico THREShold_DEFAULT

Valore costante: 0,0

Costruttori pubblici

ReLU pubblica (Ops tf)

Crea una nuova ReLU con alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , soglia= THRESHOLD_DEFAULT ,

Parametri
tf le operazioni TensorFlow

public ReLU (Ops tf, float alpha, float maxValue, soglia float)

Crea una nuova ReLU

Parametri
tf le operazioni TensorFlow
alfa governa la pendenza per valori inferiori alla soglia.
valore massimo imposta la soglia di saturazione (il valore più grande che la funzione restituirà).
soglia il valore soglia della funzione di attivazione al di sotto del quale i valori verranno smorzati o azzerati.

Metodi pubblici

Chiamata pubblica dell'operando <T> (ingresso dell'operando <T>)

Ottiene l'operazione di calcolo per l'attivazione.

Parametri
ingresso il tensore di ingresso
Ritorni
  • L'operando per l'attivazione