ReLU

clase pública ReLU

Activación de Unidad Lineal Rectificada (ReLU).

Con los valores predeterminados, esto devuelve la activación ReLU estándar: max(x, 0) , el máximo por elementos de 0 y el tensor de entrada.

La modificación de los parámetros predeterminados le permite usar umbrales distintos de cero, cambiar el valor máximo de la activación y usar un múltiplo distinto de cero de la entrada para valores por debajo del umbral.

Por ejemplo:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

Constantes

flotar ALPHA_DEFAULT
flotar MAX_VALUE_DEFAULT
flotar UMBRAL_DEFAULT

Constructores Públicos

ReLU (Ops tf)
Crea un nuevo ReLU con alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , umbral= THRESHOLD_DEFAULT ,
ReLU (Ops tf, flotador alfa, flotante maxValue, umbral flotante)
Crea un nuevo ReLU

Métodos públicos

Operando <T>
llamada (entrada de operando <T>)
Obtiene la operación de cálculo para la activación.

Métodos heredados

Constantes

flotador final estático público ALPHA_DEFAULT

Valor constante: 0,0

flotador final estático público MAX_VALUE_DEFAULT

Valor constante: NaN

flotación final estática pública THRESHOLD_DEFAULT

Valor constante: 0,0

Constructores Públicos

ReLU pública (Ops tf)

Crea un nuevo ReLU con alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , umbral= THRESHOLD_DEFAULT ,

Parámetros
tf las operaciones de TensorFlow

ReLU público (Ops tf, alfa flotante, valor máximo flotante, umbral flotante)

Crea un nuevo ReLU

Parámetros
tf las operaciones de TensorFlow
alfa gobierna la pendiente para valores inferiores al umbral.
valormax establece el umbral de saturación (el valor más grande que devolverá la función).
límite el valor umbral de la función de activación por debajo del cual los valores se amortiguarán o se pondrán a cero.

Métodos públicos

Llamada pública de operando <T> (entrada de operando <T>)

Obtiene la operación de cálculo para la activación.

Parámetros
aporte el tensor de entrada
Devoluciones
  • El operando para la activación.