ReLU

klasa publiczna ReLU

Aktywacja rektyfikowanej jednostki liniowej (ReLU).

Przy wartościach domyślnych zwraca to standardową aktywację ReLU: max(x, 0) , maksimum elementu wynoszące 0 i tensor wejściowy.

Modyfikowanie parametrów domyślnych pozwala na użycie niezerowych progów, zmianę maksymalnej wartości aktywacji oraz użycie niezerowej wielokrotności wejścia dla wartości poniżej progu.

Na przykład:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

Stałe

platforma ALPHA_DEFAULT
platforma MAX_VALUE_DEFAULT
platforma THRESHOLD_DEFAULT

Konstruktorzy publiczni

ReLU (Ops tf)
Tworzy nową ReLU z alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , próg= THRESHOLD_DEFAULT ,
ReLU (Ops tf, float alfa, float maxValue, próg float)
Tworzy nowy ReLU

Metody publiczne

Argument <T>
wywołanie (wejście argumentu <T>)
Pobiera operację obliczeniową dla aktywacji.

Metody dziedziczone

Stałe

publiczny statyczny końcowy float ALPHA_DEFAULT

Wartość stała: 0,0

publiczny statyczny końcowy float MAX_VALUE_DEFAULT

Wartość stała: NaN

publiczny statyczny końcowy float THRESHOLD_DEFAULT

Wartość stała: 0,0

Konstruktorzy publiczni

publiczne ReLU (Ops tf)

Tworzy nową ReLU z alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , próg= THRESHOLD_DEFAULT ,

Parametry
tf operacji TensorFlow

public ReLU (Ops tf, float alfa, float maxValue, próg float)

Tworzy nowy ReLU

Parametry
tf operacji TensorFlow
alfa reguluje nachylenie dla wartości mniejszych od progu.
maksymalna wartość ustawia próg nasycenia (największa wartość, jaką funkcja zwróci).
próg wartość progowa funkcji aktywacji, poniżej której wartości będą tłumione lub ustawiane na zero.

Metody publiczne

publiczne wywołanie argumentu <T> (wejście argumentu <T>)

Pobiera operację obliczeniową dla aktywacji.

Parametry
wejście tensor wejściowy
Powroty
  • Operand aktywacji