przepływ tensorowy:: ops:: Selu
#include <nn_ops.h>
Oblicza skalowane wykładniczo liniowo: scale * alpha * (exp(features) - 1)
Streszczenie
jeśli < 0, scale * features
inaczej.
Do użycia razem z `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN') . For correct dropout, use
tf.contrib.nn.alpha_dropout`.
Zobacz Samonormalizujące się sieci neuronowe
Argumenty:
- zakres: Obiekt Scope
Zwroty:
-
Output
: Tensor aktywacji.
Konstruktory i destruktory | |
---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
Atrybuty publiczne | |
---|---|
activations | |
operation |
Funkcje publiczne | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
Atrybuty publiczne
aktywacje
::tensorflow::Output activations
działanie
Operation operation
Funkcje publiczne
Selu
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
węzeł
::tensorflow::Node * node() const
operator::tensorflow::Wejście
operator::tensorflow::Input() const
operator::tensorflow::Wyjście
operator::tensorflow::Output() const