flujo tensor:: operaciones:: Selu
#include <nn_ops.h>
Calcula lineal exponencial escalado: scale * alpha * (exp(features) - 1)
Resumen
si < 0, scale * features
en caso contrario.
Para usar junto con `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN') . For correct dropout, use
tf.contrib.nn.alpha_dropout`.
Ver redes neuronales autonormalizadas
Argumentos:
- alcance: un objeto de alcance
Devoluciones:
-
Output
: El tensor de activaciones.
Constructores y destructores | |
---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
Atributos públicos | |
---|---|
activations | |
operation |
Funciones públicas | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
Atributos públicos
activaciones
::tensorflow::Output activations
operación
Operation operation
Funciones públicas
Selu
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
nodo
::tensorflow::Node * node() const
operador::tensorflow::Entrada
operator::tensorflow::Input() const
operador::tensorflow::Salida
operator::tensorflow::Output() const