Unidade linear exponencial.
A unidade linear exponencial (ELU) com alpha > 0
é:
x
se x > 0
e alpha * (exp(x) - 1)
se x < 0
.
O hiperparâmetro ELU alpha
controla o valor para o qual uma ELU satura para entradas líquidas negativas. ELUs diminuem o efeito do gradiente de desaparecimento.
As ELUs possuem valores negativos, o que aproxima a média das ativações de zero. As ativações médias mais próximas de zero permitem um aprendizado mais rápido, pois aproximam o gradiente do gradiente natural. ELUs saturam para um valor negativo quando o argumento fica menor. Saturação significa uma pequena derivada que diminui a variação e a informação que é propagada para a próxima camada.
Exemplo de uso:
Operand<TFloat32> input = ...; ELU<TFloat32> elu = new ELU<>(tf, 2.0f); Operand<TFloat32> result = elu.call(input);
Construtores Públicos
ELU (operações tf) Cria uma nova ELU com alpha= ERROR(/#ALPHA_DEFAULT) . | |
ELU (Ops tf, alfa duplo) Cria uma nova ELU |
Métodos Públicos
Operando <T> |
Métodos herdados
Construtores Públicos
ELU pública (Ops tf)
Cria uma nova ELU com alpha= ERROR(/#ALPHA_DEFAULT)
.
Parâmetros
TF | as operações do TensorFlow |
---|
ELU público (Ops tf, alfa duplo)
Cria uma nova ELU
Parâmetros
TF | as operações do TensorFlow |
---|---|
alfa | Um escalar, inclinação de seção negativa. Ele controla o valor para o qual uma ELU satura para entradas líquidas negativas. |
Métodos Públicos
chamada de operando público <T> (entrada de operando <T>)
Obtém a operação de cálculo para a ativação.
Parâmetros
entrada | o tensor de entrada |
---|
Devoluções
- O operando para a ativação