Funzione di attivazione swish. swish(x) = x * sigmoid(x)
.
Funzione di attivazione swish che restituisce x*sigmoid(x)
. È una funzione fluida e non monotona che corrisponde o supera costantemente ReLU
su reti profonde, è illimitata sopra e limitata sotto.
Esempio di utilizzo:
Operand<TFloat32> input = tf.constant(new float[] {-20, -1.0, 0.0, 1.0, 20}); Swish<TFloat32> swish = new Swish<>(tf); Operand<TFloat32> result = swish.call(input); // result = [-4.1223075e-08f, -2.6894143e-01f, 0.0000000e+00f, // 7.3105860e-01f, 2.0000000e+01f ]
Vedi anche
Costruttori pubblici
Swish (Ops tf) Crea un'attivazione Swish, swish(x) = x * sigmoid(x) . |
Metodi pubblici
Operando <T> |
Metodi ereditati
Costruttori pubblici
Swish pubblico (Ops tf)
Crea un'attivazione Swish, swish(x) = x * sigmoid(x)
.
Funzione di attivazione swish che restituisce x*sigmoid(x)
. È una funzione fluida e non monotona che corrisponde o supera costantemente ReLU su reti profonde, è illimitata sopra e limitata sotto.
Parametri
tf | le operazioni TensorFlow |
---|
Metodi pubblici
Chiamata pubblica dell'operando <T> (ingresso dell'operando <T>)
Ottiene l'operazione di calcolo per l'attivazione.
Parametri
ingresso | il tensore di ingresso |
---|
Ritorni
- L'operando per l'attivazione