Aggiorna '*var' secondo lo schema Ftrl-prossimale.
grad_with_shrinkage = grad + 2 * l2_shrinkage * var accum_new = accum + grad * grad lineare += grad_with_shrinkage - (accum_new^(-lr_power) - accum^(-lr_power)) / lr * var quadratico = 1.0 / (accum_new^(lr_power) * lr) + 2 * l2 var = (segno(lineare) * l1 - lineare) / quadratico if |lineare| > l1 altrimenti 0.0 accum = accum_new
Classi nidificate
classe | ApplyFtrl.Options | Attributi facoltativi per ApplyFtrl |
Costanti
Corda | OP_NAME | Il nome di questa operazione, come noto al motore principale di TensorFlow |
Metodi pubblici
Uscita <T> | comeuscita () Restituisce l'handle simbolico del tensore. |
statico <T estende TType > ApplyFtrl <T> | create ( Ambito ambito , Operando <T> var, Operando <T> accum, Operando <T> linear, Operando <T> grad, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando <T > l2Ritiro, Operando <T> lrPower, Opzioni... opzioni) Metodo factory per creare una classe che racchiude una nuova operazione ApplyFtrl. |
ApplyFtrl.Options statico | moltiplicaLinearByLr (moltiplicazione booleanaLinearByLr) |
Uscita <T> | fuori () Uguale a "var". |
ApplyFtrl.Options statico | useLocking (useLocking booleano) |
Metodi ereditati
Costanti
Stringa finale statica pubblica OP_NAME
Il nome di questa operazione, come noto al motore principale di TensorFlow
Metodi pubblici
Uscita pubblica <T> asOutput ()
Restituisce l'handle simbolico del tensore.
Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.
public static ApplyFtrl <T> create ( Scope scope, Operando <T> var, Operando <T> accum, Operando <T> linear, Operando <T> grad, Operando <T> lr, Operando <T> l1, Operando <T > l2, Operando <T> l2Shrinkage, Operando <T> lrPower, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione ApplyFtrl.
Parametri
scopo | ambito attuale |
---|---|
var | Dovrebbe provenire da una variabile(). |
accu | Dovrebbe provenire da una variabile(). |
lineare | Dovrebbe provenire da una variabile(). |
grado | Il gradiente. |
lr | Fattore di scala. Deve essere uno scalare. |
l1 | Regolarizzazione L1. Deve essere uno scalare. |
l2 | Regolarizzazione del ritiro L2. Deve essere uno scalare. |
lrPower | Fattore di scala. Deve essere uno scalare. |
opzioni | trasporta valori di attributi opzionali |
ritorna
- una nuova istanza di ApplyFtrl
public static ApplyFtrl.Options useLocking (useLocking booleano)
Parametri
utilizzareBlocco | Se "Vero", l'aggiornamento dei tensori var e accum sarà protetto da un blocco; altrimenti il comportamento non è definito, ma può mostrare meno contesa. |
---|