Aggiorna le voci rilevanti in '*var' e '*accum' secondo lo schema adagrad.
Questo è per le righe per le quali abbiamo grad, aggiorniamo var e accum come segue: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
Classi nidificate
classe | SparseApplyAdagrad.Options | Attributi facoltativi per SparseApplyAdagrad |
Costanti
Corda | OP_NAME | Il nome di questa operazione, come noto al motore principale di TensorFlow |
Metodi pubblici
Uscita <T> | comeuscita () Restituisce l'handle simbolico del tensore. |
statico <T estende TType > SparseApplyAdagrad <T> | |
Uscita <T> | fuori () Uguale a "var". |
statico SparseApplyAdagrad.Options | updateSlots (aggiornamentoSlot booleani) |
statico SparseApplyAdagrad.Options | useLocking (useLocking booleano) |
Metodi ereditati
Costanti
Stringa finale statica pubblica OP_NAME
Il nome di questa operazione, come noto al motore principale di TensorFlow
Metodi pubblici
Uscita pubblica <T> asOutput ()
Restituisce l'handle simbolico del tensore.
Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.
public static SparseApplyAdagrad <T> create ( Scope scope, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Operando <? extends TNumber > indici, Opzioni ... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione SparseApplyAdagrad.
Parametri
portata | ambito attuale |
---|---|
var | Dovrebbe provenire da una variabile(). |
accu | Dovrebbe provenire da una variabile(). |
lr | Tasso di apprendimento. Deve essere uno scalare. |
epsilon | Fattore costante. Deve essere uno scalare. |
grado | Il gradiente. |
indici | Un vettore di indici nella prima dimensione di var e accum. |
opzioni | trasporta valori di attributi opzionali |
Ritorni
- una nuova istanza di SparseApplyAdagrad
public static SparseApplyAdagrad.Options useLocking (useLocking booleano)
Parametri
utilizzareBlocco | Se "Vero", l'aggiornamento dei tensori var e accum sarà protetto da un blocco; altrimenti il comportamento non è definito, ma può mostrare meno contesa. |
---|