Aggiorna '*var' secondo l'algoritmo di Adam.
$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{v_t} + \epsilon)$$
Classi nidificate
classe | ResourceApplyAdam.Options | Attributi facoltativi per ResourceApplyAdam |
Costanti
Corda | OP_NAME | Il nome di questa operazione, come noto al motore principale di TensorFlow |
Metodi pubblici
statico <T estende TType > ResourceApplyAdam | create ( Ambito ambito , Operando <?> var, Operando <?> m, Operando <?> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T > beta2, Operando <T> epsilon, Operando <T> grad, Opzioni... opzioni) Metodo factory per creare una classe che racchiude una nuova operazione ResourceApplyAdam. |
static ResourceApplyAdam.Options | useLocking (useLocking booleano) |
static ResourceApplyAdam.Options | useNesterov (uso booleanoNesterov) |
Metodi ereditati
Costanti
Stringa finale statica pubblica OP_NAME
Il nome di questa operazione, come noto al motore principale di TensorFlow
Metodi pubblici
public static ResourceApplyAdam create ( Ambito ambito , Operando <?> var, Operando <?> m, Operando <?> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T> beta2, Operando <T> epsilon, Operando <T> grad, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione ResourceApplyAdam.
Parametri
ambito | ambito attuale |
---|---|
var | Dovrebbe provenire da una variabile(). |
M | Dovrebbe provenire da una variabile(). |
v | Dovrebbe provenire da una variabile(). |
beta1Power | Deve essere uno scalare. |
beta2Power | Deve essere uno scalare. |
lr | Fattore di scala. Deve essere uno scalare. |
beta1 | Fattore di slancio. Deve essere uno scalare. |
beta2 | Fattore di slancio. Deve essere uno scalare. |
epsilon | Termine di cresta. Deve essere uno scalare. |
grado | Il gradiente. |
opzioni | trasporta valori di attributi opzionali |
Ritorni
- una nuova istanza di ResourceApplyAdam
public static ResourceApplyAdam.Options useLocking (useLocking booleano)
Parametri
utilizzareBlocco | Se "True", l'aggiornamento dei tensori var, m e v sarà protetto da un blocco; altrimenti il comportamento non è definito, ma può mostrare meno contesa. |
---|
public static ResourceApplyAdam.Options useNesterov (booleano useNesterov)
Parametri
utilizzare Nesterov | Se "True", utilizza l'aggiornamento nesterov. |
---|