Atualize '* var' de acordo com o esquema adadelta.
acum = rho () * acum + (1 - rho ()) * grad.square (); update = (update_accum + epsilon) .sqrt () * (acum + epsilon ()). rsqrt () * grad; update_accum = rho () * update_accum + (1 - rho ()) * update.square (); var - = atualização;
Classes aninhadas
classe | ResourceApplyAdadelta.Options | Atributos opcionais para ResourceApplyAdadelta |
Constantes
Fragmento | OP_NAME | O nome desta operação, conforme conhecido pelo motor principal TensorFlow |
Métodos Públicos
estática <T estende TType > ResourceApplyAdadelta | |
estáticos ResourceApplyAdadelta.Options | useLocking (booleano useLocking) |
Métodos herdados
Constantes
nome_op final String public static
O nome desta operação, conforme conhecido pelo motor principal TensorFlow
Métodos Públicos
public static ResourceApplyAdadelta criar ( Scope escopo, Operando <?> var, Operando <?> accum, Operando <?> accumUpdate, Operando <T> lr, Operando <T> ró, Operando <T> epsilon, Operando <T> grad, opções ... opções)
Método de fábrica para criar uma classe envolvendo uma nova operação ResourceApplyAdadelta.
Parâmetros
alcance | escopo atual |
---|---|
var | Deve ser de uma variável (). |
acum | Deve ser de uma variável (). |
acúmulo de atualização | Deve ser de uma variável (). |
lr | Fator de escala. Deve ser um escalar. |
rho | Fator de deterioração. Deve ser um escalar. |
épsilon | Fator constante. Deve ser um escalar. |
grad | O gradiente. |
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de ResourceApplyAdadelta
public static ResourceApplyAdadelta.Options useLocking (Boolean useLocking)
Parâmetros
useLocking | Se for True, a atualização dos tensores var ,ument e update_accum será protegida por uma trava; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção. |
---|