Actualice '*var' según el esquema adadelta.
acumulación = rho() * acumulación + (1 - rho()) * grad.square(); actualizar = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * graduado; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= actualizar;
Clases anidadas
clase | AplicarAdadelta.Opciones | Atributos opcionales para ApplyAdadelta |
Constantes
Cadena | OP_NOMBRE | El nombre de esta operación, como lo conoce el motor central de TensorFlow. |
Métodos públicos
Salida <T> | como salida () Devuelve el identificador simbólico del tensor. |
estático <T extiende TType > ApplyAdadelta <T> | |
Salida <T> | afuera () Igual que "var". |
Estático ApplyAdadelta.Options | useLocking (uso booleano Locking) |
Métodos heredados
Constantes
Cadena final estática pública OP_NAME
El nombre de esta operación, como lo conoce el motor central de TensorFlow.
Métodos públicos
Salida pública <T> como Salida ()
Devuelve el identificador simbólico del tensor.
Las entradas a las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.
public static ApplyAdadelta <T> create ( Alcance alcance, Operando <T> var, Operando <T> accum, Operando <T> accumUpdate, Operando <T> lr, Operando <T> rho, Operando <T> épsilon, Operando <T > grado, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ApplyAdadelta.
Parámetros
alcance | alcance actual |
---|---|
var | Debe ser de una Variable(). |
acumular | Debe ser de una Variable(). |
acumularActualización | Debe ser de una Variable(). |
lr | Factor de escala. Debe ser un escalar. |
rho | Factor de decadencia. Debe ser un escalar. |
épsilon | Factor constante. Debe ser un escalar. |
graduado | El gradiente. |
opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de ApplyAdadelta
estático público ApplyAdadelta.Options useLocking (useLocking booleano)
Parámetros
utilizarBloqueo | Si es Verdadero, la actualización de los tensores var, accum y update_accum estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención. |
---|