Actualice las entradas relevantes en '*var' y '*accum' según el esquema adagrad.
Eso es para las filas para las que tenemos graduación, actualizamos var y acumulamos de la siguiente manera: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
Clases anidadas
clase | SparseApplyAdagradV2.Opciones | Atributos opcionales para SparseApplyAdagradV2 |
Métodos públicos
Salida <T> | como salida () Devuelve el identificador simbólico de un tensor. |
estático <T, U extiende Número> SparseApplyAdagradV2 <T> | |
Salida <T> | fuera () Igual que "var". |
estática SparseApplyAdagradV2.Options | updateSlots (Booleano updateSlots) |
estática SparseApplyAdagradV2.Options | useLocking (booleano useLocking) |
Métodos Heredados
Métodos públicos
salida pública <T> como salida ()
Devuelve el identificador simbólico de un tensor.
Las entradas de las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.
public static SparseApplyAdagradV2 <T> create ( Scope scope, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Operando <U> índices, Opciones.. . opciones)
Método de fábrica para crear una clase que envuelve una nueva operación SparseApplyAdagradV2.
Parámetros
alcance | alcance actual |
---|---|
variable | Debe ser de una Variable(). |
acumular | Debe ser de una Variable(). |
yo | Tasa de aprendizaje. Debe ser un escalar. |
épsilon | Factor constante. Debe ser un escalar. |
graduado | el gradiente |
índices | Un vector de índices en la primera dimensión de var y accum. |
opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de SparseApplyAdagradV2
público estático SparseApplyAdagradV2.Options useLocking (booleano useLocking)
Parámetros
usarBloqueo | Si `True`, la actualización de los tensores var y accum estará protegida por un candado; de lo contrario, el comportamiento no está definido, pero puede exhibir menos contención. |
---|