ResourceApplyProximalAdagrad

clase final pública ResourceApplyProximalAdagrad

Actualice '*var' y '*accum' según FOBOS con la tasa de aprendizaje de Adagrad.

accum += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var = signo(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}

Clases anidadas

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

estático <T extiende TType > ResourceApplyProximalAdagrad
crear (alcance alcance , operando <?> var, operando <?> accum, operando <T> lr, operando <T> l1, operando <T> l2, operando <T> grad, opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyProximalAdagrad.
ResourceApplyProximalAdagrad.Options estático
useLocking (uso booleano Locking)

Métodos heredados

org.tensorflow.op.RawOp
booleano final
es igual (Objeto obj)
entero final
Operación
operación ()
Devuelve esta unidad de cálculo como una única Operation .
cadena final
booleano
es igual (Objeto arg0)
Clase final<?>
obtenerclase ()
En t
código hash ()
vacío final
notificar ()
vacío final
notificar a todos ()
Cadena
Encadenar ()
vacío final
esperar (arg0 largo, int arg1)
vacío final
espera (arg0 largo)
vacío final
esperar ()
org.tensorflow.op.Op
entorno de ejecución abstracto
entorno ()
Devuelve el entorno de ejecución en el que se creó esta operación.
operación abstracta
operación ()
Devuelve esta unidad de cálculo como una única Operation .

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "ResourceApplyProximalAdagrad"

Métodos públicos

creación pública estática de ResourceApplyProximalAdagrad (alcance alcance , operando <?> var, operando <?> accum, operando <T> lr, operando <T> l1, operando <T> l2, operando <T> grad, opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyProximalAdagrad.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
acumular Debe ser de una Variable().
lr Factor de escala. Debe ser un escalar.
l1 Regularización L1. Debe ser un escalar.
l2 Regularización L2. Debe ser un escalar.
graduado El gradiente.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceApplyProximalAdagrad

ResourceApplyProximalAdagrad.Options estático público useLocking (useLocking booleano)

Parámetros
utilizarBloqueo Si es Verdadero, la actualización de los tensores var y accum estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.