classe finale publique ResourceApplyProximalAdagrad
Mettez à jour '*var' et '*accum' selon FOBOS avec le taux d'apprentissage d'Adagrad.
accumulation += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}
Classes imbriquées
classe | ResourceApplyProximalAdagrad.Options | Attributs facultatifs pour ResourceApplyProximalAdagrad |
Constantes
Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
statique <T étend TType > ResourceApplyProximalAdagrad | |
statique ResourceApplyProximalAdagrad.Options | useLocking (booléen useLocking) |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Valeur constante : "ResourceApplyProximalAdagrad"
Méthodes publiques
public static ResourceApplyProximalAdagrad create ( Scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération ResourceApplyProximalAdagrad.
Paramètres
portée | portée actuelle |
---|---|
var | Doit provenir d'une variable (). |
cumuler | Doit provenir d'une variable (). |
g / D | Facteur d'échelle. Ça doit être un scalaire. |
l1 | Régularisation L1. Ça doit être un scalaire. |
l2 | Régularisation L2. Ça doit être un scalaire. |
diplômé | Le dégradé. |
choix | porte des valeurs d'attributs facultatifs |
Retour
- une nouvelle instance de ResourceApplyProximalAdagrad
public static ResourceApplyProximalAdagrad.Options useLocking (booléen useLocking)
Paramètres
utiliserVerrouillage | Si True, la mise à jour des tenseurs var et cumul sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits. |
---|