classe finale publique ResourceApplyProximalGradientDescent
Mettez à jour '*var' en tant qu'algorithme FOBOS avec un taux d'apprentissage fixe.
prox_v = var - alpha delta var = signe(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
Classes imbriquées
classe | ResourceApplyProximalGradientDescent.Options | Attributs facultatifs pour ResourceApplyProximalGradientDescent |
Constantes
Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
statique <T étend TType > ResourceApplyProximalGradientDescent | |
statique ResourceApplyProximalGradientDescent.Options | useLocking (booléen useLocking) |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Valeur constante : "ResourceApplyProximalGradientDescent"
Méthodes publiques
public static ResourceApplyProximalGradientDescent create ( Scope scope, Operand <?> var, Operand <T> alpha, Operand <T> l1, Operand <T> l2, Operand <T> delta, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération ResourceApplyProximalGradientDescent.
Paramètres
portée | portée actuelle |
---|---|
var | Doit provenir d'une variable (). |
alpha | Facteur d'échelle. Ça doit être un scalaire. |
l1 | Régularisation L1. Ça doit être un scalaire. |
l2 | Régularisation L2. Ça doit être un scalaire. |
delta | Le changement. |
choix | porte des valeurs d'attributs facultatifs |
Retour
- une nouvelle instance de ResourceApplyProximalGradientDescent
public static ResourceApplyProximalGradientDescent.Options useLocking (booléen useLocking)
Paramètres
utiliserVerrouillage | Si True, la soustraction sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits. |
---|