Mettez à jour '*var' selon le schéma adadelta.
cumul = rho() * cumul + (1 - rho()) * grad.square(); update = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= mise à jour ;
Classes imbriquées
classe | ResourceApplyAdadelta.Options | Attributs facultatifs pour ResourceApplyAdadelta |
Constantes
Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
statique <T étend TType > ResourceApplyAdadelta | |
statique ResourceApplyAdadelta.Options | useLocking (booléen useLocking) |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Méthodes publiques
public static ResourceApplyAdadelta create ( Scope scope, Operand <?> var, Operand <?> accum, Operand <?> accumUpdate, Operand <T> lr, Operand <T> rho, Operand <T> epsilon, Operand <T> grad, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération ResourceApplyAdadelta.
Paramètres
portée | portée actuelle |
---|---|
var | Doit provenir d'une variable (). |
cumuler | Doit provenir d'une variable (). |
cumulMise à jour | Doit provenir d'une variable (). |
g / D | Facteur d'échelle. Ça doit être un scalaire. |
rho | Facteur de décomposition. Ça doit être un scalaire. |
épsilon | Facteur constant. Ça doit être un scalaire. |
diplômé | Le dégradé. |
choix | porte des valeurs d'attributs facultatifs |
Retour
- une nouvelle instance de ResourceApplyAdadelta
public statique ResourceApplyAdadelta.Options useLocking (booléen useLocking)
Paramètres
utiliserVerrouillage | Si True, la mise à jour des tenseurs var, accum et update_accum sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits. |
---|