ResourceSparseApplyAdagradDa

classe finale publique ResourceSparseApplyAdagradDa

Mettez à jour les entrées dans « *var » et « *accum » selon le schéma adagrad proximal.

Classes imbriquées

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

statique <T étend TType > ResourceSparseApplyAdagradDa
créer ( Scope scope, Opérande <?> var, Opérande <?> gradientAccumulator, Opérande <?> gradientSquaredAccumulator, Opérande <T> grad, Opérande <? extends TNumber > indices, Opérande <T> lr, Opérande <T> l1, Opérande <T> l2, Opérande < TInt64 > globalStep, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération ResourceSparseApplyAdagradDa.
statique ResourceSparseApplyAdagradDa.Options
useLocking (booléen useLocking)

Méthodes héritées

org.tensorflow.op.RawOp
booléen final
est égal (Obj objet)
entier final
Opération
op ()
Renvoie cette unité de calcul sous la forme d'une seule Operation .
Chaîne finale
booléen
est égal à (Objet arg0)
Classe finale<?>
obtenirClasse ()
int
Code de hachage ()
vide final
notifier ()
vide final
notifierTous ()
Chaîne
àChaîne ()
vide final
attendre (long arg0, int arg1)
vide final
attendez (long arg0)
vide final
attendez ()
org.tensorflow.op.Op
résuméExécutionEnvironnement
env ()
Renvoie l'environnement d'exécution dans lequel cette opération a été créée.
opération abstraite
op ()
Renvoie cette unité de calcul sous la forme d'une seule Operation .

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : « ResourceSparseApplyAdagradDA »

Méthodes publiques

public static ResourceSparseApplyAdagradDa create ( Scope scope, Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <? extends TNumber > indices, Operand <T> lr, Operand <T> l1, Opérande <T> l2, Opérande < TInt64 > globalStep, Options... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération ResourceSparseApplyAdagradDa.

Paramètres
portée portée actuelle
var Doit provenir d'une variable ().
gradientAccumulateur Doit provenir d'une variable ().
gradientCarréAccumulateur Doit provenir d'une variable ().
diplômé Le dégradé.
indices Un vecteur d'indices dans la première dimension de var et cumul.
g / D Taux d'apprentissage. Ça doit être un scalaire.
l1 Régularisation L1. Ça doit être un scalaire.
l2 Régularisation L2. Ça doit être un scalaire.
étape globale Numéro d'étape de formation. Ça doit être un scalaire.
choix porte des valeurs d'attributs facultatifs
Retour
  • une nouvelle instance de ResourceSparseApplyAdagradDa

public statique ResourceSparseApplyAdagradDa.Options useLocking (booléen useLocking)

Paramètres
utiliserVerrouillage Si True, la mise à jour des tenseurs var et cumul sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits.