Récupérez les paramètres d’intégration proximaux d’Adagrad avec la prise en charge du débogage.
Une opération qui récupère les paramètres d'optimisation de l'intégration dans la mémoire hôte. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour récupérer les paramètres mis à jour avant d'enregistrer un point de contrôle.
Classes imbriquées
classe | RécupérerTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | Attributs facultatifs pour RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug |
Constantes
Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
Sortie < TFloat32 > | accumulateurs () Accumulateurs de paramètres mis à jour par l’algorithme d’optimisation proximal d’Adagrad. |
statique RécupérerTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | config (configuration de chaîne) |
statique RécupérerTPUEmbeddingProximalAdagradParametersGradAccumDebug | créer ( Scope scope, Long numShards, Long shardId, Options... options) Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug. |
Sortie < TFloat32 > | gradientAccumulateurs () Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation proximal d'Adagrad. |
Sortie < TFloat32 > | paramètres () Paramètres paramétriques mis à jour par l'algorithme d'optimisation proximal d'Adagrad. |
statique RécupérerTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | ID de table (ID de table longue) |
statique RécupérerTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | tableName (String tableName) |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Méthodes publiques
sortie publique < TFloat32 > accumulateurs ()
Accumulateurs de paramètres mis à jour par l’algorithme d’optimisation proximal d’Adagrad.
configuration publique statique RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options (configuration de chaîne)
public static RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug créer ( Scope scope, Long numShards, Long shardId, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug.
Paramètres
portée | portée actuelle |
---|---|
choix | porte des valeurs d'attributs facultatifs |
Retour
- une nouvelle instance de RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug
Sortie publique < TFloat32 > gradientAccumulators ()
Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation proximal d'Adagrad.
Sortie publique < TFloat32 > paramètres ()
Paramètres paramétriques mis à jour par l'algorithme d'optimisation proximal d'Adagrad.