Récupérez les paramètres d’intégration ADAM avec la prise en charge du débogage.
Une opération qui récupère les paramètres d'optimisation de l'intégration dans la mémoire hôte. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour récupérer les paramètres mis à jour avant d'enregistrer un point de contrôle.
Classes imbriquées
classe | RécupérerTPUEmbeddingADAMParametersGradAccumDebug.Options | Attributs facultatifs pour RetrieveTPUEmbeddingADAMParametersGradAccumDebug |
Constantes
Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
statique RécupérerTPUEmbeddingADAMParametersGradAccumDebug.Options | config (configuration de chaîne) |
statique RécupérerTPUEmbeddingADAMParametersGradAccumDebug | créer ( Scope scope, Long numShards, Long shardId, Options... options) Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingADAMParametersGradAccumDebug. |
Sortie < TFloat32 > | gradientAccumulateurs () Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation ADAM. |
Sortie < TFloat32 > | moment () Moment de paramètre mis à jour par l’algorithme d’optimisation ADAM. |
Sortie < TFloat32 > | paramètres () Paramètres de paramètres mis à jour par l'algorithme d'optimisation ADAM. |
statique RécupérerTPUEmbeddingADAMParametersGradAccumDebug.Options | ID de table (ID de table longue) |
statique RécupérerTPUEmbeddingADAMParametersGradAccumDebug.Options | tableName (String tableName) |
Sortie < TFloat32 > | vitesses () Vitesses des paramètres mises à jour par l'algorithme d'optimisation ADAM. |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Méthodes publiques
configuration publique statique RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options (configuration de chaîne)
public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create ( Scope scope, Long numShards, Long shardId, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Paramètres
portée | portée actuelle |
---|---|
choix | porte des valeurs d'attributs facultatifs |
Retour
- une nouvelle instance de RetrieveTPUEmbeddingADAMParametersGradAccumDebug
Sortie publique < TFloat32 > gradientAccumulators ()
Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation ADAM.
Sortie publique < TFloat32 > momenta ()
Moment de paramètre mis à jour par l’algorithme d’optimisation ADAM.
Sortie publique < TFloat32 > paramètres ()
Paramètres de paramètres mis à jour par l'algorithme d'optimisation ADAM.