Recupera i parametri di incorporamento di ADAM con il supporto per il debug.
Un'operazione che recupera i parametri di ottimizzazione dall'incorporamento nella memoria dell'host. Deve essere preceduto da un'operazione ConfigureTPUEmbeddingHost che imposta la corretta configurazione della tabella di incorporamento. Ad esempio, questa operazione viene utilizzata per recuperare parametri aggiornati prima di salvare un checkpoint.
Classi nidificate
classe | RecuperaTPUEmbeddingADAMParametersGradAccumDebug.Options | Attributi facoltativi per RetrieveTPUEmbeddingADAMParametersGradAccumDebug |
Costanti
Corda | OP_NAME | Il nome di questa operazione, come noto al motore principale di TensorFlow |
Metodi pubblici
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | configurazione (configurazione stringa) |
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug | crea (ambito ambito , numShards lunghi, shardId lungo, Opzioni... opzioni) Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingADAMParametersGradAccumDebug. |
Uscita < TFloat32 > | gradientAccumulatori () Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione ADAM. |
Uscita < TFloat32 > | momento () Momento dei parametri aggiornato dall'algoritmo di ottimizzazione ADAM. |
Uscita < TFloat32 > | parametri () Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione ADAM. |
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId (Tabella lunga) |
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | tableName (Stringa tableName) |
Uscita < TFloat32 > | velocità () Velocità dei parametri aggiornate dall'algoritmo di ottimizzazione ADAM. |
Metodi ereditati
Costanti
Stringa finale statica pubblica OP_NAME
Il nome di questa operazione, come noto al motore principale di TensorFlow
Metodi pubblici
configurazione public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options (configurazione stringa)
public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create (ambito ambito , numShards lunghi, shardId lungo, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Parametri
scopo | ambito attuale |
---|---|
opzioni | trasporta valori di attributi opzionali |
ritorna
- una nuova istanza di RetrieveTPUEmbeddingADAMParametersGradAccumDebug
Output pubblico < TFloat32 > gradientAccumulatori ()
Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione ADAM.
uscita pubblica < TFloat32 > momenta ()
Momento dei parametri aggiornato dall'algoritmo di ottimizzazione ADAM.
parametri di output pubblico < TFloat32 > ()
Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione ADAM.