Recuperar parâmetros de incorporação do ADAM com suporte para depuração.
Uma operação que recupera parâmetros de otimização da incorporação na memória do host. Deve ser precedido por uma operação ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.
Classes aninhadas
aula | RecuperarTPUEmbeddingADAMParametersGradAccumDebug.Options | Atributos opcionais para RetrieveTPUEmbeddingADAMParametersGradAccumDebug |
Constantes
Corda | OP_NAME | O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow |
Métodos Públicos
estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | config (configuração de string) |
Recuperação estáticaTPUEmbeddingADAMParametersGradAccumDebug | |
Saída < TFloat32 > | gradienteAcumuladores () Parâmetro gradiente_accumulators atualizado pelo algoritmo de otimização ADAM. |
Saída < TFloat32 > | momento () Momentos do parâmetro atualizados pelo algoritmo de otimização ADAM. |
Saída < TFloat32 > | parâmetros () Parâmetros atualizados pelo algoritmo de otimização ADAM. |
estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId (tableId longo) |
estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | nometabela (String nometabela) |
Saída < TFloat32 > | velocidades () Velocidades dos parâmetros atualizadas pelo algoritmo de otimização ADAM. |
Métodos herdados
Constantes
String final estática pública OP_NAME
O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow
Métodos Públicos
configuração pública estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options (configuração de string)
public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create ( Escopo de escopo , Long numShards, Long shardId, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Parâmetros
escopo | escopo atual |
---|---|
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de RetrieveTPUEmbeddingADAMParametersGradAccumDebug
Saída pública < TFloat32 > gradienteAccumulators ()
Parâmetro gradiente_accumulators atualizado pelo algoritmo de otimização ADAM.
Saída pública < TFloat32 > momenta ()
Momentos do parâmetro atualizados pelo algoritmo de otimização ADAM.