Recuperar parâmetros de incorporação do Adagrad com suporte para depuração.
Uma operação que recupera parâmetros de otimização da incorporação na memória do host. Deve ser precedido por uma operação ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.
Classes aninhadas
aula | RecuperarTPUEmbeddingAdagradParametersGradAccumDebug.Options | Atributos opcionais para RetrieveTPUEmbeddingAdagradParametersGradAccumDebug |
Constantes
Corda | OP_NAME | O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow |
Métodos Públicos
Saída < TFloat32 > | acumuladores () Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad. |
estática RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options | configuração (configuração de string) |
Recuperação estáticaTPUEmbeddingAdagradParametersGradAccumDebug | |
Saída < TFloat32 > | gradienteAcumuladores () Parâmetro gradiente_accumulators atualizado pelo algoritmo de otimização Adagrad. |
Saída < TFloat32 > | parâmetros () Parâmetros atualizados pelo algoritmo de otimização Adagrad. |
estática RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options | tableId (tableId longo) |
estática RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options | nometabela (String nometabela) |
Métodos herdados
Constantes
String final estática pública OP_NAME
O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow
Métodos Públicos
Saída pública < TFloat32 > acumuladores ()
Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad.
configuração pública estática RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options (configuração de string)
public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug create ( Escopo de escopo , Long numShards, Long shardId, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.
Parâmetros
escopo | escopo atual |
---|---|
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de RetrieveTPUEmbeddingAdagradParametersGradAccumDebug
Saída pública < TFloat32 > gradienteAccumulators ()
Parâmetro gradiente_accumulators atualizado pelo algoritmo de otimização Adagrad.
Saída pública < TFloat32 > parâmetros ()
Parâmetros atualizados pelo algoritmo de otimização Adagrad.