Carregue os parâmetros de incorporação do Adagrad com suporte para depuração.
Uma operação que carrega parâmetros de otimização no HBM para incorporação. Deve ser precedido por um op ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para instalar parâmetros que são carregados de um ponto de verificação antes que um loop de treinamento seja executado.
Classes aninhadas
classe | LoadTPUEmbeddingAdagradParametersGradAccumDebug.Options | Atributos opcionais para LoadTPUEmbeddingAdagradParametersGradAccumDebug |
Constantes
Fragmento | OP_NAME | O nome desta operação, conforme conhecido pelo motor principal TensorFlow |
Métodos Públicos
estáticos LoadTPUEmbeddingAdagradParametersGradAccumDebug.Options | configuração (String config) |
estática LoadTPUEmbeddingAdagradParametersGradAccumDebug | criar ( Scope escopo, Operando < TFloat32 > parâmetros, Operando < TFloat32 > acumuladores, Operando < TFloat32 > gradientAccumulators, Longo numShards, Long shardId, Options ... Opções) Método de fábrica para criar uma classe que envolve uma nova operação LoadTPUEmbeddingAdagradParametersGradAccumDebug. |
estáticos LoadTPUEmbeddingAdagradParametersGradAccumDebug.Options | tableId (Long tableId) |
estáticos LoadTPUEmbeddingAdagradParametersGradAccumDebug.Options | tableName (String tableName) |
Métodos herdados
Constantes
nome_op final String public static
O nome desta operação, conforme conhecido pelo motor principal TensorFlow
Métodos Públicos
public static LoadTPUEmbeddingAdagradParametersGradAccumDebug.Options de configuração (config String)
public static LoadTPUEmbeddingAdagradParametersGradAccumDebug criar ( Scope escopo, Operando < TFloat32 > parâmetros, Operando < TFloat32 > acumuladores, Operando < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Options ... Opções)
Método de fábrica para criar uma classe que envolve uma nova operação LoadTPUEmbeddingAdagradParametersGradAccumDebug.
Parâmetros
alcance | escopo atual |
---|---|
parametros | Valor dos parâmetros usados no algoritmo de otimização Adagrad. |
acumuladores | Valor dos acumuladores usados no algoritmo de otimização Adagrad. |
gradiente Acumuladores | Valor de gradiente_acumuladores usados no algoritmo de otimização Adagrad. |
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de LoadTPUEmbeddingAdagradParametersGradAccumDebug