Recupere los parámetros de incrustación proximales de Adagrad con soporte de depuración.
Una operación que recupera parámetros de optimización al incrustarlos en la memoria del host. Debe estar precedido por una operación ConfigureTPUEmbeddingHost que establezca la configuración correcta de la tabla de incrustación. Por ejemplo, esta operación se utiliza para recuperar parámetros actualizados antes de guardar un punto de control.
Clases anidadas
clase | RecuperarTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | Atributos opcionales para RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug |
Constantes
Cadena | OP_NOMBRE | El nombre de esta operación, como lo conoce el motor central de TensorFlow. |
Métodos públicos
Salida <TFloat32> | acumuladores () Acumuladores de parámetros actualizados por el algoritmo de optimización proximal de Adagrad. |
Recuperación estáticaTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | config (configuración de cadena) |
Recuperación estáticaTPUEmbeddingProximalAdagradParametersGradAccumDebug | crear (alcance alcance , Long numShards, Long shardId, Opciones... opciones) Método de fábrica para crear una clase que envuelve una nueva operación RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug. |
Salida <TFloat32> | gradientacumuladores () Parámetro gradient_accumulators actualizado por el algoritmo de optimización proximal de Adagrad. |
Salida <TFloat32> | parámetros () Parámetros de parámetros actualizados por el algoritmo de optimización proximal de Adagrad. |
Recuperación estáticaTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | tableId (Id de tabla larga) |
Recuperación estáticaTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | nombre de tabla (nombre de tabla de cadena) |
Métodos heredados
Constantes
Cadena final estática pública OP_NAME
El nombre de esta operación, como lo conoce el motor central de TensorFlow.
Métodos públicos
Salida pública <TFloat32> acumuladores ()
Acumuladores de parámetros actualizados por el algoritmo de optimización proximal de Adagrad.
configuración pública estática RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options (configuración de cadena)
public static RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug crear ( alcance alcance, Long numShards, Long shardId, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug.
Parámetros
alcance | alcance actual |
---|---|
opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug
Salida pública <TFloat32> gradientAccumuladores ()
Parámetro gradient_accumulators actualizado por el algoritmo de optimización proximal de Adagrad.
Parámetros de salida pública <TFloat32> ()
Parámetros de parámetros actualizados por el algoritmo de optimización proximal de Adagrad.