Optimizador que implementa el algoritmo Adagrad.
Adagrad es un optimizador con tasas de aprendizaje específicas de parámetros, que se adaptan en relación con la frecuencia con la que se actualiza un parámetro durante el entrenamiento. Cuantas más actualizaciones reciba un parámetro, menores serán las actualizaciones.
Constantes
Cadena | ACUMULADOR | |
flotar | INITIAL_ACCUMULATOR_DEFAULT | |
flotar | APRENDIZAJE_RATE_DEFAULT |
Constantes heredadas
Constructores Públicos
Métodos públicos
Cadena | getOptimizerName () Obtenga el nombre del optimizador. |
Cadena | Encadenar () |
Métodos heredados
Constantes
ACUMULADOR de cadena final estático público
flotación final estática pública INITIAL_ACCUMULATOR_DEFAULT
flotación final estática pública LEARNING_RATE_DEFAULT
Constructores Públicos
AdaGrad público (gráfico gráfico )
Crea un optimizador AdaGrad
Parámetros
grafico | el gráfico de TensorFlow |
---|
AdaGrad público (gráfico gráfico , tasa de aprendizaje flotante)
Crea un optimizador AdaGrad
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
AdaGrad público (gráfico gráfico , tasa de aprendizaje flotante, valor acumulador inicial flotante)
Crea un optimizador AdaGrad
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
valoracumuladorinicial | El valor inicial de los acumuladores no debe ser negativo. |
Lanza
Argumento de excepción ilegal | si el valor acumulador inicial es negativo |
---|
AdaGrad público (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador AdaGrad
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este Optimizador (el valor predeterminado es 'Adagrad') |
tasa de aprendizaje | la tasa de aprendizaje |
AdaGrad público ( gráfico , nombre de cadena, tasa de aprendizaje flotante, valor acumulador inicial flotante)
Crea un optimizador AdaGrad
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este Optimizador (el valor predeterminado es 'Adagrad') |
tasa de aprendizaje | la tasa de aprendizaje |
valoracumuladorinicial | El valor inicial de los acumuladores no debe ser negativo. |
Lanza
Argumento de excepción ilegal | si el valor acumulador inicial es negativo |
---|
Métodos públicos
cadena pública getOptimizerName ()
Obtenga el nombre del optimizador.
Devoluciones
- El nombre del optimizador.