Optimizador que implementa el algoritmo Adamax.
Es una variante de Adán basada en la norma del infinito. Los parámetros predeterminados siguen los proporcionados en el documento. Adamax es en ocasiones superior a Adam, especialmente en modelos con incrustaciones.
Ver también
Constantes
flotar | BETA_ONE_DEFAULT | |
flotar | BETA_TWO_DEFAULT | |
flotar | EPSILON_DEFAULT | |
Cadena | PRIMER MOMENTO | |
flotar | APRENDIZAJE_RATE_DEFAULT | |
Cadena | SEGUNDO_MOMENTO |
Constantes heredadas
Constructores Públicos
Métodos públicos
Cadena | getOptimizerName () Obtenga el nombre del optimizador. |
Métodos heredados
Constantes
flotación final estática pública BETA_ONE_DEFAULT
flotación final estática pública BETA_TWO_DEFAULT
flotación final estática pública EPSILON_DEFAULT
Cadena final estática pública FIRST_MOMENT
flotación final estática pública LEARNING_RATE_DEFAULT
Cadena final estática pública SECOND_MOMENT
Constructores Públicos
Adamax público (gráfico gráfico )
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|
Adamax público (gráfico gráfico , nombre de cadena)
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | nombre de las operaciones creadas al aplicar gradientes. El valor predeterminado es "Adamax". |
Adamax público (gráfico gráfico , tasa de aprendizaje flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | La tasa de aprendizaje. |
Adamax público (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | nombre de las operaciones creadas al aplicar gradientes. El valor predeterminado es "Adamax". |
tasa de aprendizaje | La tasa de aprendizaje. |
Adamax público ( gráfico , tasa de aprendizaje flotante, betaOne flotante, betaTwo flotante, épsilon flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | La tasa de aprendizaje. |
betauno | La tasa de caída exponencial para las estimaciones del primer momento. |
betados | La tasa de caída exponencial de la norma infinita ponderada exponencialmente. |
épsilon | Una pequeña constante para la estabilidad numérica. |
Adamax público ( gráfico , nombre de cadena, tasa de aprendizaje flotante, betaUno flotante, betaTwo flotante, épsilon flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | nombre de las operaciones creadas al aplicar gradientes. El valor predeterminado es "Adamax". |
tasa de aprendizaje | La tasa de aprendizaje. |
betauno | La tasa de caída exponencial para las estimaciones del primer momento. |
betados | La tasa de caída exponencial de la norma infinita ponderada exponencialmente. |
épsilon | Una pequeña constante para la estabilidad numérica. |
Métodos públicos
cadena pública getOptimizerName ()
Obtenga el nombre del optimizador.
Devoluciones
- El nombre del optimizador.