Optimizador que implementa el algoritmo RMSProp.
La esencia de RMSprop es:
- Mantener un promedio móvil (descontado) del cuadrado de gradientes
- Divide el gradiente por la raíz de este promedio.
Esta implementación de RMSprop utiliza el impulso simple, no el impulso de Nesterov.
La versión centrada además mantiene un promedio móvil de los gradientes y utiliza ese promedio para estimar la varianza.
Constantes
booleano | CENTERED_DEFAULT | |
flotar | DECAY_DEFAULT | |
flotar | EPSILON_DEFAULT | |
flotar | APRENDIZAJE_RATE_DEFAULT | |
Cadena | mg | |
Cadena | IMPULSO | |
flotar | MOMENTUM_DEFAULT | |
Cadena | RMS |
Constantes heredadas
Constructores Públicos
Métodos públicos
Cadena | getOptimizerName () Obtenga el nombre del optimizador. |
Cadena | Encadenar () |
Métodos heredados
Constantes
booleano final estático público CENTERED_DEFAULT
flotador final estático público DECAY_DEFAULT
flotación final estática pública EPSILON_DEFAULT
flotación final estática pública LEARNING_RATE_DEFAULT
Cadena final estática pública MG
MOMENTUM de cadena final estática pública
flotación final estática pública MOMENTUM_DEFAULT
Cadena final estática pública RMS
Constructores Públicos
RMSProp público (gráfico gráfico )
Crea un optimizador RMSPRrop
Parámetros
grafico | el gráfico de TensorFlow |
---|
RMSProp público (gráfico gráfico , tasa de aprendizaje flotante)
Crea un optimizador RMSPRrop
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
RMSProp público ( gráfico , tasa de aprendizaje flotante, caída del flotador, impulso del flotador, épsilon flotante, booleano centrado)
Crea un optimizador RMSPRrop
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
decadencia | Factor de descuento para el gradiente histórico/próximo. El valor predeterminado es 0,9. |
impulso | El factor de aceleración, el valor predeterminado es 0. |
épsilon | Una pequeña constante para la estabilidad numérica. |
centrado | Si es true , los gradientes se normalizan mediante la varianza estimada del gradiente; si es false , por el segundo momento no centrado. Establecer esto en true puede ayudar con el entrenamiento, pero es un poco más costoso en términos de computación y memoria. El valor predeterminado es false . |
RMSProp público (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador RMSPRrop
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este Optimizador. El valor predeterminado es "RMSProp". |
tasa de aprendizaje | la tasa de aprendizaje |
public RMSProp ( gráfico , nombre de cadena, tasa de aprendizaje flotante, caída del flotador, impulso del flotador, épsilon flotante, centrado booleano)
Crea un optimizador RMSPRrop
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este Optimizador. El valor predeterminado es "RMSProp". |
tasa de aprendizaje | la tasa de aprendizaje |
decadencia | Factor de descuento para el gradiente histórico/próximo. El valor predeterminado es 0,9. |
impulso | El factor de aceleración predeterminado es 0. |
épsilon | Una pequeña constante para la estabilidad numérica. |
centrado | Si es true , los gradientes se normalizan mediante la varianza estimada del gradiente; si es false , por el segundo momento no centrado. Establecer esto en true puede ayudar con el entrenamiento, pero es un poco más costoso en términos de computación y memoria. El valor predeterminado es false . |
Métodos públicos
cadena pública getOptimizerName ()
Obtenga el nombre del optimizador.
Devoluciones
- El nombre del optimizador.