Optimizador que implementa el algoritmo Adagrad Dual-Averaging.
Este optimizador se encarga de regularizar las funciones invisibles en un mini lote actualizándolas cuando se ven con una regla de actualización de formulario cerrado que equivale a haberlas actualizado en cada mini lote.
AdagradDA se utiliza normalmente cuando se necesita una gran escasez en el modelo entrenado. Este optimizador solo garantiza escasez para modelos lineales. Tenga cuidado al utilizar AdagradDA para redes profundas, ya que requerirá una inicialización cuidadosa de los acumuladores de gradiente para que se entrene.
Constantes
Cadena | ACUMULADOR | |
flotar | INITIAL_ACCUMULATOR_DEFAULT | |
flotar | L1_STRENGTH_DEFAULT | |
flotar | L2_STRENGTH_DEFAULT | |
flotar | APRENDIZAJE_RATE_DEFAULT | |
Cadena | ACUMULADOR CUADRADO |
Constantes heredadas
Constructores Públicos
Métodos públicos
Cadena | getOptimizerName () Obtenga el nombre del optimizador. |
Cadena | Encadenar () |
Métodos heredados
Constantes
ACUMULADOR de cadena final estático público
flotación final estática pública INITIAL_ACCUMULATOR_DEFAULT
flotador final estático público L1_STRENGTH_DEFAULT
flotador final estático público L2_STRENGTH_DEFAULT
flotación final estática pública LEARNING_RATE_DEFAULT
Cadena final estática pública SQUARED_ACCUMULATOR
Constructores Públicos
público AdaGradDA (gráfico gráfico )
Crea un optimizador AdaGradDA
Parámetros
grafico | el gráfico de TensorFlow |
---|
público AdaGradDA (gráfico gráfico , tasa de aprendizaje flotante)
Crea un optimizador AdaGradDA
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
public AdaGradDA (gráfico gráfico , tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante)
Crea un optimizador AdaGradDA
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
valoracumuladorinicial | El valor inicial de los acumuladores debe ser mayor que cero. |
l1Fuerza | l1 fuerza de regularización, debe ser mayor o igual a cero. |
l2Fuerza | Fuerza de regularización l2, debe ser mayor o igual a cero. |
Lanza
Argumento de excepción ilegal | si inicialAccumulatorValue no es mayor que cero, o l1Strength o l2Strength es menor que cero |
---|
public AdaGradDA (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador AdaGradDA
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este Optimizador (el valor predeterminado es 'adagrad-da') |
tasa de aprendizaje | la tasa de aprendizaje |
public AdaGradDA (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante)
Crea un optimizador AdaGradDA
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este Optimizador (el valor predeterminado es 'adagrad-da') |
tasa de aprendizaje | la tasa de aprendizaje |
valoracumuladorinicial | El valor inicial de los acumuladores debe ser positivo. |
l1Fuerza | l1 fuerza de regularización, debe ser mayor o igual a cero. |
l2Fuerza | Fuerza de regularización l2, debe ser mayor o igual a cero. |
Lanza
Argumento de excepción ilegal | si inicialAccumulatorValue no es mayor que cero, o * l1Strength o l2Strength es menor que cero |
---|
Métodos públicos
cadena pública getOptimizerName ()
Obtenga el nombre del optimizador.
Devoluciones
- El nombre del optimizador.