Otimizador que implementa o algoritmo Adagrad Dual-Averaging.
Este otimizador cuida da regularização de recursos não vistos em um minilote, atualizando-os quando são vistos com uma regra de atualização de formulário fechado que equivale a atualizá-los em cada minilote.
AdagradDA normalmente é usado quando há necessidade de grande dispersão no modelo treinado. Este otimizador garante esparsidade apenas para modelos lineares. Tenha cuidado ao usar o AdagradDA para redes profundas, pois isso exigirá uma inicialização cuidadosa dos acumuladores de gradiente para seu treinamento.
Constantes
Corda | ACUMULADOR | |
flutuador | INITIAL_ACCUMULATOR_DEFAULT | |
flutuador | L1_STRENGTH_DEFAULT | |
flutuador | L2_STRENGTH_DEFAULT | |
flutuador | LEARNING_RATE_DEFAULT | |
Corda | QUADRADO_ACCUMULATOR |
Constantes herdadas
Construtores Públicos
Métodos Públicos
Corda | getOptimizerName () Obtenha o nome do otimizador. |
Corda |
Métodos herdados
Constantes
público estático final String ACCUMULATOR
flutuador final estático público INITIAL_ACCUMULATOR_DEFAULT
flutuador final estático público L1_STRENGTH_DEFAULT
flutuador final estático público L2_STRENGTH_DEFAULT
flutuador final estático público LEARNING_RATE_DEFAULT
String final estática pública SQUARED_ACCUMULATOR
Construtores Públicos
público AdaGradDA (gráfico gráfico )
Cria um otimizador AdaGradDA
Parâmetros
gráfico | o gráfico do TensorFlow |
---|
public AdaGradDA (gráfico gráfico , float learningRate)
Cria um otimizador AdaGradDA
Parâmetros
gráfico | o gráfico do TensorFlow |
---|---|
taxa de Aprendizagem | a taxa de aprendizagem |
public AdaGradDA (gráfico gráfico , float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)
Cria um otimizador AdaGradDA
Parâmetros
gráfico | o gráfico do TensorFlow |
---|---|
taxa de Aprendizagem | a taxa de aprendizagem |
valoracumuladorinicial | Valor inicial para os acumuladores, deve ser maior que zero. |
l1Força | força de regularização l1, deve ser maior ou igual a zero. |
l2Força | força de regularização l2, deve ser maior ou igual a zero. |
Lança
Exceção de argumento ilegal | se inicialAccumulatorValue não for maior que zero ou l1Strength ou l2Strength for menor que zero |
---|
public AdaGradDA (gráfico gráfico , nome String, float learningRate)
Cria um otimizador AdaGradDA
Parâmetros
gráfico | o gráfico do TensorFlow |
---|---|
nome | o nome deste otimizador (o padrão é 'adagrad-da') |
taxa de Aprendizagem | a taxa de aprendizagem |
public AdaGradDA (gráfico gráfico , nome da string, float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)
Cria um otimizador AdaGradDA
Parâmetros
gráfico | o gráfico do TensorFlow |
---|---|
nome | o nome deste otimizador (o padrão é 'adagrad-da') |
taxa de Aprendizagem | a taxa de aprendizagem |
valoracumuladorinicial | Valor inicial para os acumuladores, deve ser positivo |
l1Força | força de regularização l1, deve ser maior ou igual a zero. |
l2Força | força de regularização l2, deve ser maior ou igual a zero. |
Lança
Exceção de argumento ilegal | se inicialAccumulatorValue não for maior que zero ou * l1Strength ou l2Strength for menor que zero |
---|
Métodos Públicos
String pública getOptimizerName ()
Obtenha o nome do otimizador.
Devoluções
- O nome do otimizador.