Ottimizzatore che implementa l'algoritmo Adagrad Dual-Averaging.
Questo ottimizzatore si occupa della regolarizzazione delle funzionalità invisibili in un mini batch aggiornandole quando vengono visualizzate con una regola di aggiornamento del modulo chiuso che equivale ad averle aggiornate su ogni mini-batch.
AdagradDA viene in genere utilizzato quando è necessaria una grande scarsità nel modello addestrato. Questo ottimizzatore garantisce la scarsità solo per i modelli lineari. Fai attenzione quando usi AdagradDA per reti profonde poiché richiederà un'accurata inizializzazione degli accumulatori di gradiente per l'addestramento.
Costanti
Corda | ACCUMULATORE | |
galleggiante | INITIAL_ACCUMULATOR_DEFAULT | |
galleggiante | L1_STRENGTH_DEFAULT | |
galleggiante | L2_STRENGTH_DEFAULT | |
galleggiante | LEARNING_RATE_DEFAULT | |
Corda | QUADRATO_ACCUMULO |
Costanti ereditate
Costruttori pubblici
Metodi pubblici
Corda | getOptimizerName () Ottieni il nome dell'ottimizzatore. |
Corda | accordare () |
Metodi ereditati
Costanti
ACCUMULATORE di stringa finale statico pubblico
float finale statico pubblico INITIAL_ACCUMULATOR_DEFAULT
float finale statico pubblico L1_STRENGTH_DEFAULT
float finale statico pubblico L2_STRENGTH_DEFAULT
float finale statico pubblico LEARNING_RATE_DEFAULT
Stringa finale statica pubblica SQUARED_ACCUMULATOR
Costruttori pubblici
public AdaGradDA (grafico grafico )
Crea un ottimizzatore AdaGradDA
Parametri
grafico | il grafico TensorFlow |
---|
AdaGradDA pubblico (grafico grafico , tasso di apprendimento float)
Crea un ottimizzatore AdaGradDA
Parametri
grafico | il grafico TensorFlow |
---|---|
tasso di apprendimento | il tasso di apprendimento |
public AdaGradDA (grafico grafico , float learningRate, float externalAccumulatorValue, float l1Strength, float l2Strength)
Crea un ottimizzatore AdaGradDA
Parametri
grafico | il grafico TensorFlow |
---|---|
tasso di apprendimento | il tasso di apprendimento |
valoreAccumulatoreiniziale | Il valore iniziale per gli accumulatori deve essere maggiore di zero. |
l1Forza | forza di regolarizzazione l1, deve essere maggiore o uguale a zero. |
l2Forza | Forza di regolarizzazione l2, deve essere maggiore o uguale a zero. |
Lancia
IllegalArgumentException | se partialAccumulatorValue non è maggiore di zero oppure l1Strength o l2Strength è inferiore a zero |
---|
public AdaGradDA (grafico grafico , nome stringa, float learningRate)
Crea un ottimizzatore AdaGradDA
Parametri
grafico | il grafico TensorFlow |
---|---|
nome | il nome di questo ottimizzatore (il valore predefinito è "adagrad-da") |
tasso di apprendimento | il tasso di apprendimento |
public AdaGradDA (grafico grafico , nome stringa, float learningRate, float partialAccumulatorValue, float l1Strength, float l2Strength)
Crea un ottimizzatore AdaGradDA
Parametri
grafico | il grafico TensorFlow |
---|---|
nome | il nome di questo ottimizzatore (il valore predefinito è "adagrad-da") |
tasso di apprendimento | il tasso di apprendimento |
valoreAccumulatoreiniziale | Il valore iniziale per gli accumulatori deve essere positivo |
l1Forza | forza di regolarizzazione l1, deve essere maggiore o uguale a zero. |
l2Forza | Forza di regolarizzazione l2, deve essere maggiore o uguale a zero. |
Lancia
IllegalArgumentException | se partialAccumulatorValue non è maggiore di zero, oppure * l1Strength o l2Strength è inferiore a zero |
---|
Metodi pubblici
public String getOptimizerName ()
Ottieni il nome dell'ottimizzatore.
ritorna
- Il nome dell'ottimizzatore.