Optymalizator implementujący algorytm Adagrad Dual-Averaging.
Optymalizator ten dba o regularyzację niewidocznych funkcji w mini-partiach, aktualizując je, gdy są widoczne, za pomocą reguły aktualizacji w formularzu zamkniętym, co jest równoznaczne z aktualizacją ich w każdej mini-partii.
AdagradDA jest zwykle używany, gdy istnieje potrzeba dużej rzadkości w wyuczonym modelu. Optymalizator ten gwarantuje rzadkość jedynie w przypadku modeli liniowych. Zachowaj ostrożność podczas korzystania z AdagradDA w głębokich sieciach, ponieważ będzie wymagało to starannej inicjalizacji akumulatorów gradientu, aby mógł zostać uczony.
Stałe
Strunowy | AKUMULATOR | |
platforma | INITIAL_ACCUMULATOR_DEFAULT | |
platforma | L1_STRENGTH_DEFAULT | |
platforma | L2_STRENGTH_DEFAULT | |
platforma | LEARNING_RATE_DEFAULT | |
Strunowy | KWADRAT_AKUMULATOR |
Dziedziczone stałe
Konstruktorzy publiczni
Metody publiczne
Strunowy | getOptimizerName () Uzyskaj nazwę optymalizatora. |
Strunowy | doString () |
Metody dziedziczone
Stałe
publiczny statyczny końcowy akumulator AKUMULATORA
publiczny statyczny końcowy float INITIAL_ACCUMULATOR_DEFAULT
publiczny statyczny końcowy float L1_STRENGTH_DEFAULT
publiczny statyczny końcowy float L2_STRENGTH_DEFAULT
publiczny statyczny końcowy float LEARNING_RATE_DEFAULT
publiczny statyczny końcowy ciąg znaków SQUARED_ACCUMULATOR
Konstruktorzy publiczni
publiczny AdaGradDA (wykres graficzny )
Tworzy optymalizator AdaGradDA
Parametry
wykres | wykres TensorFlow |
---|
publiczny AdaGradDA (wykres graficzny , float learningRate)
Tworzy optymalizator AdaGradDA
Parametry
wykres | wykres TensorFlow |
---|---|
Szybkość uczenia się | tempo uczenia się |
public AdaGradDA (wykres wykresu , float learningRate, float originAccumulatorValue, float l1Strength, float l2Strength)
Tworzy optymalizator AdaGradDA
Parametry
wykres | wykres TensorFlow |
---|---|
Szybkość uczenia się | tempo uczenia się |
początkowa wartość akumulatora | Wartość początkowa akumulatorów musi być większa od zera. |
l1Siła | l1 siła regularyzacji musi być większa lub równa zeru. |
l2Siła | l2 siła regularyzacji musi być większa lub równa zeru. |
Rzuca
Wyjątek IllegalArgument | jeśli wartość początkowaAccumulatorValue nie jest większa od zera lub l1Strength lub l2Strength jest mniejsza od zera |
---|
public AdaGradDA (wykres wykresu , nazwa ciągu, współczynnik uczenia się typu float)
Tworzy optymalizator AdaGradDA
Parametry
wykres | wykres TensorFlow |
---|---|
nazwa | nazwa tego Optymalizatora (domyślnie to „adagrad-da”) |
Szybkość uczenia się | tempo uczenia się |
public AdaGradDA (wykres wykresu , nazwa ciągu, float learningRate, float początkowaAccumulatorValue, float l1Strength, float l2Strength)
Tworzy optymalizator AdaGradDA
Parametry
wykres | wykres TensorFlow |
---|---|
nazwa | nazwa tego Optymalizatora (domyślnie to „adagrad-da”) |
Szybkość uczenia się | tempo uczenia się |
początkowa wartość akumulatora | Wartość początkowa akumulatorów musi być dodatnia |
l1Siła | l1 siła regularyzacji musi być większa lub równa zeru. |
l2Siła | l2 siła regularyzacji musi być większa lub równa zeru. |
Rzuca
Wyjątek IllegalArgument | jeśli wartość początkowaAccumulatorValue nie jest większa od zera lub * l1Strength lub l2Strength jest mniejsza od zera |
---|
Metody publiczne
public String getOptimizerName ()
Uzyskaj nazwę optymalizatora.
Zwroty
- Nazwa optymalizatora.