Pengoptimal yang mengimplementasikan algoritma Adagrad Dual-Averaging.
Pengoptimal ini menangani regularisasi fitur yang tidak terlihat dalam kumpulan mini dengan memperbaruinya saat terlihat dengan aturan pembaruan formulir tertutup yang setara dengan memperbaruinya di setiap kumpulan mini.
AdagradDA biasanya digunakan ketika ada kebutuhan akan ketersebaran yang besar dalam model yang dilatih. Pengoptimal ini hanya menjamin ketersebaran untuk model linier. Berhati-hatilah saat menggunakan AdagradDA untuk jaringan dalam karena memerlukan inisialisasi akumulator gradien yang cermat agar dapat dilatih.
Konstanta
Rangkaian | AKI | |
mengambang | INITIAL_ACCUMULATOR_DEFAULT | |
mengambang | L1_STRENGTH_DEFAULT | |
mengambang | L2_STRENGTH_DEFAULT | |
mengambang | BELAJAR_RATE_DEFAULT | |
Rangkaian | SQUARED_ACCUMULATOR |
Konstanta yang Diwarisi
Konstruktor Publik
Metode Publik
Rangkaian | dapatkan Nama Pengoptimal () Dapatkan Nama pengoptimal. |
Rangkaian | keString () |
Metode Warisan
Konstanta
AKUMULATOR String akhir statis publik
float akhir statis publik INITIAL_ACCUMULATOR_DEFAULT
float akhir statis publik L1_STRENGTH_DEFAULT
float akhir statis publik L2_STRENGTH_DEFAULT
float akhir statis publik LEARNING_RATE_DEFAULT
String akhir statis publik SQUARED_ACCUMULATOR
Konstruktor Publik
AdaGradDA publik (Grafik grafik , tingkat pembelajaran mengambang)
Membuat Pengoptimal AdaGradDA
Parameter
grafik | Grafik TensorFlow |
---|---|
Tingkat pembelajaran | kecepatan pembelajaran |
AdaGradDA publik ( Grafik grafik, float learningRate, float initialAccumulatorValue, float l1Strength, float l2Strength)
Membuat Pengoptimal AdaGradDA
Parameter
grafik | Grafik TensorFlow |
---|---|
Tingkat pembelajaran | kecepatan pembelajaran |
NilaiAkumulator awal | Nilai awal akumulator harus lebih besar dari nol. |
l1Kekuatan | l1 kekuatan regularisasi, harus lebih besar dari atau sama dengan nol. |
l2Kekuatan | l2 kekuatan regularisasi, harus lebih besar dari atau sama dengan nol. |
Melempar
Pengecualian Argumen Ilegal | jika initialAccumulatorValue tidak lebih besar dari nol, atau l1Strength atau l2Strength kurang dari nol |
---|
AdaGradDA publik (Grafik grafik , Nama string, Tingkat pembelajaran mengambang)
Membuat Pengoptimal AdaGradDA
Parameter
grafik | Grafik TensorFlow |
---|---|
nama | nama untuk Pengoptimal ini (defaultnya adalah 'adagrad-da') |
Tingkat pembelajaran | kecepatan pembelajaran |
AdaGradDA publik ( Grafik grafik, Nama string, float learningRate, float initialAccumulatorValue, float l1Strength, float l2Strength)
Membuat Pengoptimal AdaGradDA
Parameter
grafik | Grafik TensorFlow |
---|---|
nama | nama untuk Pengoptimal ini (defaultnya adalah 'adagrad-da') |
Tingkat pembelajaran | kecepatan pembelajaran |
NilaiAkumulator awal | Nilai awal akumulator harus positif |
l1Kekuatan | l1 kekuatan regularisasi, harus lebih besar dari atau sama dengan nol. |
l2Kekuatan | l2 kekuatan regularisasi, harus lebih besar dari atau sama dengan nol. |
Melempar
Pengecualian Argumen Ilegal | jika initialAccumulatorValue tidak lebih besar dari nol, atau * l1Strength atau l2Strength kurang dari nol |
---|
Metode Publik
String publik getOptimizerName ()
Dapatkan Nama pengoptimal.
Kembali
- Nama pengoptimal.