Optimiseur qui implémente l'algorithme Adagrad Dual-Averaging.
Cet optimiseur s'occupe de la régularisation des fonctionnalités invisibles dans un mini-lot en les mettant à jour lorsqu'elles sont vues avec une règle de mise à jour de formulaire fermé qui équivaut à les avoir mises à jour à chaque mini-lot.
AdagradDA est généralement utilisé lorsqu'il existe un besoin d'une grande parcimonie dans le modèle formé. Cet optimiseur ne garantit la parcimonie que pour les modèles linéaires. Soyez prudent lorsque vous utilisez AdagradDA pour des réseaux profonds, car son entraînement nécessitera une initialisation minutieuse des accumulateurs de gradient.
Constantes
Chaîne | ACCUMULATEUR | |
flotter | INITIAL_ACCUMULATOR_DEFAULT | |
flotter | L1_STRENGTH_DEFAULT | |
flotter | L2_STRENGTH_DEFAULT | |
flotter | LEARNING_RATE_DEFAULT | |
Chaîne | SQUARED_ACCUMULATOR |
Constantes héritées
Constructeurs Publics
Méthodes publiques
Chaîne | getOptimizerName () Obtenez le nom de l'optimiseur. |
Chaîne | àChaîne () |
Méthodes héritées
Constantes
chaîne finale statique publique ACCUMULATEUR
public statique final float INITIAL_ACCUMULATOR_DEFAULT
public statique final float L1_STRENGTH_DEFAULT
public statique final float L2_STRENGTH_DEFAULT
public statique final float LEARNING_RATE_DEFAULT
chaîne finale statique publique SQUARED_ACCUMULATOR
Constructeurs Publics
public AdaGradDA ( Graphique )
Crée un optimiseur AdaGradDA
Paramètres
graphique | le graphique TensorFlow |
---|
public AdaGradDA ( Graphique , float learningRate)
Crée un optimiseur AdaGradDA
Paramètres
graphique | le graphique TensorFlow |
---|---|
taux d'apprentissage | le taux d'apprentissage |
public AdaGradDA ( Graphique , float learningRate, float initialAccumulatorValue, float l1Strength, float l2Strength)
Crée un optimiseur AdaGradDA
Paramètres
graphique | le graphique TensorFlow |
---|---|
taux d'apprentissage | le taux d'apprentissage |
valeur initiale de l'accumulateur | La valeur de départ des accumulateurs doit être supérieure à zéro. |
l1Force | La force de régularisation l1, doit être supérieure ou égale à zéro. |
l2Force | la force de régularisation l2, doit être supérieure ou égale à zéro. |
Jetés
Exception d'argument illégal | si initialAccumulatorValue n'est pas supérieur à zéro, ou si l1Strength ou l2Strength est inférieur à zéro |
---|
public AdaGradDA ( Graphique , nom de chaîne, taux d'apprentissage flottant)
Crée un optimiseur AdaGradDA
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | le nom de cet optimiseur (par défaut 'adagrad-da') |
taux d'apprentissage | le taux d'apprentissage |
public AdaGradDA ( Graphique , nom de la chaîne, float learningRate, float initialAccumulatorValue, float l1Strength, float l2Strength)
Crée un optimiseur AdaGradDA
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | le nom de cet optimiseur (par défaut 'adagrad-da') |
taux d'apprentissage | le taux d'apprentissage |
valeur initiale de l'accumulateur | La valeur de départ des accumulateurs doit être positive |
l1Force | La force de régularisation l1, doit être supérieure ou égale à zéro. |
l2Force | la force de régularisation l2, doit être supérieure ou égale à zéro. |
Jetés
Exception d'argument illégal | si initialAccumulatorValue n'est pas supérieur à zéro, ou * l1Strength ou l2Strength est inférieur à zéro |
---|
Méthodes publiques
chaîne publique getOptimizerName ()
Obtenez le nom de l'optimiseur.
Retour
- Le nom de l'optimiseur.