Optimiseur qui implémente l'algorithme Adamax.
C'est une variante d'Adam basée sur la norme de l'infini. Les paramètres par défaut suivent ceux fournis dans le document. Adamax est parfois supérieur à Adam, notamment dans les modèles avec intégrations.
Voir également
Constantes
flotter | BETA_ONE_DEFAULT | |
flotter | BETA_TWO_DEFAULT | |
flotter | EPSILON_DEFAULT | |
Chaîne | FIRST_MOMENT | |
flotter | LEARNING_RATE_DEFAULT | |
Chaîne | SECOND_MOMENT |
Constantes héritées
Constructeurs Publics
Méthodes publiques
Chaîne | getOptimizerName () Obtenez le nom de l'optimiseur. |
Méthodes héritées
Constantes
public statique final float BETA_ONE_DEFAULT
public statique final float BETA_TWO_DEFAULT
public statique final float EPSILON_DEFAULT
Chaîne finale statique publique FIRST_MOMENT
public statique final float LEARNING_RATE_DEFAULT
chaîne finale statique publique SECOND_MOMENT
Constructeurs Publics
public Adamax ( Graphique )
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
graphique | le graphique TensorFlow |
---|
public Adamax ( Graphique , Nom de la chaîne)
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | nom des opérations créées lors de l'application de dégradés. La valeur par défaut est "Adamax". |
public Adamax ( Graphique , taux d'apprentissage flottant)
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
graphique | le graphique TensorFlow |
---|---|
taux d'apprentissage | Le taux d'apprentissage. |
public Adamax ( Graphique , nom de la chaîne, taux d'apprentissage flottant)
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | nom des opérations créées lors de l'application de dégradés. La valeur par défaut est "Adamax". |
taux d'apprentissage | Le taux d'apprentissage. |
public Adamax ( Graphique , float learningRate, float betaOne, float betaTwo, float epsilon)
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
graphique | le graphique TensorFlow |
---|---|
taux d'apprentissage | Le taux d'apprentissage. |
bêtaOne | Le taux de décroissance exponentielle pour les estimations du 1er instant. |
bêtadeux | Le taux de décroissance exponentielle pour la norme infinie pondérée exponentiellement. |
épsilon | Une petite constante pour la stabilité numérique. |
public Adamax ( Graph graph, String name, float learningRate, float betaOne, float betaTwo, float epsilon)
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | nom des opérations créées lors de l'application de dégradés. La valeur par défaut est "Adamax". |
taux d'apprentissage | Le taux d'apprentissage. |
bêtaOne | Le taux de décroissance exponentielle pour les estimations du 1er instant. |
bêtadeux | Le taux de décroissance exponentielle pour la norme infinie pondérée exponentiellement. |
épsilon | Une petite constante pour la stabilité numérique. |
Méthodes publiques
chaîne publique getOptimizerName ()
Obtenez le nom de l'optimiseur.
Retour
- Le nom de l'optimiseur.