Optymalizator implementujący algorytm Adamax.
Jest to odmiana Adama oparta na normie nieskończoności. Domyślne parametry są zgodne z podanymi w artykule. Adamax jest czasami lepszy od adama, szczególnie w modelach z osadzaniami.
Zobacz też
Stałe
platforma | BETA_ONE_DEFAULT | |
platforma | BETA_TWO_DEFAULT | |
platforma | EPSILON_DEFAULT | |
Strunowy | FIRST_MOMENT | |
platforma | LEARNING_RATE_DEFAULT | |
Strunowy | SECOND_MOMENT |
Dziedziczone stałe
Konstruktorzy publiczni
Metody publiczne
Strunowy | getOptimizerName () Uzyskaj nazwę optymalizatora. |
Metody dziedziczone
Stałe
publiczny statyczny końcowy float BETA_ONE_DEFAULT
publiczny statyczny końcowy float BETA_TWO_DEFAULT
publiczny statyczny końcowy float EPSILON_DEFAULT
publiczny statyczny końcowy ciąg FIRST_MOMENT
publiczny statyczny końcowy float LEARNING_RATE_DEFAULT
publiczny statyczny końcowy ciąg znaków SECOND_MOMENT
Konstruktorzy publiczni
publiczny Adamax (wykres graficzny )
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
wykres | wykres TensorFlow |
---|
publiczny Adamax (wykres graficzny , nazwa ciągu)
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
wykres | wykres TensorFlow |
---|---|
nazwa | nazwa operacji tworzonych podczas stosowania gradientów. Domyślnie jest to „Adamax”. |
publiczny Adamax (wykres graficzny , float learningRate)
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
wykres | wykres TensorFlow |
---|---|
Szybkość uczenia się | Szybkość uczenia się. |
publiczny Adamax (wykres wykresu , nazwa ciągu, współczynnik uczenia się typu float)
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
wykres | wykres TensorFlow |
---|---|
nazwa | nazwa operacji tworzonych podczas stosowania gradientów. Domyślnie jest to „Adamax”. |
Szybkość uczenia się | Szybkość uczenia się. |
publiczny Adamax (wykres wykresu , float learningRate, float betaOne, float betaTwo, float epsilon)
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
wykres | wykres TensorFlow |
---|---|
Szybkość uczenia się | Szybkość uczenia się. |
betaOne | Wykładnicza szybkość zaniku dla szacunków pierwszego momentu. |
betaTwo | Wykładniczy współczynnik zaniku wykładniczej normy nieskończoności. |
epsilon | Mała stała zapewniająca stabilność numeryczną. |
publiczny Adamax (wykres wykresu , nazwa ciągu, float learningRate, float betaOne, float betaTwo, float epsilon)
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
wykres | wykres TensorFlow |
---|---|
nazwa | nazwa operacji tworzonych podczas stosowania gradientów. Domyślnie jest to „Adamax”. |
Szybkość uczenia się | Szybkość uczenia się. |
betaOne | Wykładnicza szybkość zaniku dla szacunków pierwszego momentu. |
betaTwo | Wykładniczy współczynnik zaniku wykładniczej normy nieskończoności. |
epsilon | Mała stała zapewniająca stabilność numeryczną. |
Metody publiczne
public String getOptimizerName ()
Uzyskaj nazwę optymalizatora.
Zwroty
- Nazwa optymalizatora.