Adam algoritmasını uygulayan optimizer.
Adam optimizasyonu, birinci dereceden ve ikinci dereceden momentlerin uyarlanabilir tahminine dayanan stokastik bir gradyan iniş yöntemidir.
Kingma ve diğerleri, 2014'e göre yöntem "hesaplama açısından verimlidir, çok az bellek gereksinimi vardır, gradyanların çapraz yeniden ölçeklendirilmesinde değişmezdir ve veri/parametreler açısından büyük problemler için çok uygundur".
@bkz. Kingma ve diğerleri, 2014, Adam: Stokastik Optimizasyon İçin Bir Yöntem .
Sabitler
batmadan yüzmek | BETA_ONE_DEFAULT | |
batmadan yüzmek | BETA_TWO_DEFAULT | |
batmadan yüzmek | EPSILON_DEFAULT | |
Sicim | İLK AN | |
batmadan yüzmek | LEARNING_RATE_DEFAULT | |
Sicim | SECOND_MOMENT |
Devralınan Sabitler
Kamu İnşaatçıları
Genel Yöntemler
static <T TType'ı genişletir > Op | createAdamMinimize ( Kapsam kapsamı, İşlenen <T> kaybı, kayan öğrenme Oranı, kayan betaOne, kayan betaTwo, kayan epsilon, Seçenekler... seçenekler) Kaybı en aza indiren Operasyonu oluşturur |
Sicim | getOptimizerName () Optimize edicinin Adını alın. |
Sicim | toString () |
Kalıtsal Yöntemler
Sabitler
genel statik son kayan nokta BETA_ONE_DEFAULT
genel statik son kayan nokta BETA_TWO_DEFAULT
genel statik son kayan nokta EPSILON_DEFAULT
genel statik son Dize FIRST_MOMENT
genel statik son kayan nokta LEARNING_RATE_DEFAULT
genel statik son Dize SECOND_MOMENT
Kamu İnşaatçıları
halka açık Adam ( Grafik grafiği)
Bir Adam optimize edici oluşturur
Parametreler
grafik | TensorFlow grafiği |
---|
herkese açık Adam ( Grafik grafiği, kayan öğrenme Oranı)
Bir Adam optimize edici oluşturur
Parametreler
grafik | TensorFlow grafiği |
---|---|
öğrenme oranı | öğrenme oranı |
public Adam ( Grafik grafiği, float öğrenmeOranı, float betaOne, float betaTwo, float epsilon)
Bir Adam optimize edici oluşturur
Parametreler
grafik | TensorFlow grafiği |
---|---|
öğrenme oranı | öğrenme oranı |
betaOne | 1. an tahminleri için üstel bozunma oranı. Varsayılan 0,9'dur. |
betaİki | 2. moment tahminleri için üstel bozunma oranı. Varsayılan 0,999'dur. |
epsilon | Sayısal kararlılık için küçük bir sabit. Bu epsilon, makalenin Algoritma 1'indeki epsilon değil, Kingma ve Ba makalesindeki (Bölüm 2.1'den hemen önceki formülde) "epsilon şapkası"dır. Varsayılan olarak 1e-8'dir. |
public Adam ( Grafik grafiği, Dize adı, kayan öğrenme Oranı)
Bir Adam optimize edici oluşturur
Parametreler
grafik | TensorFlow grafiği |
---|---|
isim | Optimize Edici adı varsayılan olarak "Adam"dır |
öğrenme oranı | öğrenme oranı |
public Adam ( Grafik grafiği, Dize adı, float öğrenme Oranı, float betaOne, float betaTwo, float epsilon)
Bir Adam optimize edici oluşturur
Parametreler
grafik | TensorFlow grafiği |
---|---|
isim | Optimize Edici adı varsayılan olarak "Adam"dır |
öğrenme oranı | öğrenme oranı |
betaOne | 1. an tahminleri için üstel bozunma oranı. Varsayılan 0,9'dur. |
betaİki | 2. moment tahminleri için üstel bozunma oranı. Varsayılan 0,999'dur. |
epsilon | Sayısal kararlılık için küçük bir sabit. Bu epsilon, makalenin Algoritma 1'indeki epsilon değil, Kingma ve Ba makalesindeki (Bölüm 2.1'den hemen önceki formülde) "epsilon şapkası"dır. Varsayılan olarak 1e-8'dir. |
Genel Yöntemler
public static Op createAdamMinimize ( Kapsam kapsamı, Operand <T> kaybı, float öğrenmeRate, float betaOne, float betaTwo, float epsilon, Seçenekler... seçenekler)
Kaybı en aza indiren Operasyonu oluşturur
Parametreler
kapsam | TensorFlow kapsamı |
---|---|
kayıp | kaybı en aza indirmek |
öğrenme oranı | öğrenme oranı |
betaOne | 1. an tahminleri için üstel bozunma oranı. |
betaİki | 2. moment tahminleri için üstel bozunma oranı. |
epsilon | Sayısal kararlılık için küçük bir sabit. Bu epsilon, makalenin Algoritma 1'indeki epsilon değil, Kingma ve Ba makalesindeki (Bölüm 2.1'den hemen önceki formülde) "epsilon şapkasıdır". |
seçenekler | İsteğe bağlı Optimize Edici özellikleri |
İadeler
- Kaybı en aza indiren operasyon
Atar
YasadışıTartışmaİstisna | kapsam bir Grafiği temsil etmiyorsa |
---|
public String getOptimizerName ()
Optimize edicinin Adını alın.
İadeler
- Optimize edici adı.