Adagrad şemasına göre '*var'ı güncelleyin.
birikim += grad * grad var -= lr * grad * (1 / sqrt(birikim))
İç İçe Sınıflar
sınıf | ApplyAdagradV2.Seçenekler | ApplyAdagradV2 için isteğe bağlı özellikler |
Genel Yöntemler
Çıkış <T> | Çıkış olarak () Bir tensörün sembolik tutamacını döndürür. |
statik <T> ApplyAdagradV2 <T> | |
Çıkış <T> | dışarı () "Var" ile aynı. |
statik ApplyAdagradV2.Options | updateSlots (Boolean updateSlots) |
statik ApplyAdagradV2.Options | useLocking (Boolean useLocking) |
Kalıtsal Yöntemler
Genel Yöntemler
genel Çıkış <T> asOutput ()
Bir tensörün sembolik tutamacını döndürür.
TensorFlow işlemlerinin girdileri, başka bir TensorFlow işleminin çıktılarıdır. Bu yöntem, girişin hesaplanmasını temsil eden sembolik bir tanıtıcı elde etmek için kullanılır.
public static ApplyAdagradV2 <T> create ( Kapsam kapsamı, İşlenen <T> var, İşlenen <T> birikimi, İşlenen <T> lr, İşlenen <T> epsilon, İşlenen <T> grad, Seçenekler... seçenekler)
Yeni bir ApplyAdagradV2 işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
Parametreler
kapsam | mevcut kapsam |
---|---|
var | Bir Variable()'dan olmalıdır. |
birikim | Bir Variable()'dan olmalıdır. |
IR | Ölçekleme faktörü. Bir skaler olmalı. |
epsilon | Sabit faktör. Bir skaler olmalı. |
mezun | Gradyan. |
seçenekler | isteğe bağlı nitelik değerlerini taşır |
İadeler
- ApplyAdagradV2'nin yeni bir örneği
public static ApplyAdagradV2.Options useLocking (Boolean useLocking)
Parametreler
KullanımKilitleme | 'Doğru' ise var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir. |
---|