Adagrad şemasına göre '*var' ve '*accum'daki ilgili girişleri güncelleyin.
Yani, derecelendirdiğimiz satırlar için var ve accum'u şu şekilde güncelliyoruz: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
İç İçe Sınıflar
sınıf | SparseApplyAdagradV2.Options | SparseApplyAdagradV2 için isteğe bağlı özellikler |
Genel Yöntemler
Çıkış <T> | Çıkış olarak () Bir tensörün sembolik tutamacını döndürür. |
statik <T, U Sayıyı genişletir> SparseApplyAdagradV2 <T> | |
Çıkış <T> | dışarı () "Var" ile aynı. |
statik SparseApplyAdagradV2.Options | updateSlots (Boolean updateSlots) |
statik SparseApplyAdagradV2.Options | useLocking (Boolean useLocking) |
Kalıtsal Yöntemler
Genel Yöntemler
genel Çıkış <T> asOutput ()
Bir tensörün sembolik tutamacını döndürür.
TensorFlow işlemlerinin girdileri, başka bir TensorFlow işleminin çıktılarıdır. Bu yöntem, girişin hesaplanmasını temsil eden sembolik bir tanıtıcı elde etmek için kullanılır.
public static SparseApplyAdagradV2 <T> create ( Kapsam kapsamı, İşlenen <T> var, İşlenen <T> birikimi, İşlenen <T> lr, İşlenen <T> epsilon, İşlenen <T> grad, İşlenen <U> indeksleri, Seçenekler.. . seçenekler)
Yeni bir SparseApplyAdagradV2 işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
Parametreler
kapsam | mevcut kapsam |
---|---|
var | Bir Variable()'dan olmalıdır. |
birikim | Bir Variable()'dan olmalıdır. |
IR | Öğrenme oranı. Bir skaler olmalı. |
epsilon | Sabit faktör. Bir skaler olmalı. |
mezun | Gradyan. |
endeksler | var ve accum'un birinci boyutuna ait indekslerin bir vektörü. |
seçenekler | isteğe bağlı nitelik değerlerini taşır |
İadeler
- SparseApplyAdagradV2'nin yeni bir örneği
public static SparseApplyAdagradV2.Options useLocking (Boolean useLocking)
Parametreler
KullanımKilitleme | 'True' ise var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir. |
---|