'*var'ı sabit öğrenme oranına sahip FOBOS algoritması olarak güncelleyin.
prox_v = var - alfa delta var =sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
İç İçe Sınıflar
sınıf | ApplyProximalGradientDescent.Options | ApplyProximalGradientDescent için isteğe bağlı özellikler |
Sabitler
Sicim | OP_NAME | Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı |
Genel Yöntemler
Çıkış <T> | Çıkış olarak () Tensörün sembolik tutamacını döndürür. |
static <T, TType'ı genişletir > ApplyProximalGradientDescent <T> | |
Çıkış <T> | dışarı () "Var" ile aynı. |
statik ApplyProximalGradientDescent.Options | useLocking (Boolean useLocking) |
Kalıtsal Yöntemler
Sabitler
genel statik son Dize OP_NAME
Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı
Genel Yöntemler
genel Çıkış <T> asOutput ()
Tensörün sembolik tutamacını döndürür.
TensorFlow işlemlerinin girdileri, başka bir TensorFlow işleminin çıktılarıdır. Bu yöntem, girişin hesaplanmasını temsil eden sembolik bir tanıtıcı elde etmek için kullanılır.
public static ApplyProximalGradientDescent <T> create ( Kapsam kapsamı , İşlenen <T> var, İşlenen <T> alfa, İşlenen <T> l1, İşlenen <T> l2, İşlenen <T> delta, Seçenekler... seçenekler)
Yeni bir ApplyProximalGradientDescent işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
Parametreler
kapsam | mevcut kapsam |
---|---|
var | Bir Variable()'dan olmalıdır. |
alfa | Ölçekleme faktörü. Bir skaler olmalı. |
l1 | L1 düzenlemesi. Bir skaler olmalı. |
l2 | L2 düzenlemesi. Bir skaler olmalı. |
delta | Değişim. |
seçenekler | isteğe bağlı nitelik değerlerini taşır |
İadeler
- ApplyProximalGradientDescent'in yeni bir örneği
public static ApplyProximalGradientDescent.Options useLocking (Boolean useLocking)
Parametreler
KullanımKilitleme | True ise çıkarma işlemi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir. |
---|