パブリック最終クラスSparseApplyProximalAdagrad
FOBOS アルゴリズムに従って、'*var' および '*accum' 内のスパース更新エントリ。
つまり、grad がある行については、次のように var と accum を更新します。 $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$
ネストされたクラス
クラス | SparseApplyProximalAdagrad.Options | SparseApplyProximalAdagrad のオプションの属性 |
定数
弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 |
パブリックメソッド
出力<T> | asOutput () テンソルのシンボリック ハンドルを返します。 |
static <T extends TType > SparseApplyProximalAdagrad <T> | |
出力<T> | 外() 「var」と同じです。 |
静的SparseApplyProximalAdagrad.Options | useLocking (ブール型 useLocking) |
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "SparseApplyProximalAdagrad"
パブリックメソッド
public Output <T> asOutput ()
テンソルのシンボリック ハンドルを返します。
TensorFlow オペレーションへの入力は、別の TensorFlow オペレーションの出力です。このメソッドは、入力の計算を表すシンボリック ハンドルを取得するために使用されます。
public static SparseApplyProximalAdagrad <T> create (スコープscope,オペランド<T> var,オペランド<T> accum,オペランド<T> lr,オペランド<T> l1,オペランド<T> l2,オペランド<T> grad,オペランド<? TNumber > インデックス、オプション...オプションを拡張します)
新しい SparseApplyProximalAdagrad オペレーションをラップするクラスを作成するためのファクトリ メソッド。
パラメータ
範囲 | 現在のスコープ |
---|---|
変数 | Variable() から取得する必要があります。 |
蓄積 | Variable() から取得する必要があります。 |
lr | 学習率。スカラーでなければなりません。 |
l1 | L1 正則化。スカラーでなければなりません。 |
l2 | L2 正則化。スカラーでなければなりません。 |
卒業生 | グラデーション。 |
インデックス | var と accum の最初の次元へのインデックスのベクトル。 |
オプション | オプションの属性値を持ちます |
返品
- SparseApplyProximalAdagrad の新しいインスタンス
public static SparseApplyProximalAdagrad.Options useLocking (Boolean useLocking)
パラメータ
使用ロック | True の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。 |
---|