パブリック最終クラスApplyAdam
Adam アルゴリズムに従って「*var」を更新します。
$$lr_t := \text{learning\_rate} * \sqrt{1 - beta_2^t} / (1 - beta_1^t)$$$$m_t := beta_1 * m_{t-1} + (1 - beta_1) * g$$$$v_t := beta_2 * v_{t-1} + (1 - beta_2) * g * g$$$$variable := variable - lr_t * m_t / (\sqrt{v_t} + \epsilon)$$
ネストされたクラス
クラス | Adam.Options の適用 | ApplyAdam のオプションの属性 |
定数
弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 |
パブリックメソッド
出力<T> | asOutput () テンソルのシンボリック ハンドルを返します。 |
static <T extends TType > applyAdam <T> | |
出力<T> | 外() 「var」と同じです。 |
静的ApplyAdam.Options | useLocking (ブール型 useLocking) |
静的ApplyAdam.Options | useNesterov (ブール型 useNesterov) |
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "ApplyAdam"
パブリックメソッド
public Output <T> asOutput ()
テンソルのシンボリック ハンドルを返します。
TensorFlow オペレーションへの入力は、別の TensorFlow オペレーションの出力です。このメソッドは、入力の計算を表すシンボリック ハンドルを取得するために使用されます。
public static applyAdam <T> create (スコープscope,オペランド<T> var,オペランド<T> m,オペランド<T> v,オペランド<T> beta1Power,オペランド<T> beta2Power,オペランド<T> lr,オペランド<T > beta1、オペランド<T> beta2、オペランド<T> イプシロン、オペランド<T> grad、オプション...オプション)
新しいApplyAdamオペレーションをラップするクラスを作成するファクトリメソッド。
パラメータ
範囲 | 現在のスコープ |
---|---|
変数 | Variable() から取得する必要があります。 |
メートル | Variable() から取得する必要があります。 |
v | Variable() から取得する必要があります。 |
beta1パワー | スカラーでなければなりません。 |
ベータ2パワー | スカラーでなければなりません。 |
lr | スケーリング係数。スカラーでなければなりません。 |
ベータ1 | 勢い要因。スカラーでなければなりません。 |
ベータ2 | 勢い要因。スカラーでなければなりません。 |
イプシロン | リッジ用語。スカラーでなければなりません。 |
卒業生 | グラデーション。 |
オプション | オプションの属性値を持ちます |
返品
- applyAdam の新しいインスタンス
public static applyAdam.Options useLocking (ブール型 useLocking)
パラメータ
使用ロック | 「True」の場合、var、m、および v テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。 |
---|
public static applyAdam.Options useNesterov (ブール型 useNesterov)
パラメータ
使用ネステロフ | 「True」の場合、nesterov アップデートを使用します。 |
---|