パブリック クラスAdaGrad
Adagrad アルゴリズムを実装するオプティマイザー。
Adagrad は、トレーニング中にパラメーターが更新される頻度に応じて調整される、パラメーター固有の学習率を備えたオプティマイザーです。パラメータが受け取る更新が多くなるほど、更新の量は小さくなります。
定数
弦 | アキュムレータ | |
浮く | INITIAL_ACCUMULATOR_DEFAULT | |
浮く | 学習_レート_デフォルト |
継承された定数
パブリックコンストラクター
パブリックメソッド
弦 | getOptimizerName () オプティマイザーの名前を取得します。 |
弦 | toString () |
継承されたメソッド
定数
public static Final String ACCUMULATOR
定数値: 「アキュムレータ」
パブリック静的最終フロートINITIAL_ACCUMULATOR_DEFAULT
定数値: 0.01
パブリック静的最終フロートLEARNING_RATE_DEFAULT
定数値: 0.001
パブリックコンストラクター
public AdaGrad ( Graphグラフ、float learningRate、floatInitialAccumulatorValue)
AdaGrad オプティマイザーを作成します
パラメーター
グラフ | TensorFlow グラフ |
---|---|
学習率 | 学習率 |
初期アキュムレータ値 | アキュムレータの開始値は負でない必要があります。 |
投げる
IllegalArgumentException | InitialAccumulatorValue が負の場合 |
---|
public AdaGrad (グラフグラフ、文字列名、float learningRate)
AdaGrad オプティマイザーを作成します
パラメーター
グラフ | TensorFlow グラフ |
---|---|
名前 | このオプティマイザーの名前 (デフォルトは「Adagrad」) |
学習率 | 学習率 |
public AdaGrad (グラフグラフ、文字列名、float learningRate、floatInitialAccumulatorValue)
AdaGrad オプティマイザーを作成します
パラメーター
グラフ | TensorFlow グラフ |
---|---|
名前 | このオプティマイザーの名前 (デフォルトは「Adagrad」) |
学習率 | 学習率 |
初期アキュムレータ値 | アキュムレータの開始値は負でない必要があります。 |
投げる
IllegalArgumentException | InitialAccumulatorValue が負の場合 |
---|
パブリックメソッド
public String getOptimizerName ()
オプティマイザーの名前を取得します。
戻り値
- オプティマイザーの名前。