メンバー |
---|
Tensorflow :: ops :: ApplyAdadelta | Adadeltaスキームに従って「*var」を更新します。 |
Tensorflow :: ops :: ApplyAdagrad | Adagradスキームに従って「*var」を更新します。 |
Tensorflow :: ops :: ApplyAdagradda | 近位のアダグラードスキームに従って「*var」を更新します。 |
Tensorflow :: ops :: ApplyAdam | Adam アルゴリズムに従って「*var」を更新します。 |
Tensorflow :: ops :: ApplyAddsign | AddSignアップデートに従って「*var」を更新します。 |
tensorflow :: ops :: applycenteredrmsprop | 中心RMSPropアルゴリズムに従って「*var」を更新します。 |
Tensorflow :: ops :: applyftrl | ftrl-proximalスキームに従って「*var」を更新します。 |
Tensorflow :: ops :: applyftrlv2 | ftrl-proximalスキームに従って「*var」を更新します。 |
Tensorflow :: ops :: applygradientDescent | 「Alpha」 *「Delta」を差し引くことにより、「 * var」を更新します。 |
Tensorflow :: ops :: ApplyMomentum | Momentum Schemeに従って「*var」を更新します。 |
Tensorflow :: ops :: ApplyPowerSign | AddSignアップデートに従って「*var」を更新します。 |
Tensorflow :: ops :: applypromixaladagrad | Adagrad学習率を備えたFOBOSによると、「*var」と「*蓄積」を更新します。 |
tensorflow :: ops :: applyproximalgradientdescent | 固定学習率のFOBOSアルゴリズムとして「*var」を更新します。 |
tensorflow :: ops :: applyrmsprop | rmspropアルゴリズムに従って「*var」を更新します。 |
Tensorflow :: ops :: resourceapplyadadelta | Adadeltaスキームに従って「*var」を更新します。 |
Tensorflow :: ops :: resourceapplyadagrad | Adagradスキームに従って「*var」を更新します。 |
Tensorflow :: ops :: resourceapplyadagradda | 近位のアダグラードスキームに従って「*var」を更新します。 |
Tensorflow :: ops :: resourceapplyadam | Adam アルゴリズムに従って「*var」を更新します。 |
Tensorflow :: ops :: resourceapplyadamwithamsgrad | Adam アルゴリズムに従って「*var」を更新します。 |
Tensorflow :: ops :: resourceapplyaddsign | AddSignアップデートに従って「*var」を更新します。 |
tensorflow :: ops :: resourceapplycenteredrmsprop | 中心RMSPropアルゴリズムに従って「*var」を更新します。 |
Tensorflow :: ops :: resourceapplyftrl | ftrl-proximalスキームに従って「*var」を更新します。 |
Tensorflow :: ops :: resourceapplyftrlv2 | ftrl-proximalスキームに従って「*var」を更新します。 |
tensorflow :: ops :: resourceapplygradientdescent | 「Alpha」 *「Delta」を差し引くことにより、「 * var」を更新します。 |
Tensorflow :: ops :: resourceapplykerasmomentum | Momentum Schemeに従って「*var」を更新します。 |
Tensorflow :: ops :: resourceapplymomentum | Momentum Schemeに従って「*var」を更新します。 |
Tensorflow :: ops :: resourceapplypowersign | AddSignアップデートに従って「*var」を更新します。 |
Tensorflow :: ops :: resourceapplypromaladagrad | Adagrad学習率を備えたFOBOSによると、「*var」と「*蓄積」を更新します。 |
Tensorflow :: ops :: resourceapplypromalgradientdescent | 固定学習率のFOBOSアルゴリズムとして「*var」を更新します。 |
Tensorflow :: ops :: resourceapplyrmsprop | rmspropアルゴリズムに従って「*var」を更新します。 |
Tensorflow :: ops :: resourcesparseapplyadadelta | var:変数()からのものでなければなりません。 |
Tensorflow :: ops :: resourcesparseapplyadagrad | Adagradスキームに従って、「*var」および「*ascum」の関連するエントリを更新します。 |
Tensorflow :: ops :: resourcesparseapplyadagradda | 近位のAdagradスキームに従って、「*var」および「*Accum」のエントリを更新します。 |
Tensorflow :: ops :: resourcesparseapplycenteredrmsprop | 中心RMSPropアルゴリズムに従って「*var」を更新します。 |
Tensorflow :: ops :: resourcesparseapplyftrl | ftrl-proximalスキームに従って、「*var」の関連するエントリを更新します。 |
Tensorflow :: ops :: resourcesparseapplyftrlv2 | ftrl-proximalスキームに従って、「*var」の関連するエントリを更新します。 |
Tensorflow :: ops :: resourcesparseapplykerasmomentum | Momentum Schemeに従って、「*var」および「*Accum」の関連するエントリを更新します。 |
Tensorflow :: ops :: resourcesparseapplymomentum | Momentum Schemeに従って、「*var」および「*Accum」の関連するエントリを更新します。 |
Tensorflow :: ops :: resourcesparseapplypromaladagrad | FOBOSアルゴリズムに従って、「*var」および「*蓄積」のスパースアップデートエントリ。 |
Tensorflow :: ops :: resourcesparseapplypromalgradientdescent | 固定学習率を持つFOBOSアルゴリズムとしてのスパースアップデート '*var'。 |
tensorflow :: ops :: resourcesparseapplyrmsprop | rmspropアルゴリズムに従って「*var」を更新します。 |
Tensorflow :: ops :: Sparseapplyadadelta | var:変数()からのものでなければなりません。 |
Tensorflow :: ops :: Sparseapplyadagrad | Adagradスキームに従って、「*var」および「*ascum」の関連するエントリを更新します。 |
Tensorflow :: ops :: Sparseapplyadagradda | 近位のAdagradスキームに従って、「*var」および「*Accum」のエントリを更新します。 |
Tensorflow :: ops :: sparseapplycenteredrmsprop | 中心RMSPropアルゴリズムに従って「*var」を更新します。 |
Tensorflow :: ops :: Sparseapplyftrl | ftrl-proximalスキームに従って、「*var」の関連するエントリを更新します。 |
Tensorflow :: ops :: sparseapplyftrlv2 | ftrl-proximalスキームに従って、「*var」の関連するエントリを更新します。 |
Tensorflow :: ops :: sparseapplymomentum | Momentum Schemeに従って、「*var」および「*Accum」の関連するエントリを更新します。 |
Tensorflow :: ops :: Sparseapplypromaladagrad | FOBOSアルゴリズムに従って、「*var」および「*蓄積」のスパースアップデートエントリ。 |
Tensorflow :: ops :: sparseapplypromixalgradientdescent | 固定学習率を持つFOBOSアルゴリズムとしてのスパースアップデート '*var'。 |
Tensorflow :: ops :: sparseapplyrmsprop | rmspropアルゴリズムに従って「*var」を更新します。 |