クラス |
---|
tensorflow::ops::ApplyAdadelta | adadelta スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyAdagrad | adagrad スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyAdagradDA | 近位の adagrad スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyAdam | Adam アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::ApplyAddSign | AddSign の更新に従って「*var」を更新します。 |
tensorflow:: ops::ApplyCenteredRMSProp | 中心の RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::ApplyFtrl | Ftrl-proximal スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyFtrlV2 | Ftrl-proximal スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyGradientDescent | '*var' から 'alpha' * 'delta' を減算して更新します。 |
tensorflow::ops::ApplyMomentum | 運動量スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyPowerSign | AddSign の更新に従って「*var」を更新します。 |
tensorflow:: ops:: applyProximalAdagrad | Adagrad 学習率の FOBOS に従って「*var」と「*accum」を更新します。 |
tensorflow:: ops:: applyProximalGradientDescent | 「*var」を固定学習率の FOBOS アルゴリズムとして更新します。 |
tensorflow::ops::ApplyRMSProp | RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyAdadelta | adadelta スキームに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyAdagrad | adagrad スキームに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyAdagradDA | 近位の adagrad スキームに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyAdam | Adam アルゴリズムに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyAdamWithAmsgrad | Adam アルゴリズムに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyAddSign | AddSign の更新に従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyCenteredRMSProp | 中心の RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyFtrl | Ftrl-proximal スキームに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyFtrlV2 | Ftrl-proximal スキームに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyGradientDescent | '*var' から 'alpha' * 'delta' を減算して更新します。 |
tensorflow:: ops:: ResourceApplyKerasMomentum | 運動量スキームに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyMomentum | 運動量スキームに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyPowerSign | AddSign の更新に従って「*var」を更新します。 |
tensorflow:: ops:: ResourceApplyProximalAdagrad | Adagrad 学習率の FOBOS に従って「*var」と「*accum」を更新します。 |
tensorflow:: ops:: ResourceApplyProximalGradientDescent | 「*var」を固定学習率の FOBOS アルゴリズムとして更新します。 |
tensorflow:: ops:: ResourceApplyRMSProp | RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceSparseApplyAdadelta | var: Variable() から取得する必要があります。 |
tensorflow:: ops:: ResourceSparseApplyAdagrad | adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。 |
tensorflow:: ops:: ResourceSparseApplyAdagradDA | 近位の adagrad スキームに従って、「*var」と「*accum」のエントリを更新します。 |
tensorflow:: ops:: ResourceSparseApplyCenteredRMSProp | 中心の RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow:: ops:: ResourceSparseApplyFtrl | Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。 |
tensorflow:: ops:: ResourceSparseApplyFtrlV2 | Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。 |
tensorflow:: ops:: ResourceSparseApplyKerasMomentum | モメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。 |
tensorflow:: ops:: ResourceSparseApplyMomentum | モメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。 |
tensorflow:: ops:: ResourceSparseApplyProximalAdagrad | FOBOS アルゴリズムに従って、'*var' および '*accum' 内のスパース更新エントリ。 |
tensorflow:: ops:: ResourceSparseApplyProximalGradientDescent | 学習率が固定された FOBOS アルゴリズムとして「*var」をスパース更新します。 |
tensorflow:: ops:: ResourceSparseApplyRMSProp | RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow:: ops:: SparseApplyAdadelta | var: Variable() から取得する必要があります。 |
tensorflow:: ops:: SparseApplyAdagrad | adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。 |
tensorflow:: ops:: SparseApplyAdagradDA | 近位の adagrad スキームに従って、「*var」と「*accum」のエントリを更新します。 |
tensorflow:: ops:: SparseApplyCenteredRMSProp | 中心の RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow:: ops:: SparseApplyFtrl | Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。 |
tensorflow:: ops:: SparseApplyFtrlV2 | Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。 |
tensorflow:: ops:: SparseApplyMomentum | モメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。 |
tensorflow:: ops:: SparseApplyProximalAdagrad | FOBOS アルゴリズムに従って、'*var' および '*accum' 内のスパース更新エントリ。 |
tensorflow:: ops:: SparseApplyProximalGradientDescent | 学習率が固定された FOBOS アルゴリズムとして「*var」をスパース更新します。 |
tensorflow:: ops:: SparseApplyRMSProp | RMSProp アルゴリズムに従って「*var」を更新します。 |