メンバー |
---|
tensorflow::ops::ApplyAdadelta | adadelta スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyAdagrad | adagrad スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyAdagradDA | 近位の adagrad スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyAdam | Adam アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::ApplyAddSign | AddSign の更新に従って「*var」を更新します。 |
tensorflow::ops::ApplyCenteredRMSProp | 中心の RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::ApplyFtrl | Ftrl-proximal スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyFtrlV2 | Ftrl-proximal スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyGradientDescent | '*var' から 'alpha' * 'delta' を減算して更新します。 |
tensorflow::ops::ApplyMomentum | 運動量スキームに従って「*var」を更新します。 |
tensorflow::ops::ApplyPowerSign | AddSign の更新に従って「*var」を更新します。 |
tensorflow::ops::ApplyProximalAdagrad | Adagrad 学習率の FOBOS に従って「*var」と「*accum」を更新します。 |
tensorflow::ops::ApplyProximalGradientDescent | 「*var」を固定学習率の FOBOS アルゴリズムとして更新します。 |
tensorflow::ops::ApplyRMSProp | RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyAdadelta | adadelta スキームに従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyAdagrad | adagrad スキームに従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyAdagradDA | 近位の adagrad スキームに従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyAdam | Adam アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyAdamWithAmsgrad | Adam アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyAddSign | AddSign の更新に従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyCenteredRMSProp | 中心の RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyFtrl | Ftrl-proximal スキームに従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyFtrlV2 | Ftrl-proximal スキームに従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyGradientDescent | '*var' から 'alpha' * 'delta' を減算して更新します。 |
tensorflow::ops::ResourceApplyKerasMomentum | 運動量スキームに従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyMomentum | 運動量スキームに従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyPowerSign | AddSign の更新に従って「*var」を更新します。 |
tensorflow::ops::ResourceApplyProximalAdagrad | Adagrad 学習率の FOBOS に従って「*var」と「*accum」を更新します。 |
tensorflow::ops::ResourceApplyProximalGradientDescent | 「*var」を固定学習率の FOBOS アルゴリズムとして更新します。 |
tensorflow::ops::ResourceApplyRMSProp | RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::ResourceSparseApplyAdadelta | var: Variable() から取得する必要があります。 |
tensorflow::ops::ResourceSparseApplyAdagrad | adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。 |
tensorflow::ops::ResourceSparseApplyAdagradDA | 近位の adagrad スキームに従って、「*var」と「*accum」のエントリを更新します。 |
tensorflow::ops::ResourceSparseApplyCenteredRMSProp | 中心の RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::ResourceSparseApplyFtrl | Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。 |
tensorflow::ops::ResourceSparseApplyFtrlV2 | Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。 |
tensorflow::ops::ResourceSparseApplyKerasMomentum | モメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。 |
tensorflow::ops::ResourceSparseApplyMomentum | モメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。 |
tensorflow::ops::ResourceSparseApplyProximalAdagrad | FOBOS アルゴリズムに従って、'*var' および '*accum' 内のスパース更新エントリ。 |
tensorflow::ops::ResourceSparseApplyProximalGradientDescent | 学習率が固定された FOBOS アルゴリズムとして「*var」をスパース更新します。 |
tensorflow::ops::ResourceSparseApplyRMSProp | RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::SparseApplyAdadelta | var: Variable() から取得する必要があります。 |
tensorflow::ops::SparseApplyAdagrad | adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。 |
tensorflow::ops::SparseApplyAdagradDA | 近位の adagrad スキームに従って、「*var」と「*accum」のエントリを更新します。 |
tensorflow::ops::SparseApplyCenteredRMSProp | 中心の RMSProp アルゴリズムに従って「*var」を更新します。 |
tensorflow::ops::SparseApplyFtrl | Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。 |
tensorflow::ops::SparseApplyFtrlV2 | Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。 |
tensorflow::ops::SparseApplyMomentum | モメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。 |
tensorflow::ops::SparseApplyProximalAdagrad | FOBOS アルゴリズムに従って、'*var' および '*accum' 内のスパース更新エントリ。 |
tensorflow::ops::SparseApplyProximalGradientDescent | 学習率が固定された FOBOS アルゴリズムとして「*var」をスパース更新します。 |
tensorflow::ops::SparseApplyRMSProp | RMSProp アルゴリズムに従って「*var」を更新します。 |