Eğitim Operasyonları
Özet
Sınıflar | |
---|---|
tensorflow:: ops:: ApplyAdadelta | '*var'ı adadelta şemasına göre güncelleyin. |
tensorflow:: ops:: ApplyAdagrad | Adagrad şemasına göre '*var'ı güncelleyin. |
tensorflow:: ops:: ApplyAdagradDA | '*var'ı proksimal adagrad şemasına göre güncelleyin. |
tensorflow:: ops:: ApplyAdam | '*var'ı Adam algoritmasına göre güncelleyin. |
tensorflow:: ops:: ApplyAddSign | AddSign güncellemesine göre '*var'ı güncelleyin. |
tensorflow:: ops:: ApplyCenteredRMSPProp | '*var'ı ortalanmış RMSProp algoritmasına göre güncelleyin. |
tensorflow:: ops:: ApplyFtrl | '*var'ı Ftrl-proximal şemasına göre güncelleyin. |
tensorflow:: ops:: ApplyFtrlV2 | '*var'ı Ftrl-proximal şemasına göre güncelleyin. |
tensorflow:: ops:: ApplyGradientDescent | '*var'ı bundan 'alpha' * 'delta'yı çıkararak güncelleyin. |
tensorflow:: ops:: ApplyMomentum | Momentum şemasına göre '*var'ı güncelleyin. |
tensorflow:: ops:: ApplyPowerSign | AddSign güncellemesine göre '*var'ı güncelleyin. |
tensorflow:: ops:: ApplyProximalAdagrad | '*var' ve '*accum' değerlerini Adagrad öğrenme oranıyla FOBOS'a göre güncelleyin. |
tensorflow:: ops:: ApplyProximalGradientDescent | '*var'ı sabit öğrenme oranına sahip FOBOS algoritması olarak güncelleyin. |
tensorflow:: ops:: ApplyRMSProp | '*var'ı RMSProp algoritmasına göre güncelleyin. |
tensorflow:: ops:: ResourceApplyAdadelta | '*var'ı adadelta şemasına göre güncelleyin. |
tensorflow:: ops:: ResourceApplyAdagrad | Adagrad şemasına göre '*var'ı güncelleyin. |
tensorflow:: ops:: ResourceApplyAdagradDA | '*var'ı proksimal adagrad şemasına göre güncelleyin. |
tensorflow:: ops:: ResourceApplyAdam | '*var'ı Adam algoritmasına göre güncelleyin. |
tensorflow:: ops:: ResourceApplyAdamWithAmsgrad | '*var'ı Adam algoritmasına göre güncelleyin. |
tensorflow:: ops:: ResourceApplyAddSign | AddSign güncellemesine göre '*var'ı güncelleyin. |
tensorflow:: ops:: ResourceApplyCenteredRMSPProp | '*var'ı ortalanmış RMSProp algoritmasına göre güncelleyin. |
tensorflow:: ops:: ResourceApplyFtrl | '*var'ı Ftrl-proximal şemasına göre güncelleyin. |
tensorflow:: ops:: ResourceApplyFtrlV2 | '*var'ı Ftrl-proximal şemasına göre güncelleyin. |
tensorflow:: ops:: ResourceApplyGradientDescent | '*var'ı bundan 'alpha' * 'delta'yı çıkararak güncelleyin. |
tensorflow:: ops:: ResourceApplyKerasMomentum | Momentum şemasına göre '*var'ı güncelleyin. |
tensorflow:: ops:: ResourceApplyMomentum | Momentum şemasına göre '*var'ı güncelleyin. |
tensorflow:: ops:: ResourceApplyPowerSign | AddSign güncellemesine göre '*var'ı güncelleyin. |
tensorflow:: ops:: ResourceApplyProximalAdagrad | '*var' ve '*accum' değerlerini Adagrad öğrenme oranıyla FOBOS'a göre güncelleyin. |
tensorflow:: ops:: ResourceApplyProximalGradientDescent | '*var'ı sabit öğrenme oranına sahip FOBOS algoritması olarak güncelleyin. |
tensorflow:: ops:: ResourceApplyRMSPProp | '*var'ı RMSProp algoritmasına göre güncelleyin. |
tensorflow:: ops:: ResourceSparseApplyAdadelta | var: Bir Variable()'dan olmalıdır. |
tensorflow:: ops:: ResourceSparseApplyAdagrad | Adagrad şemasına göre '*var' ve '*accum'daki ilgili girişleri güncelleyin. |
tensorflow:: ops:: ResourceSparseApplyAdagradDA | '*var' ve '*accum' içindeki girişleri yakınsal adagrad şemasına göre güncelleyin. |
tensorflow:: ops:: ResourceSparseApplyCenteredRMSProp | '*var'ı ortalanmış RMSProp algoritmasına göre güncelleyin. |
tensorflow:: ops:: ResourceSparseApplyFtrl | '*var' içindeki ilgili girişleri Ftrl-proximal şemasına göre güncelleyin. |
tensorflow:: ops:: ResourceSparseApplyFtrlV2 | '*var' içindeki ilgili girişleri Ftrl-proximal şemasına göre güncelleyin. |
tensorflow:: ops:: ResourceSparseApplyKerasMomentum | Momentum şemasına göre '*var' ve '*accum'daki ilgili girişleri güncelleyin. |
tensorflow:: ops:: ResourceSparseApplyMomentum | Momentum şemasına göre '*var' ve '*accum'daki ilgili girişleri güncelleyin. |
tensorflow:: ops:: ResourceSparseApplyProximalAdagrad | FOBOS algoritmasına göre '*var' ve '*accum' içindeki seyrek güncelleme girişleri. |
tensorflow:: ops:: ResourceSparseApplyProximalGradientDescent | Sabit öğrenme oranına sahip FOBOS algoritması olarak seyrek güncelleme '*var'. |
tensorflow:: ops:: ResourceSparseApplyRMSPProp | '*var'ı RMSProp algoritmasına göre güncelleyin. |
tensorflow:: ops:: SparseApplyAdadelta | var: Bir Variable()'dan olmalıdır. |
tensorflow:: ops:: SparseApplyAdagrad | Adagrad şemasına göre '*var' ve '*accum'daki ilgili girişleri güncelleyin. |
tensorflow:: ops:: SparseApplyAdagradDA | '*var' ve '*accum' içindeki girişleri yakınsal adagrad şemasına göre güncelleyin. |
tensorflow:: ops:: SparseApplyCenteredRMSPProp | '*var'ı ortalanmış RMSProp algoritmasına göre güncelleyin. |
tensorflow:: ops:: SparseApplyFtrl | '*var' içindeki ilgili girişleri Ftrl-proximal şemasına göre güncelleyin. |
tensorflow:: ops:: SparseApplyFtrlV2 | '*var' içindeki ilgili girişleri Ftrl-proximal şemasına göre güncelleyin. |
tensorflow:: ops:: SparseApplyMomentum | Momentum şemasına göre '*var' ve '*accum'daki ilgili girişleri güncelleyin. |
tensorflow:: ops:: SparseApplyProximalAdagrad | FOBOS algoritmasına göre '*var' ve '*accum' içindeki seyrek güncelleme girişleri. |
tensorflow:: ops:: SparseApplyProximalGradientDescent | Sabit öğrenme oranına sahip FOBOS algoritması olarak seyrek güncelleme '*var'. |
tensorflow:: ops:: SparseApplyRMSPProp | '*var'ı RMSProp algoritmasına göre güncelleyin. |