عملیات آموزشی
خلاصه
کلاس ها | |
---|---|
tensorflow:: ops:: ApplyAdadelta | "*var" را طبق طرح adadelta به روز کنید. |
tensorflow:: ops:: ApplyAdagrad | "*var" را طبق طرح adagrad به روز کنید. |
tensorflow:: ops:: ApplyAdagradDA | "*var" را طبق طرح آداگراد پروگزیمال به روز کنید. |
tensorflow:: ops:: ApplyAdam | "*var" را طبق الگوریتم Adam به روز کنید. |
tensorflow:: ops:: ApplyAddSign | "*var" را مطابق به روز رسانی AddSign به روز کنید. |
tensorflow:: ops:: ApplyCenteredRMSProp | "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید. |
tensorflow:: ops:: ApplyFtrl | "*var" را طبق طرح Ftrl-proximal به روز کنید. |
tensorflow:: ops:: ApplyFtrlV2 | "*var" را طبق طرح Ftrl-proximal به روز کنید. |
tensorflow:: ops:: ApplyGradientDescent | «*var» را با کم کردن «alpha» * «delta» از آن بهروزرسانی کنید. |
tensorflow:: ops:: ApplyMomentum | "*var" را مطابق طرح حرکت به روز کنید. |
tensorflow:: ops:: ApplyPowerSign | "*var" را مطابق به روز رسانی AddSign به روز کنید. |
tensorflow:: ops:: ApplyProximalAdagrad | «*var» و «*accum» را مطابق با FOBOS با نرخ یادگیری Adagrad بهروزرسانی کنید. |
tensorflow:: ops:: ApplyProximalGradientDescent | "*var" را به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت به روز کنید. |
tensorflow:: ops:: ApplyRMSProp | "*var" را طبق الگوریتم RMSProp به روز کنید. |
tensorflow:: ops:: ResourceApplyAdadelta | "*var" را طبق طرح adadelta به روز کنید. |
tensorflow:: ops:: ResourceApplyAdagrad | "*var" را طبق طرح adagrad به روز کنید. |
tensorflow:: ops:: ResourceApplyAdagradDA | "*var" را طبق طرح آداگراد پروگزیمال به روز کنید. |
tensorflow:: ops:: ResourceApplyAdam | "*var" را طبق الگوریتم Adam به روز کنید. |
tensorflow:: ops:: ResourceApplyAdamWithAmsgrad | "*var" را طبق الگوریتم Adam به روز کنید. |
tensorflow:: ops:: ResourceApplyAddSign | "*var" را مطابق به روز رسانی AddSign به روز کنید. |
tensorflow:: ops:: ResourceApplyCenteredRMSProp | "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید. |
tensorflow:: ops:: ResourceApplyFtrl | "*var" را طبق طرح Ftrl-proximal به روز کنید. |
tensorflow:: ops:: ResourceApplyFtrlV2 | "*var" را طبق طرح Ftrl-proximal به روز کنید. |
tensorflow:: ops:: ResourceApplyGradientDescent | «*var» را با کم کردن «alpha» * «delta» از آن بهروزرسانی کنید. |
tensorflow:: ops:: ResourceApplyKerasMomentum | "*var" را مطابق طرح حرکت به روز کنید. |
tensorflow:: ops:: ResourceApplyMomentum | "*var" را مطابق طرح حرکت به روز کنید. |
tensorflow:: ops:: ResourceApplyPowerSign | "*var" را مطابق به روز رسانی AddSign به روز کنید. |
tensorflow:: ops:: ResourceApplyProximalAdagrad | «*var» و «*accum» را مطابق با FOBOS با نرخ یادگیری Adagrad بهروزرسانی کنید. |
tensorflow:: ops:: ResourceApplyProximalGradientDescent | "*var" را به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت به روز کنید. |
tensorflow:: ops:: ResourceApplyRMSProp | "*var" را طبق الگوریتم RMSProp به روز کنید. |
tensorflow:: ops:: ResourceSparseApplyAdadelta | var: باید از یک متغیر () باشد. |
tensorflow:: ops:: ResourceSparseApplyAdagrad | طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید. |
tensorflow:: ops:: ResourceSparseApplyAdagradDA | ورودیهای «*var» و «*accum» را طبق طرح آداگراد پروگزیمال بهروزرسانی کنید. |
tensorflow:: ops:: ResourceSparseApplyCenteredRMSProp | "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید. |
tensorflow:: ops:: ResourceSparseApplyFtrl | ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید. |
tensorflow:: ops:: ResourceSparseApplyFtrlV2 | ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید. |
tensorflow:: ops:: ResourceSparseApplyKerasMomentum | طبق طرح حرکت، ورودیهای مربوطه را در «*var» و «*accum» بهروزرسانی کنید. |
tensorflow:: ops:: ResourceSparseApplyMomentum | طبق طرح حرکت، ورودیهای مربوطه را در «*var» و «*accum» بهروزرسانی کنید. |
tensorflow:: ops:: ResourceSparseApplyProximalAdagrad | ورودی های به روز رسانی پراکنده در '*var' و '*accum' طبق الگوریتم FOBOS. |
tensorflow:: ops:: ResourceSparseApplyProximalGradientDescent | بهروزرسانی پراکنده '*var' به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت. |
tensorflow:: ops:: ResourceSparseApplyRMSProp | "*var" را طبق الگوریتم RMSProp به روز کنید. |
tensorflow:: ops:: SparseApplyAdadelta | var: باید از یک متغیر () باشد. |
tensorflow:: ops:: SparseApplyAdagrad | طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید. |
tensorflow:: ops:: SparseApplyAdagradDA | ورودیهای «*var» و «*accum» را طبق طرح آداگراد پروگزیمال بهروزرسانی کنید. |
tensorflow:: ops:: SparseApplyCenteredRMSProp | "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید. |
tensorflow:: ops:: SparseApplyFtrl | ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید. |
tensorflow:: ops:: SparseApplyFtrlV2 | ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید. |
tensorflow:: ops:: SparseApplyMomentum | طبق طرح حرکت، ورودیهای مربوطه را در «*var» و «*accum» بهروزرسانی کنید. |
tensorflow:: ops:: SparseApplyProximalAdagrad | ورودی های به روز رسانی پراکنده در '*var' و '*accum' طبق الگوریتم FOBOS. |
tensorflow:: ops:: SparseApplyProximalGradientDescent | بهروزرسانی پراکنده '*var' به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت. |
tensorflow:: ops:: SparseApplyRMSProp | "*var" را طبق الگوریتم RMSProp به روز کنید. |