org.tensorflow.framework.optimizers
با مجموعهها، منظم بمانید
ذخیره و دستهبندی محتوا براساس اولویتهای شما.
کلاس ها
AdaDelta | بهینه ساز که الگوریتم Adadelta را پیاده سازی می کند. |
آداگراد | بهینه ساز که الگوریتم Adagrad را پیاده سازی می کند. |
AdaGradDA | بهینه ساز که الگوریتم میانگین دوگانه Adagrad را پیاده سازی می کند. |
آدم | بهینه ساز که الگوریتم Adam را پیاده سازی می کند. |
آداماکس | بهینه ساز که الگوریتم Adamax را پیاده سازی می کند. |
Ftrl | بهینه ساز که الگوریتم FTRL را پیاده سازی می کند. |
GradientDescent | بهینه ساز پایه شیب نزولی Stochastic. |
تکانه | نزول شیب تصادفی به اضافه تکانه، نستروف یا سنتی. |
نادام | بهینه ساز Nadam که الگوریتم NAdam را پیاده سازی می کند. |
بهینه ساز | کلاس پایه برای بهینه سازهای گرادیان. |
Optimizer.GradAndVar <T TType > را گسترش می دهد | کلاسی که دارای یک گرادیان و متغیر جفتی است. |
Optimizer.Options | ویژگی های اختیاری برای Optimizer |
RMSProp | بهینه ساز که الگوریتم RMSProp را پیاده سازی می کند. |
Enums
بهینه سازها | Enumerator برای ایجاد یک بهینه ساز جدید با پارامترهای پیش فرض استفاده می شود. |
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2024-10-31 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2024-10-31 بهوقت ساعت هماهنگ جهانی."],[],[]]