"*var" را طبق الگوریتم AdaMax به روز کنید.
m_t <- beta1 * m_{t-1} + (1 - beta1) * g v_t <- max(beta2 * v_{t-1}, abs(g)) متغیر <- متغیر - نرخ_آموزش / (1 - beta1^ t) * m_t / (v_t + اپسیلون)
کلاس های تو در تو
کلاس | ApplyAdaMax.Options | ویژگی های اختیاری برای ApplyAdaMax |
ثابت ها
رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود |
روش های عمومی
خروجی <T> | asOutput () دسته نمادین تانسور را برمی گرداند. |
static <T TType > ApplyAdaMax <T> را گسترش می دهد | |
خروجی <T> | بیرون () همان "var". |
استاتیک ApplyAdaMax.Options | useLocking (قفل کردن استفاده بولی) |
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
روش های عمومی
خروجی عمومی <T> asOutput ()
دسته نمادین تانسور را برمی گرداند.
ورودی های عملیات TensorFlow خروجی های عملیات تنسورفلو دیگر هستند. این روش برای به دست آوردن یک دسته نمادین که نشان دهنده محاسبه ورودی است استفاده می شود.
استاتیک عمومی ApplyAdaMax <T> ایجاد ( دامنه دامنه ، عملوند <T> var، عملوند <T> m، عملوند <T> v، عملوند <T> beta1Power، عملوند <T> lr، عملوند <T> بتا1، عملوند <T> > beta2، Operand <T> epsilon، Operand <T> grad، Options... گزینهها)
روش کارخانه برای ایجاد کلاسی که عملیات ApplyAdaMax جدید را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
var | باید از یک متغیر () باشد. |
متر | باید از یک متغیر () باشد. |
v | باید از یک متغیر () باشد. |
beta1Power | باید اسکالر باشد. |
lr | ضریب پوسته پوسته شدن باید اسکالر باشد. |
بتا 1 | عامل حرکت. باید اسکالر باشد. |
بتا2 | عامل حرکت. باید اسکالر باشد. |
اپسیلون | ترم ریج. باید اسکالر باشد. |
درجه | گرادیان. |
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از ApplyAdaMax
عمومی استاتیک ApplyAdaMax.Options useLocking (قفل کردن استفاده بولی)
مولفه های
استفاده از قفل کردن | اگر «درست» باشد، بهروزرسانی تانسورهای var، m و v توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد. |
---|