کلاس نهایی عمومی ResourceSparseApplyAdagradV2
طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید.
یعنی برای ردیف هایی که برای آنها grad داریم، var و accum را به صورت زیر به روز می کنیم: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
کلاس های تو در تو
کلاس | ResourceSparseApplyAdagradV2.Options | ویژگی های اختیاری برای ResourceSparseApplyAdagradV2 |
ثابت ها
رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود |
روش های عمومی
static <T TType > ResourceSparseApplyAdagradV2 را گسترش می دهد | |
Static ResourceSparseApplyAdagradV2.Options | UpdateSlots (Bolean updateSlots) |
Static ResourceSparseApplyAdagradV2.Options | useLocking (قفل کردن استفاده بولی) |
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
مقدار ثابت: "ResourceSparseApplyAdagradV2"
روش های عمومی
عمومی static ResourceSparseApplyAdagradV2 ایجاد ( دامنه دامنه ، عملوند <?> var، عملوند <?> accum، عملوند <T> lr، عملوند <T> اپسیلون، عملوند <T> grad، عملوند <? گسترش TNumber > شاخصها، گزینهها... گزینه ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceSparseApplyAdagradV2 جدید را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
var | باید از یک متغیر () باشد. |
تجمع | باید از یک متغیر () باشد. |
lr | میزان یادگیری باید اسکالر باشد. |
اپسیلون | عامل ثابت. باید اسکالر باشد. |
درجه | گرادیان. |
شاخص ها | بردار شاخص ها در بعد اول var و accum. |
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از ResourceSparseApplyAdagradV2
Public Static ResourceSparseApplyAdagradV2.Options useLocking (useLocking بولی)
مولفه های
استفاده از قفل کردن | اگر «درست» باشد، بهروزرسانی تانسور var و accum توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد. |
---|