کلاس نهایی عمومی ResourceSparseApplyAdagradDa
ورودیهای «*var» و «*accum» را طبق طرح آداگراد پروگزیمال بهروزرسانی کنید.
کلاس های تو در تو
کلاس | ResourceSparseApplyAdagradDa.Options | ویژگی های اختیاری برای ResourceSparseApplyAdagradDa |
ثابت ها
رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود |
روش های عمومی
static <T TType > ResourceSparseApplyAdagradDa را گسترش می دهد | ایجاد ( دامنه دامنه ، عملوند <?> var، عملوند <?> gradientAccumulator، عملوند <?> gradientSquaredAccumulator، عملوند <T> grad، عملوند <? گسترش TNumber > شاخص ها، عملوند <T> lr، عملوند <T> l1، عملوند <T> l2، عملوند < TINT64 > globalStep، گزینهها... گزینهها) روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceSparseApplyAdagradDa جدید را بسته بندی می کند. |
static ResourceSparseApplyAdagradDa.Options | useLocking (قفل کردن استفاده بولی) |
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
مقدار ثابت: "ResourceSparseApplyAdagradDA"
روش های عمومی
عمومی static ResourceSparseApplyAdagradDa ایجاد ( دامنه دامنه ، عملوند <?> var، عملوند <?> gradientAccumulator، عملوند <?> gradientSquaredAccumulator، عملوند <T> grad، عملوند <? گسترش TNumber > شاخص ها، عملوند <T> lr، عملوند <T> l1، عملوند <T> l2، عملوند < TINT64 > globalStep، گزینهها... گزینهها)
روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceSparseApplyAdagradDa جدید را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
var | باید از یک متغیر () باشد. |
gradient accumulator | باید از یک متغیر () باشد. |
gradientSquaredAccumulator | باید از یک متغیر () باشد. |
درجه | گرادیان. |
شاخص ها | بردار شاخص ها در بعد اول var و accum. |
lr | میزان یادگیری باید اسکالر باشد. |
l1 | تنظیم L1. باید اسکالر باشد. |
l2 | تنظیم L2. باید اسکالر باشد. |
globalStep | شماره مرحله آموزش باید اسکالر باشد. |
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از ResourceSparseApplyAdagradDa
Public Static ResourceSparseApplyAdagradDa.Options useLocking (useLocking بولی)
مولفه های
استفاده از قفل کردن | اگر درست باشد، بهروزرسانی تانسورهای var و accum توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد. |
---|