SparseApplyProximalGradientDescent

کلاس نهایی عمومی SparseApplyProximalGradientDescent

به‌روزرسانی پراکنده '*var' به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت.

یعنی برای ردیف هایی که grad داریم، var را به صورت زیر به روز می کنیم: $$prox_v = var - alpha grad$$$$var = sign(prox_v)/(1+alphal2) max{|prox_v|-alphal1,0}$$

کلاس های تو در تو

کلاس SparseApplyProximalGradientDescent.Options ویژگی های اختیاری برای SparseApplyProximalGradientDescent

ثابت ها

رشته OP_NAME نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

روش های عمومی

خروجی <T>
asOutput ()
دسته نمادین تانسور را برمی‌گرداند.
استاتیک <T گسترش TType > SparseApplyProximalGradientDescent <T>
ایجاد ( دامنه دامنه ، عملوند <T> var، عملوند <T> آلفا، عملوند <T> l1، عملوند <T> l2، عملوند <T> grad، عملوند <? گسترش TNumber > شاخص‌ها، گزینه‌ها... گزینه‌ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات جدید SparseApplyProximalGradientDescent را بسته بندی می کند.
خروجی <T>
بیرون ()
همان "var".
Static SparseApplyProximalGradientDescent.Options
useLocking (قفل کردن استفاده بولی)

روش های ارثی

ثابت ها

رشته نهایی ثابت عمومی OP_NAME

نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

مقدار ثابت: "SparseApplyProximalGradientDescent"

روش های عمومی

خروجی عمومی <T> asOutput ()

دسته نمادین تانسور را برمی‌گرداند.

ورودی های عملیات TensorFlow خروجی های عملیات تنسورفلو دیگر هستند. این روش برای به دست آوردن یک دسته نمادین که نشان دهنده محاسبه ورودی است استفاده می شود.

عمومی استاتیک SparseApplyProximalGradientDescent <T> ایجاد ( دامنه دامنه ، عملوند <T> var، عملوند <T> آلفا، عملوند <T> l1، عملوند <T> l2، عملوند <T> grad، عملوند <? گسترش TNumber > شاخص‌ها، گزینه‌ها ... گزینه ها)

روش کارخانه برای ایجاد کلاسی که یک عملیات جدید SparseApplyProximalGradientDescent را بسته بندی می کند.

پارامترها
دامنه محدوده فعلی
var باید از یک متغیر () باشد.
آلفا ضریب پوسته پوسته شدن باید اسکالر باشد.
l1 تنظیم L1. باید اسکالر باشد.
l2 تنظیم L2. باید اسکالر باشد.
درجه گرادیان.
شاخص ها بردار شاخص ها در بعد اول var و accum.
گزینه ها مقادیر ویژگی های اختیاری را حمل می کند
برمی گرداند
  • یک نمونه جدید از SparseApplyProximalGradientDescent

خروجی عمومی <T> خارج ()

همان "var".

عمومی استاتیک SparseApplyProximalGradientDescent.Options useLocking (useLocking بولی)

پارامترها
استفاده از قفل کردن اگر True باشد، تفریق با یک قفل محافظت می شود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد.