الفئة النهائية العامة ResourceApplyProximalAdagrad
قم بتحديث '*var' و'*accum' وفقًا لـ FOBOS بمعدل تعلم Adagrad.
تراكم += غراد prox_v = var - lr grad (1 / sqrt(accum)) var = Sign(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}
فئات متداخلة
فصل | ResourceApplyProximalAdagrad.Options | السمات الاختيارية لـ ResourceApplyProximalAdagrad |
الثوابت
خيط | OP_NAME | اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي |
الأساليب العامة
ثابت <T يمتد TType > ResourceApplyProximalAdagrad | |
ResourceApplyProximalAdagrad.Options ثابت | useLocking (استخدام منطقي منطقي) |
الطرق الموروثة
الثوابت
السلسلة النهائية الثابتة العامة OP_NAME
اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي
القيمة الثابتة: "ResourceApplyProximalAdagrad"
الأساليب العامة
إنشاء ResourceApplyProximalAdagrad الثابت العام ( نطاق النطاق، المعامل <?> var، المعامل <?> تراكم، المعامل <T> lr، المعامل <T> l1، المعامل <T> l2، المعامل <T> grad، خيارات... خيارات)
طريقة المصنع لإنشاء فئة تلتف حول عملية ResourceApplyProximalAdagrad جديدة.
حدود
نِطَاق | النطاق الحالي |
---|---|
فار | يجب أن يكون من متغير (). |
تراكم | يجب أن يكون من متغير (). |
lr | عامل التحجيم. يجب أن يكون العددية. |
l1 | تسوية L1. يجب أن يكون العددية. |
l2 | تسوية L2. يجب أن يكون العددية. |
خريج | التدرج. |
خيارات | يحمل قيم السمات الاختيارية |
عائدات
- مثيل جديد من ResourceApplyProximalAdagrad
ResourceApplyProximalAdagrad.Options العام الثابت useLocking (useLocking المنطقي)
حدود
useLocking | إذا كان True، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف. |
---|