قم بتحديث '*var' كخوارزمية FOBOS بمعدل تعلم ثابت.
prox_v = فار - ألفا دلتا فار = علامة (prox_v)/(1+alpha l2) الحد الأقصى{|prox_v|-alpha l1,0}
فئات متداخلة
فصل | ApplyProximalGradientDescent.Options | السمات الاختيارية لـ ApplyProximalGradientDescent |
الثوابت
خيط | OP_NAME | اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي |
الأساليب العامة
الإخراج <T> | كإخراج () إرجاع المقبض الرمزي للموتر. |
ثابت <T يمتد TType > ApplyProximalGradientDescent <T> | |
الإخراج <T> | خارج () نفس "فار". |
ثابت ApplyProximalGradientDescent.Options | useLocking (استخدام منطقي منطقي) |
الطرق الموروثة
الثوابت
السلسلة النهائية الثابتة العامة OP_NAME
اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي
الأساليب العامة
الإخراج العام <T> كإخراج ()
إرجاع المقبض الرمزي للموتر.
المدخلات إلى عمليات TensorFlow هي مخرجات عملية TensorFlow أخرى. يتم استخدام هذه الطريقة للحصول على مقبض رمزي يمثل حساب الإدخال.
إنشاء ApplyProximalGradientDescent العام <T> ( نطاق النطاق ، المعامل <T> var، المعامل <T> alpha، المعامل <T> l1، المعامل <T> l2، المعامل <T> دلتا، خيارات... الخيارات)
طريقة المصنع لإنشاء فئة تغلف عملية ApplyProximalGradientDescent جديدة.
حدود
نِطَاق | النطاق الحالي |
---|---|
فار | يجب أن يكون من متغير (). |
ألفا | عامل التحجيم. يجب أن يكون العددية. |
l1 | تسوية L1. يجب أن يكون العددية. |
l2 | تسوية L2. يجب أن يكون العددية. |
دلتا | التغيير. |
خيارات | يحمل قيم السمات الاختيارية |
عائدات
- مثيل جديد لـ ApplyProximalGradientDescent
تطبيق ApplyProximalGradientDescent العام الثابت. خيارات useLocking (استخدام منطقي منطقي)
حدود
useLocking | إذا كان صحيحا، سيتم حماية الطرح بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف. |
---|