الفئة النهائية العامة ResourceApplyAdadelta
قم بتحديث '*var' وفقًا لمخطط adadelta.
accum = rho() * accum + (1 - rho()) * grad.square(); التحديث = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); فار -= تحديث;
فئات متداخلة
فصل | ResourceApplyAdadelta.Options | السمات الاختيارية لـ ResourceApplyAdadelta |
الثوابت
خيط | OP_NAME | اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي |
الأساليب العامة
ثابت <T يمتد TType > ResourceApplyAdadelta | |
ResourceApplyAdadelta.Options ثابت | useLocking (استخدام منطقي منطقي) |
الطرق الموروثة
الثوابت
السلسلة النهائية الثابتة العامة OP_NAME
اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي
القيمة الثابتة: "ResourceApplyAdadelta"
الأساليب العامة
إنشاء ResourceApplyAdadelta الثابت العام (نطاق النطاق ، المعامل <?> var، المعامل <?> تراكم، المعامل <?> تراكم تحديث، المعامل <T> lr، المعامل <T> rho، المعامل <T> epsilon، المعامل <T> grad، خيارات... خيارات)
طريقة المصنع لإنشاء فئة تلتف حول عملية ResourceApplyAdadelta جديدة.
حدود
نِطَاق | النطاق الحالي |
---|---|
فار | يجب أن يكون من متغير (). |
تراكم | يجب أن يكون من متغير (). |
تراكم | يجب أن يكون من متغير (). |
lr | عامل التحجيم. يجب أن يكون العددية. |
rho | عامل الاضمحلال. يجب أن يكون العددية. |
إبسيلون | عامل ثابت. يجب أن يكون العددية. |
خريج | التدرج. |
خيارات | يحمل قيم السمات الاختيارية |
عائدات
- مثيل جديد من ResourceApplyAdadelta
ResourceApplyAdadelta.Options العام الثابت useLocking (المنطقي useLocking)
حدود
useLocking | إذا كان True، فسيتم حماية تحديث موتر var وaccum وupdate_accum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف. |
---|