الفئة النهائية العامة ResourceSparseApplyAdagrad
قم بتحديث الإدخالات ذات الصلة في '*var' و'*accum' وفقًا لمخطط adagrad.
هذا بالنسبة للصفوف التي لدينا غراد لها، نقوم بتحديث var وaccum على النحو التالي: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
فئات متداخلة
فصل | ResourceSparseApplyAdagrad.Options | السمات الاختيارية لـ ResourceSparseApplyAdagrad |
الثوابت
خيط | OP_NAME | اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي |
الأساليب العامة
ثابت <T يمتد TType > ResourceSparseApplyAdagrad | |
ثابت ResourceSparseApplyAdagrad.Options | فتحات التحديث (فتحات التحديث المنطقية) |
ثابت ResourceSparseApplyAdagrad.Options | useLocking (استخدام منطقي منطقي) |
الطرق الموروثة
الثوابت
السلسلة النهائية الثابتة العامة OP_NAME
اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي
القيمة الثابتة: "ResourceSparseApplyAdagrad"
الأساليب العامة
إنشاء ResourceSparseApplyAdagrad الثابت العام (نطاق النطاق ، المعامل <?> var، المعامل <?> تراكم، المعامل <T> lr، المعامل <T> grad، المعامل <؟ يمتد TNumber > المؤشرات، الخيارات... الخيارات)
طريقة المصنع لإنشاء فئة تلتف حول عملية ResourceSparseApplyAdagrad جديدة.
حدود
نِطَاق | النطاق الحالي |
---|---|
فار | يجب أن يكون من متغير (). |
تراكم | يجب أن يكون من متغير (). |
lr | معدل التعليم. يجب أن يكون العددية. |
خريج | التدرج. |
المؤشرات | متجه للمؤشرات في البعد الأول من var وaccum. |
خيارات | يحمل قيم السمات الاختيارية |
عائدات
- مثيل جديد من ResourceSparseApplyAdagrad
ResourceSparseApplyAdagrad.Options العام الثابت useLocking (الاستخدام المنطقي)
حدود
useLocking | إذا كان "صحيحًا"، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف. |
---|