استرداد معلمات التضمين Adadelta مع دعم تصحيح الأخطاء.
عملية تسترد معلمات التحسين من التضمين إلى الذاكرة المضيفة. يجب أن يسبقه عملية ConfigureTPUEmbeddingHost التي تقوم بإعداد التكوين الصحيح لجدول التضمين. على سبيل المثال، يتم استخدام هذه العملية لاسترداد المعلمات المحدثة قبل حفظ نقطة التحقق.
فئات متداخلة
فصل | استردادTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | السمات الاختيارية لـ RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug |
الثوابت
خيط | OP_NAME | اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي |
الأساليب العامة
الإخراج <TFloat32> | المراكم () تم تحديث مجمعات المعلمات بواسطة خوارزمية تحسين Adadelta. |
استرداد ثابتTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | التكوين (تكوين السلسلة) |
static RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug | إنشاء ( نطاق النطاق ، الأرقام الطويلة، معرف القطعة الطويلة، الخيارات... الخيارات) طريقة المصنع لإنشاء فئة تلتف حول عملية RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug جديدة. |
الإخراج <TFloat32> | المراكم المتدرجة () تم تحديث المعلمة gradient_accumulators بواسطة خوارزمية تحسين Adadelta. |
الإخراج <TFloat32> | حدود () تم تحديث معلمات المعلمة بواسطة خوارزمية تحسين Adadelta. |
استرداد ثابتTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | معرف الجدول (معرف الجدول الطويل) |
استرداد ثابتTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | اسم الجدول (اسم جدول السلسلة) |
الإخراج <TFloat32> | التحديثات () تم تحديث تحديثات المعلمات بواسطة خوارزمية تحسين Adadelta. |
الطرق الموروثة
الثوابت
السلسلة النهائية الثابتة العامة OP_NAME
اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي
الأساليب العامة
إنشاء RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug العام الثابت ( نطاق النطاق ، numShards الطويلة، shardId الطويل، الخيارات... الخيارات)
طريقة المصنع لإنشاء فئة تلتف حول عملية RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug جديدة.
حدود
نِطَاق | النطاق الحالي |
---|---|
خيارات | يحمل قيم السمات الاختيارية |
عائدات
- مثيل جديد لـ RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug
الإخراج العام <TFloat32> التدرج المتراكم ()
تم تحديث المعلمة gradient_accumulators بواسطة خوارزمية تحسين Adadelta.