الطبقة العامة AdaGrad
محسن يقوم بتنفيذ خوارزمية Adagrad.
Adagrad هو مُحسِّن بمعدلات تعلم خاصة بالمعلمات، والتي يتم تكييفها وفقًا لعدد مرات تحديث المعلمة أثناء التدريب. كلما زاد عدد التحديثات التي تتلقاها المعلمة، كانت التحديثات أصغر.
الثوابت
خيط | المجمع | |
يطفو | INITIAL_ACCUMULATOR_DEFAULT | |
يطفو | LEARNING_RATE_DEFAULT |
الثوابت الموروثة
المقاولون العامون
الأساليب العامة
خيط | getOptimizerName () احصل على اسم المحسن. |
خيط | إلى سلسلة () |
الطرق الموروثة
الثوابت
تراكم السلسلة النهائية الثابتة العامة
القيمة الثابتة: "المراكم"
التعويم النهائي الثابت العام INITIAL_ACCUMULATOR_DEFAULT
القيمة الثابتة: 0.01
التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT
القيمة الثابتة: 0.001
المقاولون العامون
AdaGrad العام (الرسم البياني ، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGrad
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
AdaGrad العام (الرسم البياني ، معدل التعلم العائم، قيمة التراكم الأولية العائمة)
يقوم بإنشاء محسن AdaGrad
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
initialAccumulatorValue | يجب أن تكون القيمة المبدئية للمراكم غير سالبة. |
رميات
غير الشرعيين استثناء حجة | إذا كانت القيمة الأولية للتراكم سلبية |
---|
AdaGrad العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGrad
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم المُحسِّن هذا (الافتراضي هو "Adagrad") |
معدل التعليم | معدل التعلم |
AdaGrad العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، قيمة التراكم الأولية العائمة)
يقوم بإنشاء محسن AdaGrad
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم المُحسِّن هذا (الافتراضي هو "Adagrad") |
معدل التعليم | معدل التعلم |
initialAccumulatorValue | يجب أن تكون القيمة المبدئية للمراكم غير سالبة. |
رميات
غير الشرعيين استثناء حجة | إذا كانت القيمة الأولية للتراكم سلبية |
---|
الأساليب العامة
سلسلة getOptimizerName () العامة
احصل على اسم المحسن.
عائدات
- اسم المحسن.