מחלקה סופית ציבורית ResourceSparseApplyProximalGradientDescent
עדכון דל '*var' כאלגוריתם FOBOS עם קצב למידה קבוע.
כלומר עבור שורות שיש לנו גראד עבורן, אנו מעדכנים את var באופן הבא: prox_v = var - alpha grad var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
כיתות מקוננות
מעמד | ResourceSparseApplyProximalGradientDescent.Options | תכונות אופציונליות עבור ResourceSparseApplyProximalGradientDescent |
קבועים
חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow |
שיטות ציבוריות
static <T מרחיב את TType > ResourceSparseApplyProximalGradientDescent | |
static ResourceSparseApplyProximalGradientDescent.Options | useLocking (useLocking בוליאני) |
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
ערך קבוע: "ResourceSparseApplyProximalGradientDescent"
שיטות ציבוריות
public static ResourceSparseApplyProximalGradientDescent create ( scope scope, Operand <?> var, Operand <T> alpha, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? מרחיב את TNummer > אינדקסים, אפשרויות... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyProximalGradientDescent חדשה.
פרמטרים
תְחוּם | ההיקף הנוכחי |
---|---|
var | צריך להיות ממשתנה(). |
אלפא | גורם קנה מידה. חייב להיות סקלר. |
l1 | הסדרת L1. חייב להיות סקלר. |
l2 | הסדרת L2. חייב להיות סקלר. |
גראד | השיפוע. |
מדדים | וקטור של מדדים למימד הראשון של var ו-acum. |
אפשרויות | נושא ערכי תכונות אופציונליות |
החזרות
- מופע חדש של ResourceSparseApplyProximalGradientDescent
public static ResourceSparseApplyProximalGradientDescent.Options useLocking (שימוש בוליאני נעילה)
פרמטרים
השתמש בנעילה | אם נכון, החיסור יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. |
---|