כיתת גמר ציבורית הגישו פרוקסימל אדגרד
עדכן את '*var' ו-'*accum' לפי FOBOS עם קצב הלמידה של Adagrad.
accum += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}
כיתות מקוננות
מעמד | ApplyProximalAdagrad.Options | תכונות אופציונליות עבור ApplyProximalAdagrad |
קבועים
חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow |
שיטות ציבוריות
פלט <T> | asOutput () מחזירה את הידית הסמלית של הטנזור. |
סטטי <T מרחיב את TType > ApplyProximalAdagrad <T> | |
פלט <T> | החוצה () זהה ל-"var". |
סטטי ApplyProximalAdagrad.Options | useLocking (useLocking בוליאני) |
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
ערך קבוע: "ApplyProximalAdagrad"
שיטות ציבוריות
פלט ציבורי <T> asOutput ()
מחזירה את הידית הסמלית של הטנזור.
כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.
public static ApplyProximalAdagrad <T> create ( Scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Options.. . אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ApplyProximalAdagrad חדשה.
פרמטרים
תְחוּם | ההיקף הנוכחי |
---|---|
var | צריך להיות ממשתנה(). |
לצבור | צריך להיות ממשתנה(). |
lr | גורם קנה מידה. חייב להיות סקלר. |
l1 | הסדרת L1. חייב להיות סקלר. |
l2 | הסדרת L2. חייב להיות סקלר. |
גראד | השיפוע. |
אפשרויות | נושא ערכי תכונות אופציונליות |
החזרות
- מופע חדש של ApplyProximalAdagrad
public static ApplyProximalAdagrad.Options useLocking (Boolian useLocking)
פרמטרים
השתמש בנעילה | אם נכון, עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. |
---|