כיתת גמר ציבורית ApplyAdaMax
עדכן את '*var' לפי אלגוריתם AdaMax.
m_t <- beta1 * m_{t-1} + (1 - beta1) * g v_t <- max(beta2 * v_{t-1}, abs(g)) משתנה <- variable - learning_rate / (1 - beta1^ t) * m_t / (v_t + epsilon)
כיתות מקוננות
מעמד | ApplyAdaMax.Options | תכונות אופציונליות עבור ApplyAdaMax |
קבועים
חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow |
שיטות ציבוריות
פלט <T> | asOutput () מחזירה את הידית הסמלית של הטנזור. |
סטטי <T מרחיב את TType > ApplyAdaMax <T> | |
פלט <T> | החוצה () זהה ל-"var". |
סטטי ApplyAdaMax.Options | useLocking (useLocking בוליאני) |
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
ערך קבוע: "ApplyAdaMax"
שיטות ציבוריות
פלט ציבורי <T> asOutput ()
מחזירה את הידית הסמלית של הטנזור.
כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.
public static ApplyAdaMax <T> create ( Scope scope, Operand <T> var, Operand <T> m, Operand <T> v, Operand <T> beta1Power, Operand <T> lr, Operand <T> beta1, Operand <T > beta2, Operand <T> epsilon, Operand <T> grad, Options... options)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ApplyAdaMax חדשה.
פרמטרים
תְחוּם | ההיקף הנוכחי |
---|---|
var | צריך להיות ממשתנה(). |
M | צריך להיות ממשתנה(). |
v | צריך להיות ממשתנה(). |
beta1Power | חייב להיות סקלר. |
lr | גורם קנה מידה. חייב להיות סקלר. |
בטא1 | גורם מומנטום. חייב להיות סקלר. |
בטא2 | גורם מומנטום. חייב להיות סקלר. |
אפסילון | מונח רכס. חייב להיות סקלר. |
גראד | השיפוע. |
אפשרויות | נושא ערכי תכונות אופציונליות |
החזרות
- מופע חדש של ApplyAdaMax
סטטי ציבורי ApplyAdaMax.Options useLocking (שימוש בוליאני)
פרמטרים
השתמש בנעילה | אם 'נכון', עדכון הטנזורים var, m ו-v יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. |
---|