עדכן את '*var' לפי אלגוריתם RMSProp.
שימו לב שביישום צפוף של אלגוריתם זה, ms ו-mom יתעדכנו גם אם ה-grad הוא אפס, אבל ביישום הדליל הזה, ms ו-mom לא יתעדכנו באיטרציות שבמהלכן הגראד הוא אפס.
mean_square = decay * mean_square + (1-decay) * gradient ** 2 Delta = learning_rate * gradient / sqrt(mean_square + epsilon)
ms <- rho * ms_{t-1} + (1-rho) * grad * grad mom <- momentum * mom_{t-1} + lr * grad / sqrt(ms + epsilon) var <- var - mom
כיתות מקוננות
מעמד | ApplyRmsProp.Options | תכונות אופציונליות עבור ApplyRmsProp |
קבועים
חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow |
שיטות ציבוריות
פלט <T> | asOutput () מחזירה את הידית הסמלית של הטנזור. |
סטטי <T מרחיב את TType > ApplyRmsProp <T> | |
פלט <T> | החוצה () זהה ל-"var". |
סטטי ApplyRmsProp.Options | useLocking (useLocking בוליאני) |
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
שיטות ציבוריות
פלט ציבורי <T> asOutput ()
מחזירה את הידית הסמלית של הטנזור.
כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.
public static ApplyRmsProp <T> create ( Scope scope, Operand <T> var, Operand <T> ms, Operand <T> mom, Operand <T> lr, Operand <T> rho, Operand <T> מומנטום, Operand <T > epsilon, Operand <T> grad, Options... options)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ApplyRmsProp חדשה.
פרמטרים
תְחוּם | ההיקף הנוכחי |
---|---|
var | צריך להיות ממשתנה(). |
גברת | צריך להיות ממשתנה(). |
אִמָא | צריך להיות ממשתנה(). |
lr | גורם קנה מידה. חייב להיות סקלר. |
rho | קצב דעיכה. חייב להיות סקלר. |
אפסילון | מונח רכס. חייב להיות סקלר. |
גראד | השיפוע. |
אפשרויות | נושא ערכי תכונות אופציונליות |
החזרות
- מופע חדש של ApplyRmsProp
public static ApplyRmsProp.Options useLocking (Boolian useLocking)
פרמטרים
השתמש בנעילה | אם 'נכון', עדכון הטנזורים var, ms ו-mom מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. |
---|