כיתה אחרונה ציבורית ResourceApplyAdagradDa
עדכן את '*var' בהתאם לתוכנית adgrad הפרוקסימלית.
כיתות מקוננות
מעמד | ResourceApplyAdagradDa.Options | תכונות אופציונליות עבור ResourceApplyAdagradDa |
קבועים
חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow |
שיטות ציבוריות
static <T מרחיב את TType > ResourceApplyAdagradDa | |
static ResourceApplyAdagradDa.Options | useLocking (useLocking בוליאני) |
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
ערך קבוע: "ResourceApplyAdagradDA"
שיטות ציבוריות
public static ResourceApplyAdagradDa create ( Scope scope, Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand < TInt64 > globalStep, Options... options)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceApplyAdagradDa חדשה.
פרמטרים
תְחוּם | ההיקף הנוכחי |
---|---|
var | צריך להיות ממשתנה(). |
gradientAccumulator | צריך להיות ממשתנה(). |
gradientSquaredAccumulator | צריך להיות ממשתנה(). |
גראד | השיפוע. |
lr | גורם קנה מידה. חייב להיות סקלר. |
l1 | הסדרת L1. חייב להיות סקלר. |
l2 | הסדרת L2. חייב להיות סקלר. |
globalStep | מספר שלב האימון. חייב להיות סקלר. |
אפשרויות | נושא ערכי תכונות אופציונליות |
החזרות
- מופע חדש של ResourceApplyAdagradDa
Public static ResourceApplyAdagradDa.Options useLocking (שימוש בוליאני)
פרמטרים
השתמש בנעילה | אם נכון, עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. |
---|