אופטימיזציה המיישמת את אלגוריתם אדם.
אופטימיזציה של אדם היא שיטת השתלשלות גרדיאנט סטוכסטית המבוססת על הערכה אדפטיבית של רגעים מסדר ראשון ושני.
לפי Kingma et al., 2014, השיטה "יעילה מבחינה חישובית, יש לה דרישת זיכרון מועטה, שינוי קנה מידה אלכסוני של שיפועים, ומתאימה היטב לבעיות גדולות מבחינת נתונים/פרמטרים".
@ראה Kingma et al., 2014, Adam: A Method for Stochastic Optimization .
קבועים
לָצוּף | BETA_ONE_DEFAULT | |
לָצוּף | BETA_TWO_DEFAULT | |
לָצוּף | EPSILON_DEFAULT | |
חוּט | FIRST_MOMENT | |
לָצוּף | LEARNING_RATE_DEFAULT | |
חוּט | SECOND_MOMENT |
קבועים בירושה
בונים ציבוריים
שיטות ציבוריות
סטטי <T מרחיב TType > Op | createAdamMinimize ( scope scope, Operand <T> loss, float learningRate, float betaOne, float betaTwo, float epsilon, Options... options) יוצר את הפעולה שממזערת את ההפסד |
חוּט | getOptimizerName () קבל את השם של מייעל האופטימיזציה. |
חוּט | toString () |
שיטות בירושה
קבועים
ציפה סופית סטטית ציבורית BETA_ONE_DEFAULT
ציפה סופית סטטית ציבורית BETA_TWO_DEFAULT
ציפה סופית סטטית ציבורית EPSILON_DEFAULT
מחרוזת סופית סטטית ציבורית FIRST_MOMENT
ציפה סופית סטטית ציבורית LEARNING_RATE_DEFAULT
מחרוזת סופית סטטית ציבורית SECOND_MOMENT
בונים ציבוריים
אדם ציבורי ( גרף גרף, float learningRate)
יוצר אופטימיזציה של Adam
פרמטרים
גרָף | גרף TensorFlow |
---|---|
קצב למידה | קצב הלמידה |
אדם ציבורי ( גרף גרף, float learningRate, float betaOne, float betaTwo, float epsilon)
יוצר אופטימיזציה של Adam
פרמטרים
גרָף | גרף TensorFlow |
---|---|
קצב למידה | קצב הלמידה |
betaOne | קצב הדעיכה האקספוננציאלי עבור הערכות הרגע הראשון. ברירת המחדל היא 0.9. |
betaTwo | קצב הדעיכה האקספוננציאלי עבור הערכות הרגע השני. ברירת המחדל היא 0.999. |
אפסילון | קבוע קטן ליציבות מספרית. האפסילון הזה הוא "כובע אפסילון" בנייר Kingma ו-Ba (בנוסחה ממש לפני סעיף 2.1), לא האפסילון באלגוריתם 1 של הנייר. ברירת המחדל היא 1e-8. |
אדם ציבורי (גרף גרף , שם מחרוזת, Float learningRate)
יוצר אופטימיזציה של Adam
פרמטרים
גרָף | גרף TensorFlow |
---|---|
שֵׁם | שם האופטימיזציה, ברירת המחדל היא "אדם" |
קצב למידה | קצב הלמידה |
אדם ציבורי (גרף גרף , שם מחרוזת, float learningRate, float betaOne, float betaTwo, float epsilon)
יוצר אופטימיזציה של Adam
פרמטרים
גרָף | גרף TensorFlow |
---|---|
שֵׁם | שם האופטימיזציה, ברירת המחדל היא "אדם" |
קצב למידה | קצב הלמידה |
betaOne | קצב הדעיכה האקספוננציאלי עבור הערכות הרגע הראשון. ברירת המחדל היא 0.9. |
betaTwo | קצב הדעיכה האקספוננציאלי עבור הערכות הרגע השני. ברירת המחדל היא 0.999. |
אפסילון | קבוע קטן ליציבות מספרית. האפסילון הזה הוא "כובע אפסילון" בנייר Kingma ו-Ba (בנוסחה ממש לפני סעיף 2.1), לא האפסילון באלגוריתם 1 של הנייר. ברירת המחדל היא 1e-8. |
שיטות ציבוריות
public static Op createAdamMinimize ( scope scope, Operand <T> loss, float learningRate, float betaOne, float betaTwo, float epsilon, Options... options)
יוצר את הפעולה שממזערת את ההפסד
פרמטרים
תְחוּם | היקף TensorFlow |
---|---|
הֶפסֵד | את ההפסד למזער |
קצב למידה | קצב הלמידה |
betaOne | קצב הדעיכה האקספוננציאלי עבור הערכות הרגע הראשון. |
betaTwo | קצב הדעיכה האקספוננציאלי עבור הערכות הרגע השני. |
אפסילון | קבוע קטן ליציבות מספרית. האפסילון הזה הוא "כובע אפסילון" בנייר Kingma ו-Ba (בנוסחה ממש לפני סעיף 2.1), לא האפסילון באלגוריתם 1 של הנייר. |
אפשרויות | מאפייני אופטימיזציה אופציונליים |
החזרות
- המבצע שממזער את ההפסד
זורק
חריג טיעון לא חוקי | אם היקף אינו מייצג גרף |
---|
מחרוזת ציבורית getOptimizerName ()
קבל את השם של מייעל האופטימיזציה.
החזרות
- שם האופטימיזציה.