כיתה ציבורית ReLU
הפעלה של יחידה לינארית מתוקנת (ReLU).
עם ערכי ברירת מחדל, זה מחזיר את ההפעלה הסטנדרטית של ReLU: max(x, 0)
, המקסימום מבחינת האלמנט של 0 וטנזור הקלט.
שינוי פרמטרי ברירת המחדל מאפשר לך להשתמש בספים שאינם אפס, לשנות את הערך המקסימלי של ההפעלה, ולהשתמש בכפולה שאינה אפס של הקלט עבור ערכים מתחת לסף.
לְדוּגמָה:
Operand<TFloat32> input = tf.constant( new float[] {-10f, -5f, 0.0f, 5f, 10f}); // With default parameters ReLU<TFloat32> relu = new ReLU<>(tf); Operand<TFloat32> result = relu.call(input); // result is [0.f, 0.f, 0.f, 5.f, 10.f] // With alpha = 0.5 relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT); result = relu.call(input); // result is [-5.f , -2.5f, 0.f , 5.f , 10.f] // With maxValue = 5 relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT); result = relu.call(input); // result is [0.f, 0.f, 0.f, 5.f, 5.f] // With threshold = 5 relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f); result = relu.call(input); // result is [-0.f, -0.f, 0.f, 0.f, 10.f]
קבועים
לָצוּף | ALPHA_DEFAULT | |
לָצוּף | MAX_VALUE_DEFAULT | |
לָצוּף | THRESHOLD_DEFAULT |
בונים ציבוריים
ReLU (Ops tf) יוצר ReLU חדש עם alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , threshold= THRESHOLD_DEFAULT , | |
ReLU (Ops tf, float alpha, float maxValue, float threshold) יוצר ReLU חדש |
שיטות ציבוריות
אופרנד <T> |
שיטות בירושה
קבועים
ציפה סופית סטטית ציבורית ALPHA_DEFAULT
ערך קבוע: 0.0
ציפה סופית סטטית ציבורית MAX_VALUE_DEFAULT
ערך קבוע: NaN
ציפה סופית סטטית ציבורית THRESHOLD_DEFAULT
ערך קבוע: 0.0
בונים ציבוריים
ReLU ציבורי (Ops tf)
יוצר ReLU חדש עם alpha= ALPHA_DEFAULT
, maxValue= MAX_VALUE_DEFAULT
, threshold= THRESHOLD_DEFAULT
,
פרמטרים
tf | ה- TensorFlow Ops |
---|
Public ReLU (Ops tf, float alpha, float maxValue, float threshold)
יוצר ReLU חדש
פרמטרים
tf | ה- TensorFlow Ops |
---|---|
אלפא | שולט בשיפוע עבור ערכים הנמוכים מהסף. |
maxValue | מגדיר את סף הרוויה (הערך הגדול ביותר שהפונקציה תחזיר). |
סַף | ערך הסף של פונקציית ההפעלה שמתחתיו הערכים יופחתו או יוגדרו לאפס. |