כיתה ציבורית KLD divergence
מחשב אובדן סטייה של קולבק-לייבלר בין תוויות ותחזיות.
loss = labels * log(labels / predictions)
שימוש עצמאי:
Operand<TFloat32> labels = tf.constant(new float[][] { {0.f, 1.f}, {0.f, 0.f} }); Operand<TFloat32> predictions = tf.constant(new float[][] { {0.6f, 0.4f}, {0.4f, 0.6f} }); KLDivergence kld = new KLDivergence(tf); Operand<TFloat32> result = kld.call(labels, predictions); // produces 0.458
מתקשר עם משקל מדגם:
Operand<TFloat32> sampleWeight = tf.constant(new float[] {0.8f, 0.2f}); Operand<TFloat32> result = kld.call(labels, predictions, sampleWeight); // produces 0.366f
שימוש בסוג הפחתת SUM
:
KLDivergence kld = new KLDivergence(tf, Reduction.SUM); Operand<TFloat32> result = kld.call(labels, predictions); // produces 0.916f
שימוש בסוג הפחתה NONE
:
KLDivergence kld = new KLDivergence(tf, Reduction.NONE); Operand<TFloat32> result = kld.call(labels, predictions); // produces [0.916f, -3.08e-06f]
ראה גם
שדות בירושה
בונים ציבוריים
KLDivergence (Ops tf) יוצר Kullback Leibler Divergence Loss באמצעות getSimpleName() כשם ההפסד והפחתת הפסד של REDUCTION_DEFAULT | |
KLDivergence (Ops tf, הפחתת הפחתה ) יוצר Kullback Leibler Divergence Loss Loss באמצעות getSimpleName() כשם ההפסד | |
שיטות ציבוריות
<T מרחיב את TNummer > Operand <T> |
שיטות בירושה
בונים ציבוריים
ציבורי KLDivergence (Ops tf)
יוצר Kullback Leibler Divergence Loss באמצעות getSimpleName()
כשם ההפסד והפחתת הפסד של REDUCTION_DEFAULT
פרמטרים
tf | ה- TensorFlow Ops |
---|
פומבית KLDivergence (Ops tf, הפחתת הפחתה )
יוצר Kullback Leibler Divergence Loss Loss באמצעות getSimpleName()
כשם ההפסד
פרמטרים
tf | ה- TensorFlow Ops |
---|---|
צִמצוּם | סוג ההפחתה שיחול על ההפסד. |
ציבורית KLDivergence (Ops tf, שם מחרוזת, הפחתת הפחתה )
יוצר אובדן סטייה של לייבלר
פרמטרים
tf | ה- TensorFlow Ops |
---|---|
שֵׁם | שם האובדן |
צִמצוּם | סוג ההפחתה שיחול על ההפסד. |
שיטות ציבוריות
קריאת Operand <T> ציבורית ( Operand <? מרחיב את התוויות TNumber >, תחזיות Operand <T>, Oprand <T> דוגמת משקלים)
יוצר אופרנד שמחשב את ההפסד.
פרמטרים
תוויות | ערכי האמת או התוויות |
---|---|
תחזיות | את התחזיות |
משקולות לדוגמה | SampleWeights אופציונליים פועלים כמקדם לאובדן. אם מסופק סקלר, אזי ההפסד פשוט מוגדל לפי הערך הנתון. אם SampleWeights הוא טנסור בגודל [batch_size], אז ההפסד הכולל עבור כל דגימה של האצווה משתנה מחדש על ידי האלמנט המתאים בוקטור SampleWeights. אם הצורה של SampleWeights היא [batch_size, d0, ..dN-1] (או שניתן לשדר אותה לצורה זו), אז כל רכיב אובדן של חיזויים משתנה לפי הערך המתאים של SampleWeights. (הערה לגבי dN-1: כל פונקציות האובדן מצטמצמות במימד אחד, בדרך כלל ציר=-1.) |
מחזיר
- ההפסד