MinDiff היא טכניקת שיקום מודל המבקשת להשוות שתי התפלגות. בפועל, ניתן להשתמש בו כדי לאזן את שיעורי השגיאות על פני חלקים שונים של הנתונים שלך על ידי ענישה של הבדלי התפלגות.
בדרך כלל, אתה מיישם MinDiff כאשר אתה מנסה להבטיח הוגנות קבוצתית, כגון מזעור ההבדל בין שיעור חיובי שגוי (FPR) או שיעור שלילי שגוי (FNR) בין נתח נתונים השייך למחלקה רגישה לפרוסה בעלת ביצועים טובים יותר. לדיון מעמיק במדדי הוגנות, סקור את הספרות בנושא זה. 1 2 3
איך MinDiff עובד?
בהינתן שתי קבוצות של דוגמאות ממערך הנתונים שלנו, MinDiff מענישה את המודל במהלך האימון על הבדלים בהתפלגות הציונים בין שני הקבוצות. ככל ששתי הקבוצות מבוססות פחות על ציוני חיזוי, כך העונש שיופעל יהיה קטן יותר.
העונש מוחל על ידי הוספת רכיב להפסד שהמודל משתמש בו לאימון. אפשר לחשוב על זה כמדידה של ההבדל בהתפלגות של תחזיות מודל. כשהמודל מתאמן, הוא מנסה למזער את העונש על ידי קירוב ההתפלגויות, כפי שמוצג בתרשימים למטה.
יישום MinDiff עשוי לבוא עם פשרות ביחס לביצועים במשימה המקורית. MinDiff יכולה להיות אפקטיבית תוך שהיא אינה פוגעת בביצועים מעבר לצרכי המוצר, אך ההחלטה לאזן בין ביצועים לאפקטיביות של MinDiff צריכה להיעשות בכוונה על ידי בעל המוצר. לדוגמאות המראות כיצד ליישם את MinDiff, עיין במחברת המקרה לתיקון המודל .
אֶמְצָעִי
למדריך על החלת MinDiff על מודל סיווג טקסט, ראה מחברת MinDiff Keras .
לפוסט בבלוג על MinDiff בבלוג TensorFlow, ראה החלת MinDiff לשיפור פוסט הבלוג .
עבור הספרייה המלאה של תיקון מודלים, עיין ב- Repo Github לתיקון מודלים .
Dwork, C., Hardt, M., Pitassi, T., Reingold, O., Zemel, R. (2011). הוגנות דרך מודעות. ↩
Hardt, M., Price, E., Srebro, N. (2016). שוויון הזדמנויות בלמידה מפוקחת. ↩
Chouldechova, A. (2016). חיזוי הוגן עם השפעה שונה: מחקר על הטיה במכשירי חיזוי רצידיביזם. ↩