MinDiff یک تکنیک اصلاح مدل است که به دنبال برابر کردن دو توزیع است. در عمل، می توان از آن برای متعادل کردن نرخ خطا در بخش های مختلف داده های شما با جریمه کردن تفاوت های توزیعی استفاده کرد.
معمولاً هنگام تلاش برای اطمینان از عدالت گروهی، از MinDiff استفاده میکنید، مانند به حداقل رساندن تفاوت در نرخ مثبت کاذب (FPR) یا نرخ منفی کاذب (FNR) بین یک تکه داده متعلق به یک کلاس حساس و یک برش با عملکرد بهتر. برای بحث عمیق در مورد معیارهای انصاف، ادبیات مربوط به این موضوع را مرور کنید. 1 2 3
MinDiff چگونه کار می کند؟
با توجه به دو مجموعه نمونه از مجموعه داده ما، MinDiff مدل را در طول آموزش به دلیل تفاوت در توزیع امتیازات بین دو مجموعه جریمه می کند. هر چه دو مجموعه بر اساس امتیازات پیش بینی کمتر متمایز شوند، جریمه اعمال شده کمتر خواهد بود.
جریمه با اضافه کردن یک جزء به ضرری که مدل برای آموزش استفاده می کند اعمال می شود. می توان آن را به عنوان اندازه گیری تفاوت در توزیع پیش بینی های مدل در نظر گرفت. همانطور که در نمودارهای زیر نشان داده شده است، همانطور که مدل آموزش می بیند، سعی می کند با نزدیک کردن توزیع ها به یکدیگر، جریمه را به حداقل برساند.
استفاده از MinDiff ممکن است با توجه به عملکرد در کار اصلی با معاوضه همراه باشد. MinDiff می تواند موثر باشد در حالی که عملکرد فراتر از نیازهای محصول را بدتر نمی کند، اما تصمیم برای ایجاد تعادل بین عملکرد و اثربخشی MinDiff باید به طور عمدی توسط صاحب محصول گرفته شود. برای مثالهایی که نحوه اجرای MinDiff را نشان میدهند، به دفترچه مطالعه موردی اصلاح مدل مراجعه کنید.
منابع
برای آموزش استفاده از MinDiff در مدل طبقهبندی متن، به دفترچه یادداشت MinDiff Keras مراجعه کنید.
برای پست وبلاگ در MinDiff در وبلاگ TensorFlow، به کاربرد MinDiff برای بهبود پست وبلاگ مدل مراجعه کنید.
برای کتابخانه کامل Model Remediation، به Repo Github مدل-remediation مراجعه کنید.
Dwork, C., Hardt, M., Pitassi, T., Reingold, O., Zemel, R. (2011). انصاف از طریق آگاهی. ↩
هاردت، ام.، پرایس، ای.، سربرو، ن. (2016). برابری فرصت ها در یادگیری تحت نظارت. ↩
Chouldechova، A. (2016). پیشبینی منصفانه با تأثیر متفاوت: مطالعه سوگیری در ابزارهای پیشبینی تکرار جرم ↩