การแก้ไขแบบจำลอง TensorFlow คืออะไร
หากคุณระบุข้อกังวลด้านความเป็นธรรมกับโมเดลแมชชีนเลิร์นนิงของคุณ มีการแทรกแซงทางเทคนิคหลักสามประเภท:
- เทคนิคการประมวลผลข้อมูลก่อนการประมวลผล: การ รวบรวมข้อมูลมากขึ้น การสร้างข้อมูลสังเคราะห์ การปรับน้ำหนักของตัวอย่าง และอัตราการสุ่มตัวอย่างของส่วนต่างๆ
- เทคนิคการสร้างแบบจำลองเวลาฝึกอบรม: การเปลี่ยนตัวแบบเองโดยแนะนำหรือเปลี่ยนแปลงวัตถุประสงค์ของแบบจำลองและเพิ่มข้อจำกัด
- เทคนิคหลังการฝึก: การ ปรับเปลี่ยนผลลัพธ์ของแบบจำลองหรือการตีความผลลัพธ์เพื่อปรับปรุงประสิทธิภาพข้ามตัวชี้วัด
การสร้างแบบจำลองเวลาฝึกอบรม
ไลบรารี TensorFlow Model Remediation มีเทคนิคสองวิธีในการแก้ไขปัญหาอคติและความยุติธรรมในแบบจำลองของคุณ ได้แก่ MinDiff และ Counterfactual Logit Pairing (CLP) มีการอธิบายไว้ในตารางด้านล่าง
MinDiff | CLP | |
---|---|---|
คุณควรใช้เทคนิคนี้เมื่อใด | เพื่อให้แน่ใจว่าโมเดลคาดการณ์ป้ายกำกับที่ต้องการได้ดีเท่าๆ กันสำหรับค่าทั้งหมดของแอตทริบิวต์ที่ละเอียดอ่อน เพื่อให้ เกิดความเท่าเทียมกันของกลุ่มโอกาส | เพื่อให้แน่ใจว่าการคาดการณ์ของแบบจำลองจะไม่เปลี่ยนแปลงระหว่าง "คู่ที่ขัดแย้ง" (โดยที่แอตทริบิวต์ที่ละเอียดอ่อนที่อ้างอิงในคุณลักษณะนั้นแตกต่างกัน) ตัวอย่างเช่น ในตัว จำแนกความเป็นพิษ ตัวอย่างเช่น "ฉันเป็นผู้ชาย" และ "ฉันเป็นเลสเบี้ยน" ไม่ควรมีคำทำนายที่ต่างกัน เพื่อให้ได้รูปแบบการ ต่อต้านความเป็นธรรม |
มันทำงานอย่างไร? | ลงโทษโมเดลระหว่างการฝึกสำหรับความแตกต่างในการ แจกแจง คะแนนระหว่างสองชุด | ลงโทษโมเดลระหว่างการฝึกสำหรับความแตกต่างของผลลัพธ์ระหว่าง คู่ตัวอย่างที่เป็นเท็จ |
รูปแบบการป้อนข้อมูล | ฟังก์ชันการสูญเสียทำงานบนเอาต์พุต ในทางทฤษฎีแล้ว ไม่เชื่อเรื่องสถาปัตยกรรมอินพุตและโมเดล | ฟังก์ชันการสูญเสียทำงานบนเอาต์พุต ในทางทฤษฎีแล้ว ไม่เชื่อเรื่องสถาปัตยกรรมอินพุตและโมเดล |