TensorFlow Responsible AI Guidebook
บทนำ
ในปี 2018 Google ได้แนะนำ หลักการ AI ซึ่งเป็นแนวทางในการพัฒนาจริยธรรมและการใช้ AI ในการวิจัยและผลิตภัณฑ์ ตามหลักการเหล่านี้ ทีมงาน TensorFlow ทำงานเพื่อจัดหาเครื่องมือและเทคนิคให้กับนักพัฒนาเพื่อให้สอดคล้องกับแนวทางปฏิบัติ Responsible AI (RAI)
ในคู่มือนี้ คุณจะพบคำแนะนำเกี่ยวกับวิธีการใช้เครื่องมือในชุดเครื่องมือ Responsible AI Toolkit เพื่อพัฒนาเวิร์กโฟลว์ที่สอดคล้องกันซึ่งตอบสนองกรณีการใช้งานเฉพาะและความต้องการผลิตภัณฑ์ของคุณ เครื่องมือในคู่มือนี้รวมถึงเครื่องมือที่สามารถนำไปใช้ในโดเมนต่างๆ เช่น ความเป็น ธรรม และ ความโปร่งใส นี่เป็นส่วนสำคัญของการพัฒนาที่ Google และคุณสามารถคาดหวังว่าคู่มือนี้จะรวมคำแนะนำสำหรับพื้นที่ที่เกี่ยวข้องเพิ่มเติม เช่น ความเป็น ส่วนตัว ความ สามารถในการ อธิบาย และ ความคงทน
คู่มือองค์กร
เอกสาร API & คำแนะนำ
สำหรับแต่ละเครื่องมือ คำแนะนำเกี่ยวกับสิ่งที่เครื่องมือทำ ตำแหน่งใดในเวิร์กโฟลว์ของคุณที่อาจเหมาะสม และข้อควรพิจารณาในการใช้งานที่หลากหลาย หน้า "ติดตั้ง" ที่เกี่ยวข้องจะรวมอยู่ในแท็บ "คำแนะนำ" สำหรับแต่ละเครื่องมือและเอกสารประกอบ API โดยละเอียดในแท็บ "API" สำหรับเครื่องมือบางอย่าง จะมีคำแนะนำทางเทคนิคที่แสดงให้เห็นแนวคิดที่ผู้ใช้อาจพบว่ามีความท้าทายเมื่อนำไปใช้
บทแนะนำ
เมื่อใดก็ตามที่เป็นไปได้ บทช่วยสอนเกี่ยวกับสมุดบันทึกจะแสดงให้เห็นว่าเครื่องมือใน RAI Toolkit สามารถนำไปใช้ได้อย่างไร โดยทั่วไปแล้วสิ่งเหล่านี้คือตัวอย่างของเล่นที่ได้รับเลือกให้เป็นจุดสนใจในเครื่องมือเฉพาะ หากคุณมีคำถามเกี่ยวกับสิ่งเหล่านี้ หรือหากมีกรณีการใช้งานเพิ่มเติมที่คุณต้องการให้สำรวจ โปรดติดต่อทีม TensorFlow RAI ที่ tf-responsible-ai@google.com
บทช่วยสอนต่อไปนี้จะช่วยให้คุณเริ่มต้นด้วยเครื่องมือสำหรับการประเมินและการแก้ไขความเป็นธรรมของแบบจำลอง
ตัวชี้วัดความเป็นธรรมเบื้องต้น
ข้อมูลเบื้องต้นเกี่ยวกับตัวบ่งชี้ความเป็นธรรมในสมุดบันทึก Google Colab คลิกปุ่ม เรียกใช้ใน Google Colab เพื่อลองใช้งานด้วยตนเองตัวบ่งชี้ความเป็นธรรมพร้อม TF Hub Text Embeddings
ใช้ตัวบ่งชี้ความเป็นธรรมเพื่อประเมินตัววัดความเป็นธรรมที่ใช้กันทั่วไปในแบบจำลอง TF Hub Text Embedding โดยใช้ ชุดข้อมูลความคิดเห็นทางแพ่งตัวชี้วัดความเป็นธรรม กรณีศึกษา Lineage
ใช้ตัวบ่งชี้ความเป็นธรรมเพื่อตรวจสอบข้อกังวลด้านความเป็นธรรมใน ชุดข้อมูล COMPASใช้ MinDiff กับ Keras
ลองใช้ MinDiff ซึ่งเป็นเทคนิคการแก้ไขโมเดลที่สามารถปรับปรุงประสิทธิภาพของโมเดลในเมตริกความเป็นธรรมที่ใช้กันทั่วไปได้สร้างการ์ดโมเดลด้วย TFX
ใช้ Model Card Toolkit กับ TFX เพื่อสร้าง Model Cardsสร้างรายงานความเป็นส่วนตัว
ประเมินความเป็นส่วนตัวของโมเดลของคุณโดยใช้รายงานความเป็นส่วนตัว TFข้อควรพิจารณาเพิ่มเติม
การออกแบบเวิร์กโฟลว์ AI ที่รับผิดชอบต้องใช้วิธีการที่รอบคอบในแต่ละขั้นตอนของวงจรชีวิต ML ตั้งแต่การกำหนดปัญหาไปจนถึงการปรับใช้และการตรวจสอบ นอกเหนือจากรายละเอียดการใช้งานทางเทคนิคของคุณ คุณจะต้องทำการตัดสินใจทางสังคมเทคนิคต่างๆ เพื่อใช้เครื่องมือเหล่านี้ ข้อควรพิจารณา RAI ทั่วไปบางประการที่ผู้ปฏิบัติงาน ML ต้องทำ ได้แก่:
- ฉันต้องใช้กลุ่มประชากรประเภทใดเพื่อให้แน่ใจว่าแบบจำลองของฉันทำงานได้ดี
- หากฉันต้องจัดเก็บฉลากที่ละเอียดอ่อนเพื่อประเมินความเป็นธรรม ฉันควรพิจารณาข้อแลกเปลี่ยนระหว่างความเป็นธรรมและความเป็นส่วนตัวอย่างไร
- ฉันควรใช้ตัวชี้วัดหรือคำจำกัดความใดในการประเมินความเป็นธรรม
- ฉันควรรวมข้อมูลใดบ้างในแบบจำลองและสิ่งประดิษฐ์ความโปร่งใสของข้อมูล
คำตอบสำหรับคำถามเหล่านี้และคำถามอื่นๆ ขึ้นอยู่กับกรณีการใช้งานและความต้องการผลิตภัณฑ์ของคุณโดยเฉพาะ ด้วยเหตุนี้ เราจึงไม่สามารถบอกคุณได้แน่ชัดว่าต้องทำอย่างไร แต่จะให้คำแนะนำในการตัดสินใจอย่างมีความรับผิดชอบ พร้อมคำแนะนำที่เป็นประโยชน์และลิงก์ไปยังวิธีการวิจัยที่เกี่ยวข้องทุกเมื่อที่ทำได้ ในขณะที่คุณพัฒนาเวิร์กโฟลว์ AI ที่มีความรับผิดชอบด้วย TensorFlow โปรดให้ข้อเสนอแนะที่ tf-responsible-ai@google.com การทำความเข้าใจกับการเรียนรู้และความท้าทายของคุณมีความสำคัญต่อความสามารถของเราในการสร้างผลิตภัณฑ์ที่เหมาะกับทุกคน