معرفی
در سال 2018، گوگل اصول هوش مصنوعی خود را معرفی کرد که توسعه اخلاقی و استفاده از هوش مصنوعی در تحقیقات و محصولات ما را راهنمایی می کند. در راستای این اصول، تیم TensorFlow تلاش میکند تا ابزارها و تکنیکهایی را در اختیار توسعهدهندگان قرار دهد تا به شیوههای هوش مصنوعی مسئول (RAI) پایبند باشند.
در این کتاب راهنما، راهنمایی در مورد نحوه استفاده از ابزارها در جعبه ابزار هوش مصنوعی مسئول برای ایجاد یک گردش کار منسجم که مورد استفاده خاص و نیازهای محصول شما را برآورده می کند، خواهید یافت. ابزارهای این کتاب راهنما شامل مواردی است که می تواند در حوزه هایی مانند عدالت و شفافیت به کار رود. این یک حوزه توسعه فعال در Google است، و میتوانید انتظار داشته باشید که این کتاب راهنما شامل راهنمایی برای حوزههای مرتبط دیگر، مانند حریم خصوصی ، توضیحپذیری ، و استحکام باشد.
سازمان کتاب راهنما
مستندات و راهنمایی API
برای هر ابزار، راهنمایی هایی در مورد اینکه ابزار چه کاری انجام می دهد، جایی که ممکن است در جریان کاری شما مناسب باشد و ملاحظات مختلف استفاده از آن ارائه می دهیم. در صورت لزوم، برای هر ابزار یک صفحه «نصب» در برگه «راهنما» و مستندات API مفصل در برگه «API» قرار می دهیم. برای برخی از ابزارها، ما همچنین راهنماهای فنی را درج می کنیم که مفاهیمی را که کاربران ممکن است پیدا کنند نشان می دهند. هنگام استفاده از آنها چالش برانگیز است.
آموزش ها
در صورت امکان، ما آموزش های نوت بوک را ارائه خواهیم کرد که نشان می دهد چگونه ابزارهای موجود در جعبه ابزار RAI را می توان اعمال کرد. اینها معمولاً نمونه های اسباب بازی هستند که برای جلب توجه یک ابزار خاص انتخاب می شوند. اگر در مورد این موارد سؤالی دارید، یا اگر موارد استفاده دیگری وجود دارد که میخواهید در آموزشها بررسی شود، لطفاً با ما در tf-responsible-ai@google.com تماس بگیرید .
ملاحظات اضافی
طراحی یک گردش کار مسئولیتپذیر هوش مصنوعی مستلزم یک رویکرد متفکرانه در هر مرحله از چرخه حیات ML، از فرمولبندی مشکل تا استقرار و نظارت است. فراتر از جزئیات پیاده سازی فنی خود، برای به کارگیری این ابزارها باید تصمیمات اجتماعی و فنی مختلفی بگیرید. برخی از ملاحظات رایج RAI که پزشکان ML باید رعایت کنند عبارتند از:
- برای اطمینان از عملکرد خوب مدلم در کدام دسته بندی جمعیتی نیاز دارم؟
- اگر برای انجام ارزیابی عادلانه باید برچسب های حساس را ذخیره کنم، چگونه باید تعادل بین عدالت و حریم خصوصی را در نظر بگیرم؟
- از چه معیارها یا تعاریفی برای ارزیابی عدالت استفاده کنم؟
- چه اطلاعاتی را باید در مصنوعات مدل و شفافیت دادهام لحاظ کنم؟
پاسخ به این سؤالات و بسیاری از سؤالات دیگر به موارد استفاده خاص و نیازهای محصول شما بستگی دارد. به این ترتیب، ما نمیتوانیم دقیقاً به شما بگوییم که چه کاری باید انجام دهید، اما راهنماییهایی برای تصمیمگیری مسئولانه، با راهنماییهای مفید و پیوندهایی به روشهای تحقیق مرتبط در صورت امکان ارائه میکنیم. همانطور که گردش کار مسئول هوش مصنوعی خود را با TensorFlow توسعه می دهید، لطفاً بازخورد خود را در tf-responsible-ai@google.com ارائه دهید. درک آموختهها و چالشهای شما برای توانایی ما در ساخت محصولاتی که برای همه مفید است، حیاتی است.