Руководство TensorFlow по ответственному искусственному интеллекту
Введение
В 2018 году Google представил свои Принципы искусственного интеллекта , которые определяют этическую разработку и использование искусственного интеллекта в исследованиях и продуктах. В соответствии с этими принципами команда TensorFlow работает над тем, чтобы предоставить разработчикам инструменты и методы, позволяющие придерживаться практики ответственного ИИ (RAI).
В этом руководстве вы найдете рекомендации о том, как применять инструменты из Responsible AI Toolkit для разработки целостного рабочего процесса, соответствующего вашему конкретному варианту использования и потребностям продукта. Инструменты в этом руководстве включают те, которые можно применять в таких областях, как справедливость и прозрачность . Это активная область разработки в Google, и вы можете ожидать, что это руководство будет включать рекомендации по дополнительным связанным областям, таким как конфиденциальность , объяснимость и надежность.
Путеводитель Организация
Документация и руководство по API
Для каждого инструмента приведены рекомендации относительно того, что он делает, где в вашем рабочем процессе он может подойти, а также различные рекомендации по его использованию. Там, где это применимо, страница «Установка» включена во вкладку «Руководство» для каждого инструмента, а подробная документация по API — на вкладке «API». Для некоторых инструментов предоставляются технические руководства, демонстрирующие концепции, которые могут показаться пользователям сложными при их применении.
Учебники
По возможности предоставляются учебные пособия для ноутбуков, показывающие, как можно применять инструменты из RAI Toolkit. Обычно это игрушечные примеры, выбранные для привлечения внимания к конкретному инструменту. Если у вас есть вопросы по этому поводу или есть дополнительные варианты использования, которые вы хотели бы изучить, обратитесь к команде TensorFlow RAI по адресу tf-responsible-ai@google.com .
Следующие руководства помогут вам приступить к работе с инструментами для оценки и исправления корректности модели.
Введение в индикаторы справедливости
Введение в индикаторы справедливости, работающие в блокноте Google Colab. Нажмите кнопку « Запустить в Google Colab» , чтобы попробовать самостоятельно.Индикаторы честности с текстовыми вложениями TF Hub
Примените индикаторы справедливости, чтобы оценить часто используемые метрики справедливости в моделях встраивания текста TF Hub с использованием набора данных Civil Comment .Индикаторы честности История преемственности
Примените индикаторы справедливости, чтобы изучить проблемы справедливости в наборе данных COMPAS .Используйте MinDiff с Keras
Попробуйте MinDiff, метод исправления модели, который может улучшить производительность модели по часто используемым показателям справедливости.Создавайте карты моделей с помощью TFX
Используйте набор инструментов Model Card Toolkit с TFX для создания Model Card .Создание отчетов о конфиденциальности
Оцените конфиденциальность вашей модели с помощью отчета о конфиденциальности TF.Дополнительные соображения
Разработка ответственного рабочего процесса ИИ требует продуманного подхода на каждом этапе жизненного цикла машинного обучения, от постановки задачи до развертывания и мониторинга. Помимо деталей вашей технической реализации, вам нужно будет принять множество социотехнических решений, чтобы применить эти инструменты. Некоторые общие соображения RAI, которые необходимо учитывать специалистам по машинному обучению, включают:
- В каких демографических категориях мне нужно убедиться, что моя модель работает хорошо?
- Если я должен хранить конфиденциальные метки для выполнения оценки честности, как мне следует учитывать компромисс между честностью и конфиденциальностью?
- Какие показатели или определения следует использовать для оценки справедливости?
- Какую информацию я должен включить в свою модель и артефакты прозрачности данных?
Ответы на эти и многие другие вопросы зависят от вашего конкретного варианта использования и потребностей продукта. Таким образом, мы не можем точно сказать вам, что делать, но предоставим рекомендации по принятию ответственных решений с полезными советами и ссылками на соответствующие методы исследования, когда это возможно. По мере разработки ответственного рабочего процесса искусственного интеллекта с помощью TensorFlow оставляйте отзывы по адресу tf-responsible-ai@google.com . Понимание ваших знаний и проблем имеет решающее значение для нашей способности создавать продукты, которые работают для всех.