Раскройте потенциал ответственного ИИ: 5 шагов к обеспечению этичности систем

5 шагов для создания ответственных систем искусственного интеллекта

В конце есть несколько бонусов, поэтому обязательно прокрутите страницу вниз.

Введение

Искусственный интеллект (ИИ) стал мощным инструментом для автоматизации сложных задач и анализа больших наборов данных в нынешнюю цифровую эпоху. По мере того, как системы ИИ становятся все более распространенными, важно обеспечить их ответственную разработку, чтобы обеспечить их безопасность и пользу для общества. В этой позе блога будут обсуждаться пять ключевых шагов для создания ответственных систем ИИ.

Что делает ИИ ответственным?

Первым шагом в построении ответственной системы ИИ является определение того, что представляет собой ответственный ИИ. Часто проще подойти с противоположной стороны, чтобы лучше понять, какой тип ИИ можно считать «безответственным»:

  • Алгоритм сканирования резюме и найма с гендерным уклоном
  • Алгоритм улучшения изображения, который лучше подходит для светлой кожи.
  • Алгоритм рекламы, который дискриминирует пожилых людей или семьи с низким доходом
  • Алгоритм распознавания голоса, который хуже работает с речью с определенными акцентами

По сути, это включает в себя определение этических соображений, которые следует учитывать при разработке системы, и целей, к достижению которых должна стремиться система. Также важно учитывать потенциальные риски, связанные с системой, такие как предвзятость и нарушения конфиденциальности, и создавать политики и процедуры для снижения этих рисков.

Структура управления

Следующим шагом является создание структуры управления для системы ИИ. Эта структура должна включать роли и обязанности для тех, кто занимается надзором и управлением системой ИИ. Он также должен включать механизм мониторинга и обеспечения соблюдения. Вот некоторые ключевые компоненты, которые следует учитывать при создании структуры управления:

  • Назначьте лидера или группу лидеров, ответственных за надзор за системой ИИ.
  • Установите четкий набор правил, руководств и политик, которым необходимо следовать при использовании системы ИИ.
  • Внедрите систему сдержек и противовесов, чтобы гарантировать, что система ИИ используется ответственно и этично.
  • Создайте процесс мониторинга и обеспечения соблюдения правил, руководств и политик.
  • Определите потенциальные риски, связанные с использованием системы ИИ, и создайте план по снижению этих рисков.
  • Разработайте план коммуникации для информирования заинтересованных сторон о системе ИИ и ее использовании.

Структура прозрачности

Прозрачность является ключом к обеспечению подотчетности и надежности систем ИИ. Эта структура должна включать набор руководящих принципов и стандартов для обеспечения надлежащего и этичного управления данными. Он также должен включать конкретные шаги для обеспечения того, чтобы данные собирались, хранились и использовались ответственно.

Упрощенным способом создания такой структуры может быть установка стандартов для каждого этапа в системе ИИ. Например:

  • Сбор данных. Соответствует ли код допустимому ограничению использования, согласиям, лицензиям, положениям и условиям? Собраны ли данные безопасным способом с достаточным шифрованием?
  • Хранение данных. Где физически хранятся данные? Храним ли мы личную информацию? Существует ли политика истечения срока действия данных или политика архивирования?
  • Использование данных. Используем ли мы демографические данные в качестве ключевого фактора в системе ИИ? Вносим ли мы предубеждения непреднамеренно, рассматривая характеристики, сильно коррелирующие с демографией, в качестве ключевых факторов?
  • Мониторинг и оценка. Можно ли воспроизвести результаты обучения? Можно ли ретроспективно объяснить решение отдать предпочтение одной модели другой? Осуществляется ли мониторинг и оповещение о смещении данных и смещении концепций?

Подождите! Medium – это место, где можно прочитать много интересного. Я прочитал много статей, прежде чем решил начать писать. Подумайте о том, чтобы присоединиться к Medium, используя мою реферальную ссылку!



Стратегия качества данных

Данные являются источником жизненной силы систем ИИ, и важно обеспечить высокое качество данных, используемых для обучения и работы системы. Это можно определить и зафиксировать, используя следующие, опять же упрощенные, аспекты:

  • Сбор данных. Проверяем ли мы потерянные пакеты при получении данных?
  • Проверка данных. Реализуем ли мы какие-либо проверки достоверности и полноты данных?
  • Схема данных. Храним ли мы данные в четко определенной и эффективной схеме?

Непрерывный мониторинг

Наконец, важно обеспечить постоянный мониторинг системы ИИ, чтобы убедиться, что она работает должным образом. Также важно периодически проверять систему, чтобы убедиться, что она по-прежнему соответствует поставленным перед ней целям и задачам. Вопросы, которые вы, возможно, захотите задать себе на этом этапе, могут включать:

  • Является ли наш текущий стек технологий оптимальным для этой задачи?
  • Каков риск перехода на более обновленный стек технологий?
  • Можем ли мы объяснить весь поток данных?
  • Можем ли мы повторить наши шаги обучения и вывода?
  • Есть ли известные дефекты в нашем текущем стеке технологий?
  • Постоянно ли мы анализируем риски предвзятости данных и нарушения конфиденциальности?
  • Хорошо ли документирован исходный код?
  • Есть ли у нас книга всех предупреждений, инцидентов и заметок о вскрытии?
  • Есть ли у нас модульные тесты, регрессионные тесты и интеграционные тесты, реализованные в нашей системе искусственного интеллекта?
  • Знаем ли мы количественно, актуальна ли наша система искусственного интеллекта для ввода данных?
  • Как мы выпускаем новые версии нашей системы искусственного интеллекта и как об этом сообщается?

И последнее, но не менее важное. Прежде чем мы перейдем к бонусам, краткий обзор пяти шагов:

  1. Определите ответственного ИИ в вашей сфере деятельности
  2. Определить структуру управления
  3. Определить структуру прозрачности
  4. Определение стратегии качества данных
  5. Постоянно контролируйте свою систему искусственного интеллекта

Соответствующие ресурсы для ответственного ИИ

  1. AI Fairness 360 (AIF360): комплексный набор инструментов с открытым исходным кодом для обнаружения, понимания и смягчения последствий предвзятости в машинном обучении.
  2. AI объяснимость 360 (AIX360): библиотека алгоритмов с открытым исходным кодом для объяснения решений на основе моделей ИИ.
  3. Инструментарий объяснимости ИИ (AIE): набор инструментов для создания объяснимых систем ИИ.
  4. Google What-if Tool: инструмент для изучения, отладки и понимания моделей машинного обучения.
  5. DALEX: пакет для объяснения моделей, созданных с помощью любой среды машинного обучения.

Если вас интересуют трюки с Python, я составил для вас список этих коротких блогов:

Если вы хотите узнать больше о том, как применять машинное обучение в трейдинге и инвестировании, вот еще несколько постов, которые могут вас заинтересовать: