Раскройте потенциал ответственного ИИ: 5 шагов к обеспечению этичности систем
5 шагов для создания ответственных систем искусственного интеллекта
В конце есть несколько бонусов, поэтому обязательно прокрутите страницу вниз.
Введение
Искусственный интеллект (ИИ) стал мощным инструментом для автоматизации сложных задач и анализа больших наборов данных в нынешнюю цифровую эпоху. По мере того, как системы ИИ становятся все более распространенными, важно обеспечить их ответственную разработку, чтобы обеспечить их безопасность и пользу для общества. В этой позе блога будут обсуждаться пять ключевых шагов для создания ответственных систем ИИ.
Что делает ИИ ответственным?
Первым шагом в построении ответственной системы ИИ является определение того, что представляет собой ответственный ИИ. Часто проще подойти с противоположной стороны, чтобы лучше понять, какой тип ИИ можно считать «безответственным»:
- Алгоритм сканирования резюме и найма с гендерным уклоном
- Алгоритм улучшения изображения, который лучше подходит для светлой кожи.
- Алгоритм рекламы, который дискриминирует пожилых людей или семьи с низким доходом
- Алгоритм распознавания голоса, который хуже работает с речью с определенными акцентами
По сути, это включает в себя определение этических соображений, которые следует учитывать при разработке системы, и целей, к достижению которых должна стремиться система. Также важно учитывать потенциальные риски, связанные с системой, такие как предвзятость и нарушения конфиденциальности, и создавать политики и процедуры для снижения этих рисков.
Структура управления
Следующим шагом является создание структуры управления для системы ИИ. Эта структура должна включать роли и обязанности для тех, кто занимается надзором и управлением системой ИИ. Он также должен включать механизм мониторинга и обеспечения соблюдения. Вот некоторые ключевые компоненты, которые следует учитывать при создании структуры управления:
- Назначьте лидера или группу лидеров, ответственных за надзор за системой ИИ.
- Установите четкий набор правил, руководств и политик, которым необходимо следовать при использовании системы ИИ.
- Внедрите систему сдержек и противовесов, чтобы гарантировать, что система ИИ используется ответственно и этично.
- Создайте процесс мониторинга и обеспечения соблюдения правил, руководств и политик.
- Определите потенциальные риски, связанные с использованием системы ИИ, и создайте план по снижению этих рисков.
- Разработайте план коммуникации для информирования заинтересованных сторон о системе ИИ и ее использовании.
Структура прозрачности
Прозрачность является ключом к обеспечению подотчетности и надежности систем ИИ. Эта структура должна включать набор руководящих принципов и стандартов для обеспечения надлежащего и этичного управления данными. Он также должен включать конкретные шаги для обеспечения того, чтобы данные собирались, хранились и использовались ответственно.
Упрощенным способом создания такой структуры может быть установка стандартов для каждого этапа в системе ИИ. Например:
- Сбор данных. Соответствует ли код допустимому ограничению использования, согласиям, лицензиям, положениям и условиям? Собраны ли данные безопасным способом с достаточным шифрованием?
- Хранение данных. Где физически хранятся данные? Храним ли мы личную информацию? Существует ли политика истечения срока действия данных или политика архивирования?
- Использование данных. Используем ли мы демографические данные в качестве ключевого фактора в системе ИИ? Вносим ли мы предубеждения непреднамеренно, рассматривая характеристики, сильно коррелирующие с демографией, в качестве ключевых факторов?
- Мониторинг и оценка. Можно ли воспроизвести результаты обучения? Можно ли ретроспективно объяснить решение отдать предпочтение одной модели другой? Осуществляется ли мониторинг и оповещение о смещении данных и смещении концепций?
Подождите! Medium – это место, где можно прочитать много интересного. Я прочитал много статей, прежде чем решил начать писать. Подумайте о том, чтобы присоединиться к Medium, используя мою реферальную ссылку!
Стратегия качества данных
Данные являются источником жизненной силы систем ИИ, и важно обеспечить высокое качество данных, используемых для обучения и работы системы. Это можно определить и зафиксировать, используя следующие, опять же упрощенные, аспекты:
- Сбор данных. Проверяем ли мы потерянные пакеты при получении данных?
- Проверка данных. Реализуем ли мы какие-либо проверки достоверности и полноты данных?
- Схема данных. Храним ли мы данные в четко определенной и эффективной схеме?
Непрерывный мониторинг
Наконец, важно обеспечить постоянный мониторинг системы ИИ, чтобы убедиться, что она работает должным образом. Также важно периодически проверять систему, чтобы убедиться, что она по-прежнему соответствует поставленным перед ней целям и задачам. Вопросы, которые вы, возможно, захотите задать себе на этом этапе, могут включать:
- Является ли наш текущий стек технологий оптимальным для этой задачи?
- Каков риск перехода на более обновленный стек технологий?
- Можем ли мы объяснить весь поток данных?
- Можем ли мы повторить наши шаги обучения и вывода?
- Есть ли известные дефекты в нашем текущем стеке технологий?
- Постоянно ли мы анализируем риски предвзятости данных и нарушения конфиденциальности?
- Хорошо ли документирован исходный код?
- Есть ли у нас книга всех предупреждений, инцидентов и заметок о вскрытии?
- Есть ли у нас модульные тесты, регрессионные тесты и интеграционные тесты, реализованные в нашей системе искусственного интеллекта?
- Знаем ли мы количественно, актуальна ли наша система искусственного интеллекта для ввода данных?
- Как мы выпускаем новые версии нашей системы искусственного интеллекта и как об этом сообщается?
И последнее, но не менее важное. Прежде чем мы перейдем к бонусам, краткий обзор пяти шагов:
- Определите ответственного ИИ в вашей сфере деятельности
- Определить структуру управления
- Определить структуру прозрачности
- Определение стратегии качества данных
- Постоянно контролируйте свою систему искусственного интеллекта
Соответствующие ресурсы для ответственного ИИ
- AI Fairness 360 (AIF360): комплексный набор инструментов с открытым исходным кодом для обнаружения, понимания и смягчения последствий предвзятости в машинном обучении.
- AI объяснимость 360 (AIX360): библиотека алгоритмов с открытым исходным кодом для объяснения решений на основе моделей ИИ.
- Инструментарий объяснимости ИИ (AIE): набор инструментов для создания объяснимых систем ИИ.
- Google What-if Tool: инструмент для изучения, отладки и понимания моделей машинного обучения.
- DALEX: пакет для объяснения моделей, созданных с помощью любой среды машинного обучения.
Если вас интересуют трюки с Python, я составил для вас список этих коротких блогов:
- Python Tricks: Распаковка Iterables
- Python Tricks: выравнивание списков
- Трюки Python: как проверить слияние таблиц с помощью Pandas
- Python Tricks: упрощение операторов if и логических вычислений
- Трюки с Python: проверка нескольких переменных по одному значению
Если вы хотите узнать больше о том, как применять машинное обучение в трейдинге и инвестировании, вот еще несколько постов, которые могут вас заинтересовать:
- Генетический алгоритм оптимизации торговой стратегии на Python
- Генетический алгоритм — остановите переоснащение торговых стратегий
- Рекомендательная система ANN для выбора акций