В этой статье обсуждается важность ответственного ИИ и меняющаяся нормативно-правовая база, регулирующая ИИ в США. Он также предоставляет набор дополнительных указаний для организаций по продвижению ответственного ИИ, включая участие общественности, оценку перемещений, междисциплинарное сотрудничество, ориентацию на человека, постоянное этическое совершенствование, культурное представительство, воздействие на окружающую среду и полезный ИИ. В статье подчеркивается необходимость того, чтобы организации оставались адаптируемыми и регулярно пересматривали свои ответственные методы ИИ, чтобы гарантировать, что они отвечают меняющимся потребностям общества.

В качестве советника по этике и политике ИИ в The Cantellus Group я имел честь проводить несколько семинаров Business Roundtable по ответственному ИИ. Во время этих сессий я работал с руководителями высшего звена из крупнейших компаний США над изучением передового опыта ответственного внедрения ИИ. Цель этой совместной инициативы состояла в том, чтобы установить набор руководств по ответственному ИИ, которые могут направить организации к разработке и развертыванию ИИ таким образом, чтобы приоритет отдавался безопасности, эффективности и надежности.

Семинары имели огромный успех, и их результатом стал запуск BRT Дорожная карта для ответственного искусственного интеллекта, в которой излагаются основные принципы, которые предприятия должны учитывать при внедрении ИИ. В Дорожной карте подчеркивается важность развития корпоративной культуры ответственного ИИ, внедрения управления ИИ во всей организации, обеспечения безопасности систем ИИ, а также ответственного сбора и использования данных. Чтобы способствовать разнообразию и снизить вероятность несправедливой предвзятости, предприятиям рекомендуется внедрять инновации с учетом разнообразия, разрабатывать системы ИИ для прозрачности и интерпретируемости, а также инвестировать в рабочую силу ИИ, готовую к будущему. Наконец, в рекомендациях подчеркивается важность регулярной оценки и мониторинга моделей ИИ, чтобы убедиться, что они остаются эффективными, безопасными и надежными.

Нормативная среда, регулирующая ИИ, продолжает развиваться

Спустя год после выпуска «Дорожная карта» BRT остается ценным ресурсом для организаций, стремящихся внедрить ответственный ИИ в условиях меняющихся правил и стандартов управления ИИ.

Растущее распространение ИИ побудило регуляторов и политиков разработать правила и стандарты для его использования. Хотя в США отсутствует всеобъемлющее федеральное законодательство об ИИ, ожидается, что в 2023 году вступят в силу несколько конкретных законов штатов о конфиденциальности данных, нормотворчество Федеральной торговой комиссии (FTC) и новые стандарты ИИ Национального института стандартов и технологий (NIST). В Калифорнии, Коннектикуте, Колорадо и Вирджинии вступит в силу общее законодательство о конфиденциальности данных с положениями, регулирующими автоматизированное принятие решений, основанными на Общем регламенте ЕС по защите данных (GDPR). Государственные законы о конфиденциальности предоставят потребителям право отказаться от важных решений, принимаемых алгоритмами ИИ. Предлагаемые правила конфиденциальности в Колорадо потребуют от компаний предоставления прозрачной информации о процессе принятия решений ИИ, в том числе о том, была ли модель оценена на предмет справедливости. Предстоящие правила Калифорнии обяжут компании предоставлять потребителям значимую информацию о процессах принятия решений с использованием ИИ.

Эти изменения в нормативно-правовой базе США ставят гражданские права в основу управления ИИ и согласуются с ключевыми принципами Проекта Билля о правах ИИ (AIBoR), разработанного Управлением научно-технической политики Белого дома (OSTP). ) в 2022 году. AIBoR излагает этические принципы ИИ, акцентируя внимание на важности безопасных и эффективных систем ИИ, прозрачности и объяснении решений ИИ, конфиденциальности данных, деятельности человека и защите от алгоритмической дискриминации. План также требует активной оценки справедливости и постоянных усилий по смягчению последствий несоответствий, вызванных алгоритмами ИИ.

По мере того, как ИИ продолжает развиваться и становится все более распространенным в обществе, ожидается, что регулирующая среда будет продолжать развиваться, что приведет к более тщательному изучению практики и процессов ИИ в организациях. Эти изменения нормативно-правовой базы не только не препятствуют инновациям, но и необходимы для обеспечения компаний структурой и четкими границами, а также для защиты прав человека и свободы действий.

Необходим адаптивный подход к ответственному ИИ

Для организаций важно оставаться адаптируемыми и регулярно пересматривать свои ответственные методы ИИ, чтобы гарантировать, что они остаются в соответствии с возникающими рисками и меняющимися потребностями общества.
Чтобы продвигать ответственный ИИ адаптивным образом, правительства должны не только регулировать и развивать стандарты практики, но также поощрять компании ИИ, которые активно отдают приоритет честной и прозрачной практике ИИ.Это означает признание компаний, которые ввели строгий контроль за использованием ИИ в своей деятельности и специально продвигают справедливость и прозрачность в ИИ. процессы принятия решений. Кроме того, компании, которые инвестируют в обучение и обучение ИИ своих сотрудников, а также те, которые активно участвуют в публичных дискуссиях об этике ИИ, также могут быть поощрены. Признавая и награждая компании, которые уделяют приоритетное внимание этим важным областям, государственный сектор может еще больше стимулировать отрасль к переходу на ответственные методы ИИ.

Для компаний, которые уже придерживаются принципов ответственного ИИ, адаптивность означает внедрение новых передовых практик, рассмотрение возникающих этических дилемм и взаимодействие с более широким и разнообразным кругом заинтересованных сторон для расширения их взглядов и оптимизации механизмов управления ИИ. Кроме того, предприятиям также следует сопоставлять свои ответственные усилия в области ИИ с отраслевыми стандартами и правилами и принимать участие в многостороннем сотрудничестве, чтобы способствовать коллективному прогрессу в практике ответственного ИИ.

Используя адаптивный и дальновидный подход к ответственному ИИ, организации могут гарантировать, что они будут продолжать предоставлять безопасные, эффективные и надежные решения ИИ, отвечающие меняющимся потребностям общества. Существует несколько дополнительных направлений, которые организации могут использовать для дальнейшего распространения ответственного ИИ:

  • Взаимодействие с общественностью: содействие пониманию общественностью технологии ИИ и поощрение участия общественности в разработке и развертывании ИИ. Поскольку технология ИИ все больше интегрируется во все аспекты нашей жизни, крайне важно обеспечить, чтобы общественность была хорошо информирована о ее возможностях, ограничениях и потенциальных последствиях. Сюда входят лица, которые могут не иметь большого опыта работы с цифровыми технологиями или высокого уровня технологической грамотности.
  • Оценка смещения:признаниепотенциала систем ИИ для автоматизации задач, которые ранее выполнялись людьми, что приводит к перемещению рабочих мест или необходимости переквалификации или повышения квалификации сотрудников. Оценивая возможность перемещения, организации могут определить потенциальные негативные последствия для своих сотрудников и других заинтересованных сторон и разработать стратегии смягчения последствий для устранения этих последствий.
  • Междисциплинарное сотрудничество.Чтобы продвигать ответственные методы искусственного интеллекта и инновационные решения для возникающих социальных проблем, организациям следует поощрять междисциплинарное сотрудничество и обмен информацией между различными заинтересованными сторонами для всестороннего изучения возможностей и проблем, связанных с искусственным интеллектом.
  • Ориентированность на человека.Принцип разработки и развертывания ИИ с акцентом на человеческие потребности, ценности и благополучие признает потенциал систем ИИ оказывать глубокое влияние на отдельных людей и сообщества. Ориентированный на человека подход к ИИ позволяет организациям разрабатывать и развертывать свои системы ИИ таким образом, который уважает достоинство, автономию и безопасность людей и способствует большему благу общества.
  • Постоянное совершенствование этических норм. Включение текущих этических оценок и оценок в разработку и развертывание систем искусственного интеллекта на основе отзывов различных заинтересованных сторон. Это включает в себя регулярное расширение этических соображений перед лицом новых рисков, а также получение информации от широких слоев общества, включая недостаточно представленные сообщества. Этот принцип признает постоянно развивающийся характер технологии и ее влияние на общество.
  • Культурное представление: обеспечение справедливого представления и отражения человеческих культур в моделях генеративного ИИ. Уделяя приоритетное внимание культурному репрезентации, организации могут способствовать инклюзивности, предотвращать культурную деградацию и способствовать сохранению культуры с помощью ИИ. Для этого требуются методы сбора и анализа данных, чувствительные к культурным нюансам, а также глубокое понимание культурных контекстов, в которых собираются данные.
  • Воздействие на окружающую среду. Организации должны разработать ключевые показатели эффективности (KPI) и показатели, которые измеряют воздействие систем ИИ на окружающую среду, включая их энергопотребление, углеродный след и сокращение отходов. Они также должны учитывать весь жизненный цикл продуктов ИИ, от поиска материалов до утилизации, и стремиться минимизировать их воздействие на окружающую среду на каждом этапе.
  • Полезный ИИ:разработка полезных систем ИИ, которые соответствуют ценностям и целям цивилизации в целом и призваны оказывать положительное влияние на общество, в том числе при решении насущных социальных и экологических проблем, а также общее качество жизни отдельных людей, сообществ и нечеловеческих животных. Кроме того, этот принцип поощряет активный подход к оценке потенциального воздействия систем ИИ на общество с течением времени с учетом долгосрочных последствий и воздействия на будущие поколения.

Заключение

По мере того, как организации ориентируются в быстро меняющемся ландшафте ИИ, важно уделять первоочередное внимание этическим соображениям и постоянно совершенствовать ответственные принципы ИИ и их реализацию для удовлетворения меняющихся потребностей общества. Поступая таким образом, мы можем гарантировать, что технология искусственного интеллекта продолжит способствовать позитивным изменениям и прогрессу, одновременно служа на благо человечества.

Как писал Иммануил Кант: «Действуйте только в соответствии с тем принципом, согласно которому вы можете в то же время желать, чтобы он стал всеобщим законом». Другими словами, мы должны стремиться действовать таким образом, чтобы поддерживать универсальные этические принципы даже перед лицом быстрых технологических изменений. Работая вместе и соблюдая эти принципы, мы можем использовать весь потенциал ИИ, обеспечивая его ответственное и этичное внедрение.

_____

===› Подпишитесь на мою следующую публикацию на тему Уникальные проблемы и возможности генеративного ИИ