Как ваш бизнес может использовать этику искусственного интеллекта в качестве инструмента инноваций

Искусственный интеллект сулит предприятиям огромные преимущества. Согласно исследованию Markets and Markets, к 2025 году ИИ вырастет до отрасли, объем которой оценивается в 190 миллиардов долларов. Gartner сообщает, что использование ИИ для корпоративных приложений выросло на 270% всего за четыре года.

Если вы подумываете о внедрении ИИ, помните об этических рисках. Все больше и больше владельцев бизнеса начинают задумываться о том, как этика ИИ может помочь им разрабатывать лучшие продукты и стать инструментом инноваций. Позвольте мне провести вас через это.

Какова этика ИИ и почему это важно?

Этика искусственного интеллекта - это академическая область, возникшая из-за необходимости регулировать интеллектуальные программные системы, оказывающие непосредственное влияние на общество. Однако у этой области есть очевидные бизнес-приложения. Facebook, Google, IBM и другие технологические компании имеют быстрорастущие отделы, которые ежедневно занимаются этикой ИИ.

Алгоритмы искусственного интеллекта используются во всем, от социальных сетей до умных автомобилей. Они ежедневно сталкиваются с моральными дилеммами в том, что касается человеческих жизней. Как научить машины принимать решения, справедливые по отношению ко всем, включая меньшинства и обездоленные группы?

Давайте посмотрим на проект Массачусетского технологического института под названием The Moral Machine. Здесь вы можете попытаться решить некоторые этические вопросы, которые должны решить полностью автоматизированные автомобили без водителя. Все эти проблемы характерны для автомобиля с неработающими тормозами:

  • Идти прямо в бетонный блок и убить всех, кто внутри, или спасти их жизни, поворачивая, но убивая пешеходов?
  • Чья жизнь дороже: руководителя или бомжа?
  • Кого спасти: двоих мужчин или двоих детей?

Эти проблемы кажутся слишком жестокими, чтобы быть правдой, но в дороге может случиться все, что угодно. Мы должны быть готовы, когда-нибудь автоматизированным транспортным средствам придется сделать такой трудный выбор. Но сначала нам нужно решить: кому мы отдаем приоритет? Или все должно происходить наугад?

Вы же не хотите делегировать решение таких сложных вопросов кому-то без должной подготовки. Вот некоторые из недавних случаев, когда компании не осознавали этические риски ИИ и были вынуждены нести финансовые потери и репутационный ущерб:

  • Реклама в Facebook. Бизнес-модель Facebook позволяет любому размещать рекламу на своем веб-сайте с таргетингом на определенную демографическую группу. В 2016 году ProPublica обнаружила, что Facebook позволяет осуществлять таргетинг не только по местоположению, полу или возрастной группе, но и по этнической принадлежности. Рекламодатели могут выбрать, на кого они хотят настроить таргетинг, или полностью исключить такую ​​категорию, как афроамериканец, американец азиатского происхождения или латиноамериканец. Рекламная политика Facebook прямо нарушает Закон о справедливом жилищном обеспечении 1968 года, который запрещает любые виды рекламы, дискриминирующей по признаку расы, цвета кожи или национального происхождения. После того, как группа активистов подала в суд на Facebook, компания решила пересмотреть свою рекламную политику. Этого скандала можно было избежать сегодня, поскольку теперь у Facebook есть профессиональная команда, которая оценивала этический риск и знала о применимых правилах.
  • Система найма Amazon. Система найма, которая автоматически сортирует заявки, кажется идеальной для крупных компаний. Однако в 2018 году Amazon, одна из ведущих компаний по производству продуктов на базе искусственного интеллекта, обнаружила, что их инструмент найма не любит женщин. Алгоритм был обучен на исторических данных, полученных от успешных сотрудников за предыдущие 10 лет. Поскольку программная инженерия - это область, в которой преобладают мужчины, система сочла кандидатов-мужчин более подходящими на любую должность. Он отклонил все резюме, содержащие слова женщины, как в женской волейбольной команде. Amazon попыталась исправить ИИ, но не смогла добиться нейтралитета. В конце концов, проект, который стоил 2 года и 50 миллионов долларов, был свернут.
  • Системы оценки уголовного риска. В 2016 году ProPublica опубликовала еще одно исследование, в котором были выявлены расовые предубеждения в системе оценки рисков, используемые в залах судебных заседаний по всей территории США. Они выяснили, что КОМПАС (один из наиболее широко используемых алгоритмов искусственного интеллекта для досудебной оценки) точно оценивает вероятность повторного совершения преступлений белыми и черными преступниками примерно с одинаковой скоростью. Но когда это было неправильно, чернокожие почти в два раза чаще, чем белые, считались группой повышенного риска, но не совершали повторных преступлений. Расовая предвзятость в системе уголовного правосудия США - не горячие новости. Но похоже, что общественные предубеждения глубоко укоренились в алгоритмической логике. Команда разработчиков Northpointe (создателей COMPAS) отвергла любые утверждения о том, что раса является одним из факторов, повлиявших на выход модели. Они даже подорвали достоверность исследования, проведенного ProPublica. Однако проблема здесь в том, что ни общественность, ни осужденные не имеют информации о том, на каком основании принимается решение о приговорах, условно-досрочном освобождении или планах лечения. Освещение проектами Маршалла, The Guardian, MIT Technology Review, Politico и другими СМИ вызвало широкий резонанс этой проблемы, что побудило по крайней мере некоторые штаты пересмотреть свое использование КОМПАС и перейти к другим вариантам.

Можно сказать, что не все системы ИИ используются для принятия таких важных решений, как оценка криминального риска или прием на работу. Ваш продукт может решать совершенно другие задачи, но это не значит, что он не имеет этических последствий. Напротив: поскольку проблема менее очевидна, могут потребоваться годы исследований, чтобы выявить предвзятость в данных или другие проблемы. Так как же узнать, хорошо ли вы справляетесь с минимизацией рисков нарушения этики?

Этика ИИ на практике: шаг за шагом

Важно отметить: не существует решения по этике ИИ, которое подошло бы всем. Ваша программа этики ИИ должна быть адаптирована к вашей отрасли и потребностям вашего бизнеса. Тем не менее, есть три универсальных шага, которые помогут вам построить надежную и устойчивую стратегию этики ИИ.

Шаг 1. Измените свое мышление

Ранее мы видели, как Facebook, Amazon и Northpointe изо всех сил пытались учесть предвзятость в данных и сделать свои алгоритмы справедливыми и прозрачными. Им не хватало навыков, чтобы взглянуть на определенные проблемы с позиции меньшинств и обездоленных групп.

В школе или в семьях нас всех учили, что делать предположения о ком-либо на основании его пола, расы, тона кожи или возраста - неправильно. Но будем честны: очень часто это была формальность. Предубеждения связаны не с тем, что мы делаем сознательно: они неявны. И это делает их вредными. Мы по-прежнему живем в мире, где стереотипы определяют не только личные действия, но и политику правительства.

Это можно изменить. Это хорошая привычка - перестать заботиться о потребностях большинства (и так для них слишком много товаров), а о потребностях меньшинства. Похоже на нелогичную бизнес-модель?

Пару лет назад Джули Пассананте Эльман опубликовала статью о фитнес-браслетах Fitbit. Она изучала, как культурные представления об инвалидности влияют на развитие и внедрение носимых технологий. Существуют сотни компаний, производящих фитнес-трекеры для людей с ограниченными возможностями. Но очень немногие продукты учитывают потребности инвалидов. Люди в инвалидных колясках не вписываются в стандартные программы, в которых используются умные гаджеты для отслеживания потери калорий. Даже сегодня только Apple предоставляет удобные носимые устройства для людей в инвалидных колясках.

Важное заявление об отказе от ответственности: мы не предлагаем использовать уязвимые группы для получения прибыли. Но для разработки продукта, который вносит изменения, изменение точки зрения определенно может быть полезным.

Шаг 2. Создайте индивидуальную схему этических рисков ИИ для своего бизнеса.

Ваша существующая инфраструктура, вероятно, уже соответствует CCPA (Закон штата Калифорния о защите прав потребителей) и / или GDPR (Общие правила защиты данных). Если нет, исправьте это как можно скорее. Управление рисками, связанными с данными, - это первый шаг к устранению опасений по поводу этической стороны вашей системы искусственного интеллекта. Соблюдение этих правил гарантирует защиту прав ваших потребителей и снижает ваши возможные репутационные, финансовые и юридические риски.

Кроме того, сегодня многие компании разрабатывают руководящие принципы справедливости, этичного дизайна и недискриминационного использования систем искусственного интеллекта. Для вдохновения взгляните на принципы, которым следует Google.

Существует несколько подходов к разработке стратегии этики ИИ: для этого вы можете нанять штатного специалиста по этике ИИ, передать его на аутсорсинг в научно-исследовательскую фирму или обучить своих сотрудников: тех, кто занимается кибербезопасностью, развитием бизнеса, юриспруденцией и аналитикой. . TuDelft и University of Helsinki проводят курсы MOOC, которые помогут вам начать обучение.

Шаг 3. Мониторинг и повторная оценка

Как и любую другую бизнес-стратегию, этическую стратегию ИИ необходимо контролировать. Отслеживайте, как осведомленность организации об этике ИИ влияет на разработку продукта. Обучайте инженеров-программистов, менеджеров по продукции и аналитиков данных, чтобы помочь им в переходе.

Повторная оценка также необходима, потому что продукты ИИ не являются чем-то стабильным: они могут разрабатываться с учетом этических норм, но развертываться совершенно неэтично. Убедитесь, что вы проводите тесты и используете как качественные, так и количественные исследования, чтобы определить, как продукт повлияет на конечных пользователей.

Никто не говорит, что внедрить этику ИИ просто. Но компании, которые инвестируют в это, могут снизить юридические и этические риски. Наконец, нет ничего важнее для бизнеса, чем доверие клиентов. Сделайте решение ИИ, которое этого заслуживает.