Несмотря на то, что этика ИИ широко обсуждается в промышленности и академических кругах, ее влияние на реальный мир ограничено. Феминизм может быть недостающим звеном между теорией и практикой.

Руководств и обязательств по этике искусственного интеллекта или машинного обучения предостаточно, вы можете найти множество из них в промышленности и академических кругах, но исследования показывают, что они в значительной степени амбициозны и абстрактны.

Существует большой разрыв между принципами этики ИИ и практикой.

В конце 2020 года доктор Элис Витт и я опубликовали наше предложение о том, как феминистская концепция этики ухода за данными может помочь заполнить этот пробел. Статья опубликована в Первый понедельник и находится в открытом доступе для чтения.

TLDR заключается в том, что этика ИИ вряд ли будет достигнута каким-либо реальным и осмысленным образом, если все заинтересованные стороны, особенно мужчины (работающие вместе с женщинами и другими маргинализованными людьми), не возьмут на себя большую ответственность за выполнение этической работы прямо во всей экономике машинного обучения.

Феминистская этика заботы о данных

Не существует общепринятого определения феминизма, но в целом оно описывает веру в равенство прав, возможностей, обязанностей и результатов для женщин (включая тех, кто идентифицирует себя как цисгендерных, трансгендерных и небинарных) и неприятие гетеропатриархального статуса. кво.

Этика заботы — это феминистский подход к этике.

В отличие от доминирующих этических теорий, которые призывают к логике, рациональности и объективности для разработки этических правил, в рамках этики ухода также есть роль (как вы уже догадались) заботы.

Наряду с логикой и рациональностью здесь играет роль учет обстоятельств людей и их положения в мире, межличностных отношениях, обществе и окружающей среде.

В нашей статье мы предлагаем конкретную модель этики заботы о людях, работающих в экономике машинного обучения, которая взята из научных исследований по этике заботы и другой феминистской литературы.

По сути, мы утверждаем, что машинное обучение следует рассматривать не как объективное, автономное техническое явление, а как воплощение.

Мы следуем примеру Донны Харауэй и рассматриваем машинное обучение «из тела, всегда сложного, противоречивого, структурированного и структурированного тела, в отличие от взгляда сверху, из ниоткуда, из простоты».

Машинное обучение основано на реальных людях, жизнях и обществе и привязано к ним.

Он также создается реальными людьми, которые принимают решения о данных, моделях и приложениях — решения, которые могут включать личные и системные предубеждения в важные социально-технические системы.

Пока что так нет споров, верно?

Большинство людей согласятся с тем, что входные данные в системы машинного обучения не являются нейтральными.

Большинство людей также открыто признают, что системы машинного обучения могут нанести вред, особенно цветным людям и женщинам.

Системы обнаружения рака кожи с поддержкой машинного обучения менее эффективны для людей с более темным оттенком кожи.

Программное обеспечение Google для распознавания изображений когда-то классифицировало черных людей как горилл.

Программное обеспечение для оценки риска рецидивизма использовало расу, чтобы предсказать, что люди могут совершать преступления в будущем, независимо от индивидуальных судимостей.

Модели предполагают, что мужчины являются лучшими лидерами, чем женщины, потому что мужчины представлены в данных больше.

Поисковики воспроизвели вредные гендерные и расовые стереотипы.

Системы сканирования тела работали менее оптимально для тел, которые не соответствуют белым гетеронормативным стандартам.

Выявлена ​​система словесных ассоциаций, связывающая домохозяйку с женщинами, а программист с мужчинами.

Вы поняли идею.

Когда дело доходит до предубеждений и вреда, ставки продолжают расти, поскольку технологии машинного обучения все чаще используются для поддержки принятия решений в сфере образования, банковского дела, занятости, жилья, правоохранительных органов и социального обеспечения.

Распространение документов по этике ИИ отчасти является ответом на эти очевидные проблемы.

Но процессы и обязательства, принятые для устранения и предотвращения вреда, до сих пор не привели к значимым изменениям в экономике машинного обучения. Нынешний подход не работает.

В нашей статье мы предлагаем новый подход к этике ИИ, феминистскую этику данных заботы о машинном обучении, основанную на 5 ключевых принципах:

  1. обеспечение разнообразного представительства и участия в экономике машинного обучения;
  2. критическая оценка позиционности;
  3. центрирование человеческих субъектов на каждом этапе конвейера машинного обучения;
  4. внедрение мер прозрачности и подотчетности; и
  5. справедливое распределение ответственности за введение в действие феминистской этики ухода за данными.

Вы можете прочитать все об этой структуре в нашей статье, но это последний пункт, который требует самого пристального внимания.

Распределение ответственности за этическую работу в Brotopia

Достижение этики ИИ на практике требует справедливого распределения этической работы между всеми участниками экономики машинного обучения: от мелких работников до генеральных директоров.

В документах по этике ИИ часто упоминается ответственность, но она, как правило, плохо определена и часто связана с абстрактными вопросами, например, может ли ИИ сам быть юридическим субъектом и, следовательно, нести ответственность за автоматизированные решения.

Интересно подумать, но такой тип абстрактного мышления не может заменить фактического возложения реальной ответственности на реальных лиц, принимающих решения. Это серьезный недостаток нынешних подходов к этике ИИ.

Чтобы что-то изменилось, ответственность должна быть возложена на реальных людей, и она должна быть широко распространена.

Все люди, вовлеченные в экономику машинного обучения, должны чувствовать себя способными и ответственными за этические действия.

Когда ответственность за внедрение этических принципов внутри организации не является широко распространенной, вероятность совпадения этических, технических и экономических целей организации гораздо меньше.

Пример Timnit Gebru в Google в 2021 году — наглядный индикатор этой проблемы.

Гебру была высокопоставленным руководителем исследовательской группы по этике ИИ в компании, и руководители Google попросили ее отозвать исследовательскую работу, которую она написала, в которой предупреждалось о проблемах с новой системой ИИ.

Google на момент разногласий использовал эту систему как часть своей поисковой системы.

В конечном итоге Гебру покинул Google, обе стороны были вовлечены в громкий публичный спор и, по-видимому, не смогли примирить этические и коммерческие императивы.

Чтобы перейти от этических принципов к этической практике, ответственность за устранение и предотвращение вреда должна быть более справедливо распределена между организациями и всей экономикой машинного обучения в целом.

В нынешних условиях, когда в области науки о данных доминирует гетеропатриархальный класс мужчин, это означает, чтобольше мужчин должны выполнять больше повседневной этической работы. эм>

Это, вероятно, в первую очередь требует изменения сознания участников экономики машинного обучения. Тот, который дает им возможность быть автономными лицами, принимающими этические решения, ответственными за предотвращение вреда людям, обществу и окружающей среде.

Нам нужна организационная культура, поддерживающая справедливое распределение ответственности за введение в действие этики ИИ.

Как только реальные люди, работающие в экономике машинного обучения, получают возможность или мотивацию принимать ответственные решения, они получают ряд технических, социальных и культурных решений для практической реализации этики ИИ. На эту тему есть много хороших исследований.

Что нам срочно нужно, так это то, чтобы люди, работающие с этой технологией, изменили культуру и нарастили потенциал для оказания медицинской помощи во всей экономике машинного обучения.