Выравнивание ИИ и безопасность

Как мы можем сделать искусственный интеллект этичным?

Для более справедливого мира необходимы коллективные усилия.

На прошлой неделе мы завершили поучительное мероприятие на одном из моих вводных курсов в аспирантуре. В некотором контексте класс предназначен для ознакомления с различными исследовательскими парадигмами в области взаимодействия человека с компьютером (HCI) и смежных областях. Первую половину квартала мы посвятили обсуждению высокоуровневых элементов качественного исследования, а недавно обсуждали методы оценки этичности и достоверности научных исследований.

Для этого наш профессор попросил каждого из нас проанализировать исследовательскую работу по выбору и написать короткий фрагмент из 300 слов, в котором обсуждаются этические проблемы, непосредственно присутствующие в исследовании или подразумеваемые им. Затем мы объединили все наши статьи в своего рода небольшой «виртуальный журнал», который можно было использовать в качестве быстрого справочника в будущем при чтении научных статей.

Конечный результат был захватывающим, в частности потому, что мы смогли обнаружить ряд этических проблем, все еще присутствующих в фактических, опубликованных исследованиях. Вот лишь некоторые из проблем, обнаруженных пользователями:

  • Заявление общего характера на основе данных небольшой нерепрезентативной выборки
  • Ссылаясь на устаревшие исследования
  • Несоблюдение конфиденциальности собранных данных
  • Проводить исследования маргинализированных сообществ, но никогда не возвращаться, чтобы на самом деле помочь этим же самым сообществам.
  • Использование ненадежных данных (например, данные, собранные на MTurk без надлежащей метрики того, действительно ли пользователи отвечали на вопросы)

Наш псевдожурнал был намеренно общим — и, просматривая его, я не мог не связать все обсуждаемые вопросы с моим собственным опытом в области компьютерных наук. В частности, я рассмотрел, сколько из вышеперечисленных проблем связано с искусственным интеллектом (ИИ).

Искусственный интеллект уже много лет является процветающей областью, но в последнее время наблюдается растущий интерес к этическому ИИ. Это было вызвано осознанием того, что многие существующие в настоящее время формы искусственного интеллекта сильно предвзяты — например, есть свидетельства того, что алгоритмы распознавания лиц хуже работают на людях с более темной кожей [1].

Проблема связана с данными, на которых обучаются алгоритмы ИИ. Когда модель обучается на неполных или неточных данных, неважно, насколько она хороша — ее предсказательная способность всегда будет плохой.

Вот здесь-то и вступает в действие то, что мы делали в классе. В разгар этого я задал себе вопрос: можем ли мы расширить и развить эту стратегию в поиске этичного искусственного интеллекта? Если да, то с чего начать?

Я считаю, что да, и мы начнем с определения ключевого аспекта моей классной деятельности, который сделал ее уникальной: богатое разнообразие взглядов.

Позвольте мне немного уточнить это. Моя программа магистратуры является междисциплинарной и принимает студентов из разных слоев общества. В этой комнате у нас были студенты, специализирующиеся на компьютерных науках, социологии, UI/UX, экономике, графическом дизайне, общественном здравоохранении, математике и многом другом. Исследовательские работы, которые мы изучили, охватывают весь спектр от визуализации информации до аксиологии (раздела философии, занимающегося тем, что делает вещи ценными). Благодаря этому мы смогли создать журнал, одновременно конкретный и общий — конкретный, поскольку он позволяет нам эффективно исследовать этические проблемы в современных исследованиях, и общий, поскольку он позволяет нам делать это в различных областях исследований. .

Это подводит меня к основной мысли: учет различных точек зрения на начальном этапе исследования необходим для создания этических форм искусственного интеллекта. Если технология ИИ предвзята, то это потому, что исходные данные также предвзяты. Во многих случаях это может быть непреднамеренным, потому что исследователи просто не осознавали изъяна в своей методике сбора данных. Если вы не знаете о предвзятости, как вы можете с ней бороться? Привлекая людей из разных слоев общества к созданию этих алгоритмов, мы можем гарантировать, что конечный продукт будет этичным и инклюзивным.

Вернемся к примеру с технологией распознавания лиц. Алгоритм, упомянутый в статье, указанной выше, плохо работал на темнокожих женщинах. И хотя я не могу прямо утверждать об исследовательской группе, разработавшей этот алгоритм, хорошо задокументировано, что как женщины, так и цветные люди недостаточно представлены в областях STEM, особенно в компьютерных науках. Соответственно, вполне вероятно, что команда не приняла во внимание плохие данные обучения из-за собственной однородности.

Чтобы сделать искусственный интеллект этичным, мы должны начать с самого начала. Недостаточно создать алгоритм, а затем подумать, как сделать его этичным и инклюзивным в ретроспективе. Скорее, мы должны использовать новые методы на начальных этапах исследования и ассимилировать множество точек зрения на саму суть наших алгоритмов. И для этого нам нужны два важных ингредиента:

  1. Исследовательские группы, в которые входят исследователи из всех сообществ, упростят проверку того, что полученные алгоритмы не будут непреднамеренно дискриминационными.
  2. Исследовательские группы, которые используют смешанные методы — другими словами, в сочетании с количественными исследователями, которые выполняют математическую работу по созданию и программированию алгоритма, нам нужны качественные исследователи, которые могут разработать более эффективные методы сбора и анализа данных, которые учитывают человеческий фактор. аспект ИИ — не только машины.

Само по себе этого, конечно, недостаточно — но начало положено. Искусственный интеллект не показывает никаких признаков замедления в ближайшем будущем. Если мы не научимся делать это этично, то, что нас ждет в оставшейся части 21-го века, будет совсем не хорошим.

Рекомендации

[1] А. Наджиби, Расовая дискриминация в технологии распознавания лиц (2020). https://sitn.hms.harvard.edu/flash/2020/racial-distribution-in-face-recognition-technology/