Наука о данных в реальном мире

Вопросы этики и конфиденциальности рекомендательных систем на медиа-платформах

Почему мы должны уделять больше внимания системам, обслуживающим контент.

Системы рекомендаций на медиа-платформах доминируют в наших медиа-решениях. Вместо того, чтобы позволять случайному серфингу на диване определять нашу судьбу просмотра, выбор делается за нас во всех формах цифровых медиа, включая YouTube, Facebook, Spotify и т. Д. Согласно отчету McKinsey, 75% решений о просмотре Netflix взяты из рекомендаций по продукту.

Хотя на первый взгляд это приравнивается к удобству пользователя, поскольку система рекомендует вещи, которые согласуются с данными, которые она собрала для создания профиля интересов пользователей, на самом деле доминирование системы рекомендаций опровергает этические соображения и соображения конфиденциальности.

Этический вопрос №1: зависимость

Одна этическая проблема в рекомендательных системах заключается в том, что они созданы для того, чтобы вызывать привыкание. Их цель - улавливать и поддерживать интерес пользователей в течение длительных периодов времени. Возьмем, к примеру, функции автовоспроизведения на YouTube и Netflix. Оба предоставляют контент, адаптированный к вашему профилю данных, и воспроизводят его автоматически, чтобы вы были на связи.

В чем состоит этическая дилемма? Разве это не способ выжить в условиях новой экономики внимания? Возможно, с первого взгляда. Но как насчет того, чтобы эти глобальные компании использовали преимущества человеческой психологии для создания вызывающего привыкание продукта, как признал в интервью Axios Шон Паркер, член-основатель Facebook:

«Мыслительный процесс, который потребовался для создания этих приложений, Facebook был первым из них,… заключался в следующем:« Как мы тратим как можно больше вашего времени и сознательного внимания ».

Стэнфордский профессор Нир Эйал, написавший книгу о разработке продуктов, вызывающих привыкание, призывает к новым этическим стандартам. Эяль говорит, что различные методы убеждения могут быть этичными в зависимости от обстоятельств; например, использование полосы в Duolingo для поощрения людей к изучению нового языка может показаться приемлемым, в то время как полоса SnapChat, предназначенная для того, чтобы подростки принудительно проверяли приложение, может находиться в этой этической серой зоне, что делает его сложный вопрос. Итак, он утверждает, что если платформа заставляет пользователя делать то, что он не хочет делать, это уже не просто убеждение - это принуждение.

Хотя это может быть более серьезной проблемой в таких приложениях, как SnapChat и Facebook, это все еще актуально для систем рекомендаций, поскольку они часто созданы для того, чтобы привлекать и поддерживать внимание зрителей. Netflix "Вы все еще смотрите?" Функция должна быть задействована и в других приложениях, таких как YouTube.

Этический вопрос №2: экстремальный контент = внимание зрителей, но какой ценой

Борьба за привлечение и поддержание внимания пользователей привела к еще одной критической этической проблеме, касающейся механизмов рекомендаций: обслуживаемый контент на самом деле может не соответствовать интересам пользователей и способствует поляризации. Как пишет Рене Диеста в Wired, рекомендательные системы сломаны и стали Великим поляризатором.

Например, на YouTube алгоритм имеет тенденцию предлагать все более радикальный контент в рамках усилий, которые вы будете продолжать смотреть, чтобы Google мог больше зарабатывать на рекламе. Как пишет Зейнеп Туфекчи в Нью-Йорк Таймс,

«YouTube ведет зрителей в кроличью нору экстремизма, в то время как Google увеличивает продажи рекламы».

Туфекчи обнаружил, что независимо от того, начали ли вы смотреть немного либеральные или консервативные ведущие видео, YouTube предлагает все более радикальный контент, в том числе видео о превосходстве и теории заговора. Даже неполитические видеоролики, например о вегетарианстве, могут привести к видеороликам о веганстве, чтобы заинтересовать пользователя.

Туфекчи в конечном итоге связывает YouTube с рестораном быстрого питания: подает много сладких и соленых блюд, которые заставляют нас хотеть продолжать есть, даже если мы уже наелись.

Это этическая проблема для инженеров Google, потому что они знают, что люди заходят на YouTube за информацией по самым разным темам, а алгоритм в конечном итоге может склонить людей к просмотру некорректных, радикальных и экстремальных видео.

Создатели контента также пострадали, - пишет Гийом Шасло, бывший инженер Google, критикующий этичность алгоритма YouTube. Поскольку все более радикальный контент работает хорошо, создателей стимулируют создавать зажигательные видео и посты, чтобы привлечь внимание к своему контенту.

«ИИ еще не создает фейковые новости и не начинает войну против СМИ как таковых, но он стимулирует к этому создателей контента и общественных деятелей».

Проблема рекомендательных систем, ведущих к все более радикальному содержанию, не ограничивается алгоритмом YouTube. Facebook рассматривает возможность изменения своей системы рекомендаций новостной ленты, чтобы больше продвигать группы Facebook, что может быть ошибкой, согласно BuzzFeed News, поскольку эти группы могут превратиться в микрокосмос экстремизма.

Исследователь в области безопасности Ренне ДиРеста сообщила BuzzFeed, что группы уже выступают в качестве мишени для злоумышленников:

«Пропагандистам и спамерам необходимо собрать аудиторию, и группы разносят ее на блюде. Нет необходимости запускать рекламную кампанию, чтобы найти людей, восприимчивых к вашему сообщению, если вы можете просто присоединиться к соответствующим группам и начать публиковать сообщения ».

Facebook меняет свой алгоритм, чтобы сосредоточиться на группах больше, а не меньше, - это серая этическая зона. С одной стороны, люди публикуют больше сообщений в группах, поэтому, чтобы привлечь больше внимания людей, это имеет смысл для производительности платформы. С другой стороны, знание того, что злоумышленники часто специально используют группы - BuzzFeed News также заявляет, что российские хакеры постоянно ссылаются на группы Facebook в качестве основного - показывает, что Facebook может помочь пользователям стать более восприимчивыми к этим дурным влияниям.

Diresta предлагает несколько способов решения этой проблемы. Первый - создать проблему с рекомендациями, которая указывает людям в противоположном направлении - к контенту, направленному на дерадикализацию аудитории. Другой вариант - предоставить пользователям больший контроль над их алгоритмической фильтрацией. Например, в Twitter вы можете отфильтровывать контент из некачественных аккаунтов.

Другой вариант состоит в том, чтобы алгоритмы учитывали источник качества контента и его источник, поэтому не рекомендуется использовать некачественный контент. Это «подтолкнет» пользователей к более качественному контенту, который Diresta сравнивает с яблоками в линейке обедов вместо картофельных чипсов.

Как сообщает NBC News, представитель YouTube сказал, что они изменили алгоритм, чтобы сосредоточиться на удовлетворенности, а не на времени просмотра, поэтому во внимание принимаются комментарии, лайки, антипатии, репосты и опросы. Алгоритм был изменен, чтобы больше учитывать авторитет источника видео.

Проблема конфиденциальности: сбор личных данных

Персонализированные рекомендации обычно требуют сбора личных данных для анализа, что может сделать пользователей уязвимыми к проблемам с нарушением конфиденциальности. Согласно исследовательской статье 2018 года, опубликованной в Engineering, данные нежелательно раскрывают рекомендателю личные интересы пользователей. Кроме того, данные могут быть проданы третьим лицам без согласия пользователя. Возьмем, к примеру, скандал с Facebook / Cambridge Analytica. Третья проблема с конфиденциальностью заключается в том, что платформы могут быть взломаны, а личные данные пользователей могут просочиться, что происходило с Facebook (и другими платформами) несколько раз.

Платформам важно разработать методы сохранения конфиденциальности, чтобы избежать таких нарушений. В исследовательском документе 2018 года рекомендуются методы криптографии и рандомизации для защиты и сохранения личных данных. В тандеме с этими методами используется группировка пользователей, при которой члены группируются по схожим признакам и удаляются личные идентифицирующие данные. Таким образом, характеристики, важные для платформ и рекламодателей, сохраняются без ущерба для конфиденциальности пользователей.

Системы рекомендаций: доминирование в СМИ будущего

Поскольку в медиа-ландшафте все больше доминируют социальные сети и потоковые платформы, алгоритмы, образующие системы рекомендаций, играют огромную роль в том, что люди смотрят. Создатели этих систем должны понимать и смягчать этические проблемы и проблемы конфиденциальности, угрожающие потребителям.