„Наука за данни в реалния свят“

Проблемите с етиката и поверителността на двигателите за препоръки на медийни платформи

Защо трябва да обръщаме повече внимание на системите, които обслужват съдържание.

Механизмите за препоръки на медийни платформи доминират нашите медийни решения. Вместо да позволим на произволността на сърфирането на дивана да реши съдбата ни за гледане, изборът се прави за нас във всички форми на цифрови медии, включително YouTube, Facebook, Spotify и т.н. Според доклад на McKinsey, 75% от решенията за гледане на Netflix са от продуктовите препоръки.

Въпреки че на пръв поглед това се равнява на удобство за потребителя, тъй като системата препоръчва неща, които са в съответствие с данните, които е събрала, за да създаде профил на потребителски интереси, в действителност доминирането на системата за препоръки опровергава опасенията за етика и поверителност.

Етичен проблем №1: Пристрастяване

Един етичен проблем в системите за препоръки е, че те са създадени да водят до пристрастяване. Тяхната цел е да уловят и поддържат интереса на потребителите за продължителни периоди от време. Вземете например функциите за автоматично пускане в YouTube и Netflix. И двете предоставят съдържание, което е съобразено с вашия профил с данни и го възпроизвежда автоматично, за да ви държи пристрастени.

Каква е етичната дилема с това? Не е ли това просто начин да оцелеете в тази нова икономика на вниманието? На пръв поглед може би. Но какво да кажем, когато тези глобални компании се възползват от човешката психология, за да създадат пристрастяващ продукт, както Шон Паркър, основател на Facebook, призна „в интервю за Axios“:

„Мисловният процес, който влезе в изграждането на тези приложения, като Facebook е първото от тях, … беше свързан с: „Как да консумираме възможно най-много от вашето време и съзнателно внимание.““

Професорът от Станфорд Нир Еял, който написа книга за проектиране на пристрастяващи продукти, призовава за нови етични стандарти. Еял казва, че различните техники за убеждаване могат да бъдат етични в зависимост от обстоятелствата; например използването на „поредица“ в Duolingo за насърчаване на хората да научат нов език може да изглежда приемливо, докато „поредица“ на SnapChat, която има за цел да накара тийнейджърите натрапчиво да проверяват приложението, може да бъде в онази етична сива зона, което го прави сложен въпрос. И така, той твърди, че ако платформата кара потребителя да направи нещо, което не иска да прави, това вече не е просто убеждаване - това е принуда.

Въпреки че това може да е по-голям проблем в приложения като SnapChat и Facebook, това все още е уместно за двигателите за препоръки, тъй като те често са създадени да привличат и поддържат вниманието на зрителите. „Все още ли гледате?“ на Netflix трябва да се използва и в други приложения, като например YouTube.

Етичен проблем №2: Изключително съдържание = вниманието на зрителите, но на каква цена

Борбата за привличане и поддържане на вниманието на потребителите доведе до друг критичен етичен проблем по отношение на двигателите за препоръки: предлаганото съдържание може всъщност да не е в най-добрия интерес на потребителите и допринася за поляризация. Както Рене Диреста казва в „Wired“, системите за препоръки са „счупени“ и са се превърнали в „Великият поляризатор“.

Например в YouTube алгоритъмът има тенденция да обслужва все по-радикално съдържание в усилията, които ще продължите да гледате, така че Google да може да печели повече пари от реклами. Както Зейнеп Туфекчи казва в „Ню Йорк Таймс“,

„YouTube води зрителите в заешката дупка на екстремизма, докато Google увеличава продажбите на реклами.“

Tufekci установи, че независимо дали сте започнали да гледате леко либерални или консервативни водещи видеоклипове, YouTube в крайна сметка предлага все по-радикализирано съдържание, включително видеоклипове с надмощие и теории на конспирацията. Дори неполитически видеоклипове, като тези за вегетарианството, биха довели до видеоклипове за веганството в опит да задържат потребителя пристрастен.

Tufekci в крайна сметка свързва YouTube с ресторант за бързо хранене: сервиране на обеми сладки и солени храни, които ни карат да искаме да продължим да ядем, въпреки че вече сме сити.

Това е етичен проблем за инженерите на Google, защото те знаят, че хората отиват в YouTube, за да получат информация по различни теми, и алгоритъмът в крайна сметка може да накара хората да гледат неправилни, радикализирани, екстремни видеоклипове.

Създателите на съдържание също са засегнати, "пише Гийом Шасло", бивш инженер на Google, който критикува етиката на алгоритъма на YouTube. Тъй като все по-радикалното съдържание е това, което се представя добре, създателите са стимулирани да създават възпламенителни видеоклипове и публикации, за да привлекат очи към тяхното съдържание.

„ИИ все още не създава фалшиви новини и не започва война срещу медиите сами по себе си, но стимулира създателите на съдържание и обществените личности да го правят.“

Проблемът със системите за препоръки, водещи до все по-радикализирано съдържание, не се ограничава до алгоритъма на YouTube. Facebook обмисля да промени своята система за препоръчване на новини, за да популяризира повече Facebook групите, което може да е грешка, според BuzzFeed News, тъй като тези групи могат да се превърнат в микрокосмос на екстремизма.

Изследователят по сигурността Рене ДиРеста каза пред BuzzFeed, че групите вече действат като мишена за лоши актьори:

„Пропагандистите и спамерите трябва да натрупат публика, а групите я поднасят на тепсия. Няма нужда да провеждате рекламна кампания, за да намерите хора, възприемчиви към вашето съобщение, ако можете просто да се присъедините към подходящи групи и да започнете да публикувате.

Промяната на алгоритъма на Facebook, за да се съсредоточи върху групите повече, а не по-малко, е етична сива зона. От една страна, хората публикуват повече в Групи, така че за да се привлече вниманието на повече хора, има смисъл за ефективността на неговата платформа. От друга страна, знанието, че лошите актьори често се възползват конкретно от групите - BuzzFeed News също така посочва, че руските хакери многократно цитират Facebook групи като фокус - показва, че Facebook може да помага на потребителите да станат по-податливи на тези лоши влияния.

Diresta предлага няколко начина за смекчаване на този проблем. Първият е да се създаде проблем с препоръки, който насочва хората в обратната посока - към съдържание, което има за цел да дерадикализира аудиторията. Даването на повече контрол на потребителите върху тяхното алгоритмично филтриране е друга опция. Например в Twitter можете да филтрирате съдържание от акаунти с ниско качество.

Друг вариант е алгоритмите да вземат предвид източника на качеството на съдържанието и неговия източник, така че нискокачественото съдържание да не се препоръчва. Това би „подтикнало“ потребителите към по-висококачествено съдържание, което Diresta оприличава на наличието на ябълки в линията за храна за обяд вместо картофен чипс.

Според NBC News, говорител на YouTube каза, че са изместили алгоритъма, за да се съсредоточат върху „удовлетворението“ вместо върху „времето за гледане“, така че коментарите, харесванията, нехаресванията, споделянията и проучванията се вземат предвид. Алгоритъмът е променен, за да включи повече авторитета на видеоизточника.

Загриженост за поверителността: Събиране на лични данни

Персонализираните препоръки обикновено изискват събиране на лични данни за анализ, което може да направи потребителите податливи на проблеми с нарушаване на поверителността. Според „изследователска статия от 2018 г., публикувана в Engineering“, данните „нежелателно разкриват личните интереси на потребителите пред препоръчителя“. Освен това данните могат да бъдат продавани на трети страни без съгласието на потребителя. Вземете например скандала с Facebook/Cambridge Analytica. Трети проблем с поверителността е, че платформите могат да бъдат хакнати и личните данни на потребителите могат да изтекат, което се е случвало с Facebook (и други платформи) няколко пъти.

От съществено значение е платформите да разработят практики за запазване на поверителността, за да избегнат подобни нарушения. Изследователската статия от 2018 г. препоръчва криптографски и рандомизирани техники за защита и запазване на лични данни. В тандем с тези методи е групирането на потребители, което групира членовете по сходни черти и премахва лични идентифициращи данни. По този начин характеристиките, които са важни за платформите и рекламодателите, се запазват, без да се жертва поверителността на потребителите.

Механизми за препоръки: Доминиране на бъдещето на медиите

Тъй като медийният пейзаж става все по-доминиран от социални медии и платформи за стрийминг, алгоритмите, които формират системи за препоръки, играят монументална роля в това, което хората гледат. Създателите на тези системи трябва да разберат и смекчат етичните проблеми и проблемите, свързани с поверителността, застрашаващи потребителите.