И така, току-що завърших курса Задълбочено обучение — Част 2 на fast.ai. Курсът беше брилянтно пренесен по забавен, но изключително образователен начин от Джеръми Хауърд. В Урок 12 той въведе техника на изкуствен интелект, наречена Циклични генериращи състезателни мрежи или накратко „CycleGANs“. Методът първоначално беше представен в „документ“ от изследователи от лабораторията BAIR и UC Berkeley. Техните алгоритми показаха как да променят видео кадри от един стил в друг. В урока „GIF видео“ на кон беше променено на това на зебра и след това отново променено на кон. Готино!

По подобен начин следващият урок изследва възможностите на конволюционните невронни мрежи (CNN), друга AI техника, подходяща за подобряване на изображения. Използван е за прилагане на метод, наречен Прехвърляне на стил; преглеждайки примери от по-ранна „публикация“ и използвайки този подход, картините се възпроизвеждат или подобряват чрез „пренасяне“ на един стил на художник върху друг артефакт. Например, една картина може да бъде нарисувана с голямо художествено сходство с Мона Лиза, така че да може почти да мине като едно от произведенията на Леонардо да Винчи!

Въпреки че ефективността на всяка AI техника зависи от някои важни фактори като наличния набор от данни за обучение, ниво на умения и интуиция на Data Scientist, постигнатата прецизност и от двата метода беше толкова забележителна, че човешкото око може да не е в състояние да дешифрира, че стилът на оригиналните автори на тези изображения и видеоклипове са имитирани. Това постижение става по-постижимо поради наличието на най-съвременни AI инструменти с отворен код. Въпреки това, колкото и вълнуващо и завладяващо да звучи възможността, идва с нея и проблемът с дезинформацията и фалшивите публикации.

Размишлявайки върху безкрайните възможности, които изобилстват в тази епоха на споделяемост и вирусни публикации в Twitter, Facebook, Instagram, WhatsApp – за да споменем само няколко. Става причина за безпокойство, когато се вземе предвид колко бързо хората са склонни да вярват на тези съобщения в социалните медии, дори когато автентичността или истинността на тези съобщения не може да бъде потвърдена. Фалшивите новини имат за цел да всяват страх, да разпалват омраза и да манипулират погрешно емоциите на своите читатели. В повечето случаи авторите се стремят да използват реакцията на получателите за икономически или политически печалби.

В нашата скорошна публикация внедряваме идентификатор на фалшиви новини, използвайки хибриден текстов класификатор за дълбоко обучение на CNN-RNN. Използвахме набора от данни PHEME, който се състои от 5800 оригинални публикации в Twitter, които са обозначени като слухове и не като слухове от професионални журналисти и изследователи в 5 европейски университета. Съобщенията се отнасяха до пет глобални събития – Charlie Hebdo, Фъргюсън, стрелбите в Отава, обсадата в Сидни и самоубийствената катастрофа на Germanwings. Всички събития бяха широко отразени в конвенционалните и социалните медии между август 2014 г. и март 2015 г.

Нашият метод постигна 82% точност при предсказване на фалшиви новини само въз основа на характеристиките, вградени в текста на съобщението. Струва си да се отбележи, че моделите за задълбочено обучение не изискват познаване на тематичния домейн или каквото и да е инженерство на функции - в сравнение с други техники за машинно обучение; тъй като напълно свързаните слоеве в рамките на AI мрежата интуитивно търсят съответните „скрити“ характеристики в данните за обучение за модела. Това е голямо предимство при откриването на фалшиви новинарски съобщения, тъй като спестява време и може да бъде по-добре интегрирано в система за автоматично откриване в реално време.

В текущи изследвания разглеждаме интегрирането на изображения, GIF файлове и видео рамки заедно с текста на съобщението; мултимодален подход в задачата за идентифициране на фалшиви новини, насочен към подобряване на устойчивостта на нашата съществуваща техника за класифициране и откриване на фалшиви и променени изображения в онлайн социалните мрежи.

Моля, цитирайте нашата работа като:

Oluwaseun Ajao, Deepayan Bhowmik и Shahrzad Zargari. 2018. Идентифициране на фалшиви новини в Twitter с хибридни модели на CNN и RNN. В сборника на Международната конференция за социални медии и общество, Копенхаген, Дания (SMSociety). DOI: https://doi.org/10.1145/3217804.3217917

Oluwaseun Ajao е докторант по наука за данни в Sheffield Hallam University

Търсите повече от най-новите заглавия в LinkedIn?

„Открийте още истории“

Първоначално публикувано на https://www.linkedin.com на 27 юни 2018 г.