И защо трябва да образоваме обществеността за съществуването на такава технология

Дами и господа, видеоклиповете на Deepfake са толкова лесни за създаване, че всеки може да ги направи. Не се нуждаете от докторска степен и не е нужно да обучавате модели с часове, дори не е нужно да вземете курс по Generative Adversarial Network.

Всичко, което трябва да направите, е да запишете видеоклип на себе си и да изберете една снимка на човек, който искате да се представите. Машинното обучение ще анимира човека на снимката по начина, по който искате във вашето видео.

Генерирайте Deepfakes с едно изображение

Анимацията на изображение има за цел да генерира видео поредици, така че човекът в изходното изображение да е анимиран според движението на видеоклипа.

Тази технология е в областта на компютърното зрение и изследователите на AI работят върху създаването на по-реалистични видеоклипове. Той използва машинно обучение, за да манипулира и генерира визуални изображения или видеоклипове, които заместват човек с някой друг.

От любов към науката и от изследователска гледна точка, „работата на Александър“ със сигурност е впечатляваща. Той е публикуван в NeurIPS, а изходните кодове са достъпни онлайн.

Неговата работа превъзхожда най-модерното по всички показатели и работи върху различни изображения (лица, тяло, карикатура и робот). Моделът е толкова гъвкав, че можете да създавате Deepfakes с добро качество с едно изображение на целевия обект.

Не се изисква предварителна информация

Способността му да научава движенията на лицето е невероятна. Можете да видите, че може да идентифицира ключови точки на лицето и много добре следва тези ключови точки спрямо движенията във видеото.

В предишни работи се нуждаем от допълнителна информация, като лицеви ориентири, за да картографираме движението на главата и оценка на позата, за да картографираме движението на цялото тяло.

В тази работа той може да работи без използване на анотация или предварителна информация относно конкретния обект за анимиране. След като моделът се обучи върху лица, моделът може да прехвърли всяко движение върху всякакви лица.

Красиво движение на главата

Можете да запишете видеоклип на себе си и да анимирате човека на снимката. Да, дори портрет на Мона Лиза.

Можете да погледнете нагоре и да обърнете главата си. Можете да кажете нещо и движенията на устата изглеждат страхотни. Можете да завъртите очи и това преобразува добре движенията на очите върху целевото видео.

Движение на цялото тяло също

Работи и за видеоклипове с движение на цялото тяло! Теоретично това означава, че можете да вземете „видеото на Били Джийн“ и да накарате Доналд Тръмп да направи лунна походка като Майкъл Джексън.

Той генерира фона

Тъй като лицето покрива частта от изображението, алгоритъмът трябва да разбере фона зад лицето. В тази работа той автоматично генерира фона, който е покрит от движещия се човек — абсолютно фантастично.

Как работи?

Работата на Александър се състои от екстрактора на движение, който се научава да извлича ключови точки заедно с техните локални афинни трансформации. Има генераторна мрежа, която моделира оклузии в целевите движения и комбинира външния вид, извлечен от изходното изображение, и движението, получено от видеото на шофиране.

За да разберете как работи, предлагам ви да посетите страницата на GitHub и да разгледате изследователската статия. Можете също да гледате неговото видео, обясняващо как работи. Солидни готини неща.

Искате ли да направите своя собствена? Вижте този бележник Colab.

Отрицателни последици от Deepfakes

Deepfakes привлякоха широко внимание за употребата си във фалшиви новини, измами, измами и много други незаконни дейности.

Хората са споделяли своите видеоклипове Deepfakes, които са създали в subreddit, r/deepfakes. Много от тези видеоклипове сменят лицата на знаменитости, като Гал Гадот и Тейлър Суифт, с телата на порнографски изпълнители.

Много видеоклипове на Deepfakes също се споделят, изобразяващи политици. Това повлия на политиката, като авторитарни правителства разпространяват невярна информация, омраза и страх.

Тази технология загрижи както индустрията, така и правителството за контрол и ограничаване на използването на Deepfakes. През февруари 2018 г. „Reddit спря r/deepfakes“ за нарушаване на правилата. През юни 2019 г. „привлече вниманието на правителството“ за борба с разпространението на дезинформация чрез ограничаване на технологията за промяна на видео Deepfakes.

Присъединете се към мен, за да информирате за съществуването му

Знаейки, че има хора по света, които злоупотребяват с тази технология. Може да попитате защо пиша за това? Защо разпространявам това знание?

Тъй като в днешно време всеки може лесно да създава фалшиви видеоклипове, подобни генеративни модели вече не са научна фантастика. Целта ми е да образовам обществото, така че хората да знаят за съществуването на такава технология. Като разбират съществуването му, хората могат да бъдат наясно и да обърнат повече внимание на разграничаването между истинско и фалшиво.

Фалшивите новини са част от тъканта на днешния интернет, сега с Deepfakes, които лесно могат да бъдат оценени; това изведе дезинформацията на съвсем ново ниво. Тя е „повлияла на политиката“ чрез разпространение на невярна информация. Това доведе до хора, експлоатирани от измамници, които го използват, за да мамят пари онлайн.

Светът вече е в бъркотия в момента поради коронавируса; Не съм сигурен как хората ще злоупотребяват с тази технология в такива моменти. Deepfakes, като форма на дезинформация, са опасни. Трябва да образоваме хората относно технологиите и хората трябва да разпознават истината, вместо просто да вярват на това, което виждат.







Сярохин, Александър и др. „„Модел на движение от първи ред за анимация на изображения.““ Напредък в системите за обработка на невронна информация. 2019 г.

Илюстрациите принадлежат на Aliaksandr, използвани с разрешение.