Исследователи работают над алгоритмом, который раскрывает замены лиц в фейковых видео.

Фото: MIT

Интернет, IT
Инструменты
Шрифты

Обмен лицами, или Face Swapping — популярная интернет-забава, доступная даже тем, кто не владеет фотошопом. Манипуляция изображениями на этом продвинутом этапе цифровой эпохи не такая и забавная, это рискованное оружие, в тени поддельных фэйковых новостей, чтобы поколебать мнение и расжечь скандалы.

Обмен лицами, в частности, звучит забавно, если вы думаете об этом как повод для смеха за семейным столом, когда дети и взрослые испытывают разные лица на разных людей. Тем не менее, это также инструмент для гораздо худших мотивов. Свапна Кришна (Swapna Krishna) в Engadget отметил, что «Люди, конечно, воспользовались этим инструментом для некоторых возмущающих целей, в том числе подмену лиц актеров в порнографических видео для тотальной порно мести кому либо».

В MIT Technology Review, в статье «Emerging Technology from the arXiv» говорится, «порнографические видео называемые „deepfakes“ появились на веб-сайтах с указанием на известных личности, с их наложенными лицами на тела порноактеров и порноактрис».

Исследователи, однако, заинтересованные в изучении этого инструмента и способах его определения, придумали алгоритм, говорят наблюдатели, который может превзойти другие доступные технологии. Они выяснили способ обнаружения обмена лицом через алгоритм, подбирая поддельные видео, сразу как только они опубликованы.

Специалисты из аналитического сообщества Analytics Vidhya прокомментировали: «Что-то похожее на этот алгоритм отчаянно требовалось для того, чтобы вести битву против Face Swapping, используемого по неправильным мотивам. В выпуске исследовательской работы для общественности исследователи надеются, что другие также возьмут эстафету и будут работать над этим чтобы сделать алгоритм более корректным и точным».

Андреас Росслер (Andreas Rossler) был руководителем группы участников из Технического университета Мюнхена, Университета Федерико II из Неаполя и Университета Эрланген-Нюрнберг.

Они разработали алгоритм XceptionNet, используя большой набор подменных лиц, пишет Engadget.

«Мы задали устойчивые базисные линии результатов для обнаружения манипуляций с лицами с использованием современных архитектур глубокого обучения», - сказал Росслер и команда в MIT Technology Review. Размер имел значение.

Размер этой базы данных значительно улучшился по сравнению с тем, что было ранее доступно. «Мы вводим новый набор данных манипулируемых видеороликов, который превосходит все существующие общедоступные массивы судебных данных на порядок», - сказал Росслер.

В своей статье авторы заявили, что они представили набор данных с манипуляциями лиц, FaceForensics, «около полумиллиона отредактированных изображений (из более чем 1000 видеороликов)».

Авторы обратили внимание на трудность - для людей и компьютеров - в попытках различать оригинальное и манипулируемое видео, «особенно когда видеоролики сжаты или имеют низкое разрешение, как это часто бывает в социальных сетях».

Они также обратили внимание на тот факт, что «исследованиям по обнаружению манипуляций с лицами серьезно препятствовало отсутствие адекватных наборов данных».

Однако в их успехе есть нюанс, который также заслуживает внимания. В статье «Emerging Technology from the arXiv» это называется «жалящим хвостом». Что это? «Тот же метод глубокого обучения, который может опознать видео с подменой лиц, также может быть использован для улучшения качества подмены лиц в первую очередь - и это может затруднить обнаружение таких фейковых видео».

Издание Engadget также пишет: «XceptionNet явно превосходит методы его конкурентов в обнаружении такого поддельного видео, но также на самом деле улучшает качество подделок. Алгоритм команды Росслера может использовать самые важные отличительные черты обмена лиц, чтобы сделать их манипуляции более плавными. Это не обманет сам XceptionNet, но в конечном итоге это может усложнить другие способы обнаружения фальшивых видеороликов».

Пранав Дар (Pranav Dar), из Analytics Vidhya, также оценил то, что он назвал «оговоркой с этого алгоритма», его также можно потенциально использовать для улучшения качества лицевых подмен, что затруднит обнаружение подделки. Также, как только запускается алгоритм обнаружения подделок, мошенники всегда стараются уточнить свою модель, чтобы оставаться на шаг впереди».

Тем не менее авторы заявили, что «наш алгоритм в основном улучшает визуальное качество, но он лишь слегка помешает обнаружению подделок для метода глубокого обучения, абсолютно точно обученного на поддельных выходных данных».

Результаты, как вы можете видеть в исследовательской работе, впечатляют. Даже когда видео было сжато, чтобы сделать задачу значительно более сложной, алгоритм дал результаты, о которых можно было бы надеяться.

Источник: techxplore.com