ru24.pro
Новости по-русски
Сентябрь
2018

Законодателей США испугала технология подмены лиц

Москва, 14 сентября - "Вести.Экономика"

Американские законодатели попросили спецслужбы страны оценить угрозы для США от использования технологии Deepfake, которая позволяет делать фейковые видеоролики с подменой лиц людей. Пока deepfake используется в развлекательных целях, но в США опасаются, что это может привести к новому опасному развитию фейковых новостей.

Технологии подмены лиц вызывают опасения у многих людей, в то время как исследователи совершенствуют алгоритмы. К примеру, ученые из Университета Карнеги-Мелона создали нейросеть для наложения мимики одного человека на лицо другого. Цель, казалось бы, благая - авторы считают, что алгоритмы могут использоваться в кинематографе для удешевления создания спецэффектов.

Основой проекта стала технология DeepFake - генеративная модель пытается обмануть дискриминационную и наоборот, в результате чего система понимает, как преобразовать целевой источник по образцу исходного.

Алгоритм cycle-GAN передачи свойств другому объекту не идеален и допускает наличие артефактов на изображении. Чтобы повысить качество работы нейросети, исследователи использовали его усовершенствованную версию Recycle-GAN. Он учитывает не только положение разных частей лица, но и скорость их движения

Нейронная сеть успешно перенесла мимику телеведущего Стивена Кольбера на лицо комика Джона Оливера. Более того, она перенесла процесс цветения нарцисса на гибискус.

http://www.youtube.com/watch?v=ehD3C60i6lw



Возрастающие возможности этой технологии увеличивают обеспокоенность в связи с тем, что она может создавать фейковое видео, например, американского политика, принимающего взятку или иностранного лидера, предупреждающего о надвигающейся катастрофе.

Три конгрессмена направили письмо директору Национальной разведки Дэн Коутсу, с вопросом как эти высокотехнологичные видеоролики могут угрожать национальной безопасности США. Республиканцы и демократы считают, что Deepfake может стать оружием в дезинформационных войнах против Соединенных Штатов и других западных демократий.

Законодатели обратились к спецслужбам с просьбой представить отчет Конгрессу к середине декабря, в котором описываются угрозы и возможные ответные меры, которые могут разработать или использовать США для защиты.

Стоит отметить, что для создания фейковых видео с заменой лиц даже сейчас, на ранней стадии развития технологии, зачастую не требуется специальное программное обеспечение или знания. Видео можно сделать прямо в браузере - недавно появился сайт MachineTube, позволяющий подменять лицо на видео или в изображениях.

Пока в сервисе доступно несколько натренированных нейросетевых моделей для знаменитостей, например, Дональда Трампа и Спока из сериала «Звездный путь». Пользователю не нужно устанавливать на компьютер специальную программу, но за счет использования браузерной библиотеки для машинного обучения сервис проводит вычисления с помощью вычислительных мощностей компьютера пользователя.

Нейросетевые алгоритмы, позволяющие создавать реалистичные ролики с измененными лицами или мимикой людей существуют давно и в последнее они достигли такого уровня, что могут учитывать множество параметров мимики, а созданные ими видео настолько реалистичны, что людям сложно отличить их от реальных роликов. Тем не менее, наибольший общественный интерес вызвала далеко не самая совершенная технология подмены лица на видео, использованная в других целях по сравнению с предыдущими исследовательскими проектами.

В конце 2017 года пользователь Reddit под ником deepfakes опубликовал несколько видео с секс-контентом, где лица актрис фильмов для взрослых были заменены лицами знаменитостей, например, Тейлор Свифт и Эммы Уотсон. Через небольшое время после этого автор также опубликовал не только результат работы алгоритмов, но и программу, позволяющую тренировать нейросетевые модели и создавать ролики с замененными лицами самостоятельно. К весне 2018 года ролики стали настолько массовыми, что крупные платформы, такие как Reddit и Twitter, запретили контент такого типа.