ru24.pro
Новости по-русски
Октябрь
2019

Обратная сторона новостей. Генерацией фейков займутся не только люди, но и боты

0
Dp.ru 
По данным ВЦИОМ, почти каждый второй россиянин (42%) признает, что не может отличить достоверную информацию от фейка. Без сомнений таким публикациям верят 31% опрошенных, подвох чувствуют 62%. Во многом страх перед фейковыми новостями выглядит надуманным, поскольку пока их можно распознать, проявив банальные навыки факт-чекинга. Но были и опасные прецеденты: в 2013 году хакеры взломали twitter–аккаунт информагентства Associated Press и сообщили о взрыве, в результате которого был ранен Барак Обама. Это привело к обвалу на американском фондовом рынке. Очередной всплеск фейковой информации в соцсетях ожидается в 2020 году во время предвыборной кампании в США. "Причем если раньше созданием fake news занимались люди, то теперь над этим будут активно работать системы искусственного интеллекта", — рассказывает основатель IT–компании XCritical Яков Лившиц. Впоследствии, уверен он, эта технология распространится не только на политику, но и на остальные сферы. Американские боты На днях ученым из Вашингтонского университета и Института Аллена по изучению искусственного интеллекта удалось создать нейросеть, которая может автоматически генерировать правдоподобные материалы. Система подготовила новость о добыче полезных ископаемых на Луне. По структуре, стилю письма, наличию цитат и ссылок на "источники" материал выглядит достаточно журналистским. Нейросеть учили писать новости на примере базы текстов Wall Street Journal. В итоге она создала уникальный материал, собранный из слов и конструкций уже опубликованных текстов. В начале года о развитии аналогичного проекта заявили ученые из института OpenAI в Сан–Франциско. Пытаясь воспроизвести алгоритм написания новостей, система сообщила, что Россия объявила войну США из–за действий Дональда Трампа. Однако исследователь данных в "Лаборатории Касперского" Владислав Тушканов уверен, что нейросетевые технологии еще недостаточно развиты для того, чтобы стабильно генерировать текст без ошибок и странностей. "Кроме того, их выход сложно контролировать: нейросеть может отходить от темы, повторяться", — отмечает он. В свою очередь, представитель IT–компании "Инфосистемы Джет" Анна Олейникова подчеркивает, что отличить достоверную информацию от фейковой порой уже бывает сложно, но все–таки можно. "Есть несколько признаков, например использование неподтвержденных источников, несуществующих людей и организаций", — добавляет эксперт. Наиболее перспективная (и более трудозатратная) ниша для фальшивых новостей — это так называемые deepfake–видео. Недавно эта технология стала популярным развлечением на YouTube: лица одних актеров заменяются другими, и, например, фильм "Сияние" можно частично посмотреть в исполнении Джима Керри вместо Джека Николсона. По подсчетам нидерландской компании Deeptrace, к октябрю 2019 года в сети появилось 14,6 тыс. фейковых видео (большинство из них в категории "для взрослых"; против видео со своим "участием", например, публично выступала Скарлетт Йоханссон). В декабре 2018–го их было почти вдвое меньше — 7,9 тыс. Пока эта технология полна изъянов: deepfake не учитывает частоту моргания человека, да и в целом воспроизведение мимики пока дается системе с трудом, говорят эксперты. Несмотря на возможный вред этой технологии, полностью ее запрещать никто не будет, поскольку она уже используется в коммерческих целях. "Deepfake также применяется для создания визуальных эффектов в кинематографе. Можно прогнозировать распространение deepfake для усиления впечатляющего эффекта в шоу–бизнесе", — считает Анна Олейникова. Клин клином вышибают Считается, что благодаря фейковым текстам и видео злоумышленники прежде всего смогут вести более качественную информационную атаку против конкретных лиц и компаний. Однако они могут служить и для более приземленных целей. "Fake news существуют уже давно, их используют для решения оперативно–тактических задач. Среди них — финансовое мошенничество, агрессивная травля, банальная месть, моральный вред, создание помех следствию, лоббизм. Эти приемы успешно применяются на бытовом уровне, в бизнесе и в политике", — рассказывает аналитик управления системной архитектуры компании "Техносерв" Александр Голышко. Можно, например, использовать deepfake–образ популярного человека для рекламы мошеннических сайтов. Методы борьбы с подобной угрозой кажутся немного парадоксальными: IT–компании и университеты разрабатывают собственные генераторы фейков. "Чем более мощным генератором мы располагаем, тем более успешно можем использовать его для автоматического обнаружения фальшивых текстов. Технологии для обнаружения сгенерированных видео тоже существуют, а компании, такие как Microsoft и Facebook, запускают конкурсы по дальнейшему их усовершенствованию", — рассказывают в "Лаборатории Касперского". Программист, который предложит наиболее эффективное средство борьбы с фейками, получит от компаний $10 млн. На практике условная "фабрика троллей" и другие фейк–ньюсмейкеры пока эффективнее, поскольку они точно знают, какая информация заинтересует читателя. Однако распространение фейков размоет информационный фон и затруднит поиск действительно важных новостей.