Почему мошенники отказались от ИИ для подготовки фейков о выборах?
В предвыборный период Роскомнадзор выявил и удалил более 4,8 тыс. материалов экстремистского характера. В СМИ также выявили 105 материалов, которые нарушали законодательство о выборах. При этом, как отмечают эксперты, мошенники практически не использовали ИИ для создания фейков о выборах.
Об этом «Русской Весне» рассказали в пресс-службе депутата Госдумы Антона Немкина.
В 2024 году, в период подготовки к выборам Президента в России, Роскомнадзор удалил более 4,8 тыс. ссылок, содержащих призывы к экстремистской и террористической деятельности, а также материалы экстремистских организаций, в том числе направленные на срыв выборов.
По данным ведомства, было также заблокировано более 1,4 тыс. материалов, призывающих к участию в несогласованных массовых акциях, ограничен доступ к почти к 2 тыс. материалов, оскорбляющих Президента.
Также активно в сети распространялись материалы, которые содержали недостоверную информацию о выборах, фейковые сайты и аккаунты ЦИК и избирательных комиссий субъектов РФ — всего из доступа удалено порядка 1,7 тыс. таких материалов.
«В рамках мониторинга СМИ ведомство выявило 103 материала, нарушающих законодательство о выборах. К настоящему времени по решениям избирательных комиссий составлено 3 протокола об административных правонарушениях по ст. 5.5 КоАП РФ», — также отметили в Роскомнадзоре.
Как отмечают эксперты, при создании фейков, которые распространяли злоумышленники в период предвыборной кампании, практически не использовался искусственный интеллект, отмечает член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
«Вопреки тому, что мошенники активно опробуют новую технологию на гражданах в бытовых сюжетах, в период выборов они предпочли действовать „по старинке”. Возможно, чтобы охватить как можно большее количество граждан и не привлекать внимание. При этом не стоит думать, что эта технология показала себя неэффективной — вполне вероятно, что уже к следующим выборам злоумышленники будут использовать нейросети в противоправных целях активно. Важно к этому времени принять все необходимые поправки в законодательство, которые позволят регулировать распространение тех же дипфейков», — отметил депутат.
Ранее стало известно, что американский видеохостинг YouTube стал требовать от создателей и распространителей контента маркировать материалы, которые созданы при помощи искусственного интеллекта. Информация об этом будет размещаться в виде пометок в расширенном описании или на самом ролике.
Тем не менее, коснется это не всех роликов — отметка будет необходима только тогда, когда в видео изменены лицо и голос человека или созданы реалистичные сцены, воссоздан реальный городской пейзаж. При этом анимированные видео со спецэффектами, например, маркироваться не будут. Также новое требование не затронет видео с использованием фильтров красоты и других визуальных улучшений внешности.
В некоторых случаях YouTube будет сам добавлять отметку о сгенерированном видео, даже если автор не указал ее. В ближайшее время такая отметка появится на всех платформах YouTube — в приложении телефона, на компьютере и телевизоре.
«Инициатива видеохостинга более чем верная. Особенно учитывая темпы распространения такого контента — например, за 2023 год система АНО „Диалог Регионы” обработала более 3,5 тыс. единиц медиаконтента, выявленного в ходе ежедневного мониторинга. Специалисты определили, что порядка 1 тыс. проверенных роликов оказались сгенерированными с помощью технологий ИИ. Маркировка такого типа контента — первый шаг к тому, чтобы обезопасить граждан от его пагубного влияния. Надеюсь, в ближайшее время подобные правила будут введены и на других платформах, не только в зарубежных странах, но и в России», — заключил парламентарий.
Читайте также: Американский экс-разведчик объяснил, что означает победа Путина на выборах