Piterets.ru (Санкт-Петербург)
Сентябрь
2024
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
20
21
22
23
24
25
26
27
28
29
30

В России могут ввести уголовную ответственность за кражу и клевету с применением дипфейков

В России могут криминализировать использование технологии дипфейков в преступных целях, соответствующий законопроект должен быть внесен в Госдуму. Его авторы – глава думского комитета по труду, социальной политике и делам ветеранов Ярослав Нилов (ЛДПР) и сенатор Алексей Пушков. «Мы предложили внести изменения в УК и уточнить некоторые квалифицирующие признаки за попытки использовать технологии дипфейков в противозаконных целях. Юридически это понятие в законодательстве пока не прописано, хотя давно следует. Но по смыслу мы понимаем, что это технологии, которые позволяют использовать изображение или звук как естественный, так и синтезированный, чтобы ввести человека в заблуждение. И мошенники этим пользуются», – пояснил Нилов ТАСС. Поправки предполагают внесение изменений в статьи «Клевета», «Мошенничество», «Кража», «Вымогательство», «Мошенничество в сфере компьютерной информации» и «Причинение имущественного ущерба путем обмана или злоупотребления доверием». Из законопроекта следует, что клевета, совершенная с использованием изображения или голоса (в частности, фальсифицированных или искусственно созданных) потерпевшего, а также с использованием его биометрических данных, будет наказываться штрафом до 1,5 млн рублей или лишением свободы на срок до двух лет. Использование технологии в мошеннических целях может привести к штрафу до 400 тыс. рублей или лишению свободы на срок до шести лет. В пояснительной записке отмечается, что развитие компьютерных технологий расширило возможности создания видео- и аудиоматериалов на основе изображений и голосов граждан, «искусственно воссоздающих несуществующие события». Если ранее злоумышленники подделывали фотографии для клеветы, то сегодня современные технологии, в том числе нейросети, позволяют создавать подделки, практически не отличающиеся от реальности. Тем не менее, в официальном отзыве правительства на законопроект указывается, что пока что в отраслевом законодательстве не урегулированы вопросы использования технологий подмены личности. «Таким образом, введение предлагаемого регулирования в уголовное законодательство не представляется возможным из-за отсутствия корреспондирующих норм материального законодательства, что влечет существенные риски формирования некорректной правоприменительной практики», – указано в отзыве. Помимо этого, в правительстве отмечают, что пояснительная записка к законопроекту не содержит статистических и других данных, которые могли бы свидетельствовать «об общественной опасности криминализируемых деяний». Ввиду этого вывод о повышенной степени общественной опасности указанных деяний сделать невозможно. «На основании изложенного законопроект требует существенной доработки», – отмечают в правительстве. Вопрос регулирования использования дипфейков в противоправных целях уже давно назрел, отметил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин. «Технология очень активно используется в мошеннических целях – прежде всего искусственный синтез голоса. Злоумышленники взламывают пользовательские аккаунты в социальных сетях и мессенджерах, обучают модель на ранее отправленных человеком голосовых сообщениях и далее от имени владельца страницы просят осуществить денежный перевод», – пояснил депутат. Ранее в Управлении президента РФ по развитию информационно-коммуникационных технологий и инфраструктуры отмечали, что за часть первого квартала 2024 года в интернете было выявлено больше видео- и аудио- дипфейков, чем за весь 2023 год: число видео-дипфейков выросло в 3 раза, а аудио - в 8 раз. О росте числа дипфейков также сообщали в Банке России, однако точной статистики регулятор не привел. Как отметил Немкин, точную статистику применения технологии в противоправных целях сейчас привести сложно. «Во-первых, далеко не все пострадавшие обращаются за помощью в правоохранительные органы. Во-вторых, даже в случае обращения, далеко не всегда фиксируется тип атаки. Но отсутствие полной статистической картины не означает, что проблемы нет», – подчеркивает он. Ключевой вопрос, действительно, лежит в отсутствии законодательного регулирования, считает депутат. «У нас пока что не сформировано даже рамочное регулирование технологии искусственного интеллекта (ИИ), а регулирование одной из его частей, тем более в рамках уголовного законодательства, может отрицательно сказаться на формировании правовой практики. Но вопрос установления нормативной рамки для ИИ сейчас стоит остро», – заключил Немкин.