МВД: аферисты используют созданные нейросетью голоса для хищения денег
Злоумышленники активно используют синтезированные искусственным интеллектом фотографии и голоса, чтобы имитировать реальных личностей и втираться в доверие к россиянам. Об этом 24 января сообщила ТАСС официальный представитель МВД Ирина Волк.
"В основе большинства таких схем лежит способность генеративных моделей создавать правдоподобный текстовый, визуальный или аудиовизуальный контент, который воспринимается потерпевшим как подлинный, что позволяет злоумышленникам имитировать личности доверенных лиц", – сказала она.
По словам Волк, россияне доверяют созданным мошенниками личностям, а затем переводят им деньги или сообщают персональные данные.
В качестве примера официальный представитель МВД привела случай, когда россиянин перевел аферисту 35 тыс. рублей, потому что злоумышленник подделал голос его сестры и попросил о помощи.
Ранее, 23 января, стало известно, что мошенники начали создавать с помощью искусственного интеллекта порнографические материалы из обычных фотографий, которые россияне сами выкладывали в интернете много лет назад.
РЕН ТВ в мессенджере МАХ – главный по происшествиям
