ru24.pro
Блог сайта «Газета.ru»
Апрель
2024

Специалист Курочкин: мошенники могут создать фейковые видео с помощью нейросети

Мошенники могут сгенерировать голос родственников при помощи искусственного интеллекта для обмана людей. Об этом Pravda.Ru рассказал эксперт по кибербезопасности Алексей Курочкин.

Кроме того, нейросети позволяют создавать фейковые видео и видеозвонки для подтверждения своих слов.

"То есть сначала звонят и голосом говорят: "Помоги деньгами, я в полиции", после этого происходит видеозвонок тех же мошенников с поддельного номера, злоумышленник говорит: "Полицейские дали мне позвонить", и на фоне полиции вроде бы ее внук или сын разговаривает и то же самое говорит", — рассказал эксперт.

По словам Курочкина, пожилые люди часто верят этому и переводят злоумышленникам деньги.

Накануне "Газете.Ru" сообщили, что исследователи Санкт-Петербургского Федерального исследовательского центра РАН (СПб ФИЦ РАН) совместно с исследователями РАНХиГС обучили нейросеть находить соответствия между способностью человека противостоять кибермошенникам и его аватаркой в социальных сетях. Пока нейросеть распознает немного признаков на фотографии пользователя: положение головы, глаз, выражение лица и некоторые другие. Однако в будущем ученые хотят добавить больше признаков.