Специалист Курочкин: мошенники могут создать фейковые видео с помощью нейросети
Мошенники могут сгенерировать голос родственников при помощи искусственного интеллекта для обмана людей. Об этом Pravda.Ru рассказал эксперт по кибербезопасности Алексей Курочкин.
Кроме того, нейросети позволяют создавать фейковые видео и видеозвонки для подтверждения своих слов.
"То есть сначала звонят и голосом говорят: "Помоги деньгами, я в полиции", после этого происходит видеозвонок тех же мошенников с поддельного номера, злоумышленник говорит: "Полицейские дали мне позвонить", и на фоне полиции вроде бы ее внук или сын разговаривает и то же самое говорит", — рассказал эксперт.
По словам Курочкина, пожилые люди часто верят этому и переводят злоумышленникам деньги.
Накануне "Газете.Ru" сообщили, что исследователи Санкт-Петербургского Федерального исследовательского центра РАН (СПб ФИЦ РАН) совместно с исследователями РАНХиГС обучили нейросеть находить соответствия между способностью человека противостоять кибермошенникам и его аватаркой в социальных сетях. Пока нейросеть распознает немного признаков на фотографии пользователя: положение головы, глаз, выражение лица и некоторые другие. Однако в будущем ученые хотят добавить больше признаков.