ru24.pro
Новости по-русски
Август
2024

Аудио и видеосообщения от имени жертв подделывают мошенники с помощью ИИ

Эксперт рассказала о новом способе мошенничества с помощью ИИ.

Мошенники стали использовать искусственный интеллект, чтобы подделывать аудио и видеосообщения от имени жертв их знакомым, рассказала РИА Новости куратор платформы Народного фронта "Мошеловка" Алла Храпунова. Сейчас увеличилась активность взлома аккаунтов в мессендежрах. Мошенники, взломав аккаунт, тут же скачивают всю имеющуюся переписку, видео и голосовые сообщения. При помощи ИИ подделываются сообщения от имени жертвы ее знакомым. Сохраняется при этом мимика, интонация, привычные обороты жертвы, что вызывает доверие у знакомых, которым мошенники рассылают такие дипфейки. По ее словам, мошенники в сфабрикованном "диалоге" все чаще в начале общения избегают разговаривать о деньгах, а начинаются попытки ввести жертв в заблуждение с привычных тем. Только потом переходят к попыткам получить доступ к деньгам. В подобных случаях эксперт советует связаться со знакомым, от которого поступила просьба о помощи, любым другим способом и уточнить, на самом ли деле она нужна. Рекомендуется также использовать механизм "контрольного вопроса", когда можно в переписке задать какой-то вопрос, ответ на который знает только владельцу аккаунта. Если в переписке мошенник указал, на какой счет необходимо перечислить финансовую помощь, будет полезным сделать фото экрана и направить в банк данные о счете мошенника - эти реквизиты таким образом смогут попасть в базу Банка России, на основании которой другие банки могут приостановить поток денежных средств на указанную карту. При обнаружении взлома своего аккаунта нужно в другом мессенджере или соцсетях через опцию "Статус" предупредить свои контакты о взломе. А во взломанном аккаунте WhatsApp следует отключить все активные сеансы во вкладе "Связанные устройства". Фото ТЕЛЕПОРТ.РФ