Главные новости Ставрополя
Ставрополь
Январь
2026
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
26
27
28
29
30
31

Мошенники используют сгенерированные нейросетью голоса для обмана россиян

0

Мошенники с помощью нейросетей подделывают голоса близких людей, чтобы выманить деньги.

По данным МВД России, аферисты используют нейросети для создания голосовых сообщений, якобы от имени родственников, сотрудников банков или госорганов. Получив доступ к аккаунту в мессенджере, они рассылают фальшивые обращения с просьбой о помощи.

Официальный представитель МВД РФ Ирина Волк рассказала ТАСС о том, что контент, созданный генеративными моделями, воспринимается как подлинный.

В одном из случаев мошенник, используя голос родной сестры, убедил человека перевести 35 тыс. руб. Деньги ушли злоумышленникам.

В МВД советуют перепроверять любые просьбы о переводах и не доверять сообщениям, даже если они кажутся отправленными знакомым.

Ранее «КИ» писали, школьница из села Октябрьского Ставропольского края передала мошенникам доступ к банковскому приложению матери. Те списали более 270 тысяч рублей.