ru24.pro
Новости по-русски
Ноябрь
2025
1 2 3 4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

(Не)жертва искусственного интеллекта: учимся защищаться от мошенников

0

Сегодня нейросети позволяют создавать поддельные фото, видео и даже голоса, что активно используют мошенники.

Основные угрозы:

  • Дипфейки. С помощью ИИ злоумышленники генерируют фальшивые изображения и видео. Такие материалы могут применяться для взлома аккаунтов через системы распознавания лица, шантажа, а также для рассылки поддельных просьб о помощи от имени знакомых.
  • Голосовые подделки. Нейросети способны точно имитировать человеческий голос. Мошенники часто используют этот метод так: взламывают страницу знакомого, копируют его голосовые сообщения, а затем присылают аудио с «просьбой» срочно занять деньги.

Главная мера безопасности – сохранять критическое мышление и внимательность.

При просмотре видео насторожить должны неестественная мимика, искажение света, странные движения или дефекты изображения. При прослушивании голосовых сообщений обращайте внимание на монотонность, искажения или непривычную интонацию. Если звонок с просьбой о переводе денег поступил от знакомого вам человека, перезвоните ему на его личный номер, а не отвечайте в мессенджере.