(Не)жертва искусственного интеллекта: учимся защищаться от мошенников
Сегодня нейросети позволяют создавать поддельные фото, видео и даже голоса, что активно используют мошенники.
Основные угрозы:
- Дипфейки. С помощью ИИ злоумышленники генерируют фальшивые изображения и видео. Такие материалы могут применяться для взлома аккаунтов через системы распознавания лица, шантажа, а также для рассылки поддельных просьб о помощи от имени знакомых.
- Голосовые подделки. Нейросети способны точно имитировать человеческий голос. Мошенники часто используют этот метод так: взламывают страницу знакомого, копируют его голосовые сообщения, а затем присылают аудио с «просьбой» срочно занять деньги.
Главная мера безопасности – сохранять критическое мышление и внимательность.
При просмотре видео насторожить должны неестественная мимика, искажение света, странные движения или дефекты изображения. При прослушивании голосовых сообщений обращайте внимание на монотонность, искажения или непривычную интонацию. Если звонок с просьбой о переводе денег поступил от знакомого вам человека, перезвоните ему на его личный номер, а не отвечайте в мессенджере.
