Умнее хакеров: как защититься от атак с использованием искусственного интеллекта?
OpenAI заблокировала аккаунты северокорейских хакеров, которые использовали ChatGPT для планирования кибератак. Руководитель лаборатории исследований кибербезопасности аналитического центра кибербезопасности компании «Газинформсервис» Вадим Матвиенко предупреждает об усилении киберугроз, связанных с использованием больших языковых моделей, таких как ChatGPT, злоумышленниками. По его словам, преступники всё чаще применяют ИИ для своих целей, что требует немедленного повышения бдительности и укрепления систем безопасности.
«Большие языковые модели — мощный инструмент», — комментирует Вадим Матвиенко. — «Он широко используется в различных областях интеллектуальной деятельности. К сожалению, злоумышленники также используют ИИ в своих целях, и эта тенденция, по прогнозам, будет только усиливаться. Хорошей новостью для сферы кибербезопасности стало сообщение о том, что компания OpenAI ведёт активную работу по выявлению злоумышленников. Это свидетельствует о том, что внимание к вопросам безопасности не ослабевает».
Эксперт отмечает, что защита от атак с использованием ИИ требует комплексного подхода, сочетающего обновление защитных мер и внедрение специализированных решений для контроля и анализа активности: «Обеспечение защиты ИИ, включая MLSecOPS, представляет собой сложный и трудоёмкий процесс. Однако современные средства автоматизации, такие как SafeERP, помогают значительно ускорить процессы проверки безопасности ИИ».