Хакер взломал ChatGPT и обманом заставил его выдать подробную инструкцию по изготовлению самодельной бомбы
Если попросить ChatGPT, помочь изготовить самодельную бомбу, чат-бот ответит, что это противоречит правилам безопасности и этическим обязательствам. Но один из хакеров нашел способ обмануть ИИ, заставив его проигнорировать собственные рекомендации и выдать инструкции по изготовлению мощных взрывчатых веществ, сообщает TechCrunch