ru24.pro
Новости по-русски
Сентябрь
2024

Хакер взломал ChatGPT и обманом заставил его выдать подробную инструкцию по изготовлению самодельной бомбы

0
Если попросить ChatGPT, помочь изготовить самодельную бомбу, чат-бот ответит, что это противоречит правилам безопасности и этическим обязательствам. Но один из хакеров нашел способ обмануть ИИ, заставив его проигнорировать собственные рекомендации и выдать инструкции по изготовлению мощных взрывчатых веществ, сообщает TechCrunch