ru24.pro
World News
Сентябрь
2024

هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دست‌ساز گرفت

0
چت‌بات‌ها مانند ChatGPT با دستورالعمل‌ها و موانع حفاظتی طراحی شده‌اند که به‌عنوان مثال به سؤالات مربوط به ساخت بمب خانگی پاسخ نمی‌دهند. اما اکنون یک هکر راهی برای فریب دادن ChatGPT پیدا کرده است تا چت‌باتِ OpenAI دستورالعمل‌ها و مسئولیت‌های اخلاقی خود را برای ارائه آموزش تولید مواد منفجره نادیده بگیرد. در طول گفتگوی بین این هکر و چت‌بات، ChatGPT چندین بار مواد لازم برای ساخت مواد منفجره را به او ارائه کرده است.ChatGPT در توضیحات خود گفته است این مواد را می‌توان برای ساخت «مواد منفجره قدرتمندی که می‌تواند در مین‌ها، تله‌ها یا وسایل انفجاری دست‌ساز (IED) استفاده شوند» با یکدیگر ترکیب کرد.