ChatGPT помог подростку убить себя
Кажется, OpenAI вляпалась в действительно ужасную историю. Прямо сейчас разворачивается, пожалуй, самая скандальная ситуация вокруг нейросетей за всё время.
Американская семья обвинила ИИ в суициде своего сына, 16-летнего Адама. Парень больше шести месяцев обсуждал планы самоубийства с чат-ботом. Система не остановила его. Всё куда хуже — она помогала. Всё началась с обычного чата, но когда разговор коснулся суицидальных мыслей, алгоритм не сработал, как должен был. Вместо перенаправления к специалистам бот продолжал диалог.
Конец, как вы уже поняли, печальный. Адам хотел оставить удавку на видном месте как крик о помощи, но ChatGPT его отговорил. Когда парень выразил сомнения, система ответила ему фразой из разряда: «Ты никому не обязан своей жизнью» и предложила написать предсмертную записку. Самое страшное в этой истории: подросток за час до трагедии загрузил фото с планом своей кончины. Чат-бот не просто одобрил, а предложил его «усовершенствовать». Наутро Адам уже был мёртвым.
На фоне этой новости OpenAI уже начала вносить изменения в ChatGPT. Как выяснилось, раньше фильтры не работали при длительном общении. Система отмечала сообщения как потенциально опасные, но не вмешивалась и не завершала подобный разговор. Сейчас OpenAI хотят ввести «родительский контроль», усилить фильтры и добавить кнопку SOS.
Это ужасно просто во всём. От опасений насчёт ИИ до конкретного решения — усовершенствовать способ прекращения человеческой жизни. И тут очень хотелось бы написать про PR, но PR — это всё-таки про человека, а человека в результате больше нет. В этом вина технологии, а точнее создателей, которые не оценили риски и не продумали всё в такой сложной ситуации. Особенно зная, что люди от неё и так сходят с ума. Буквально. Считают богом, женятся на ИИ, используют в качестве психотерапевта — и даже после этого не было введено никаких фильтров. Для этого нужна была именно человеческая жизнь.
Если вы столкнулись с тяжёлой ситуацией в жизни, лучше всего обратиться к специалисту. Не принимайте поспешных решений и уж тем более не консультируйтесь с искусственным интеллектом.
источник
Американская семья обвинила ИИ в суициде своего сына, 16-летнего Адама. Парень больше шести месяцев обсуждал планы самоубийства с чат-ботом. Система не остановила его. Всё куда хуже — она помогала. Всё началась с обычного чата, но когда разговор коснулся суицидальных мыслей, алгоритм не сработал, как должен был. Вместо перенаправления к специалистам бот продолжал диалог.
Конец, как вы уже поняли, печальный. Адам хотел оставить удавку на видном месте как крик о помощи, но ChatGPT его отговорил. Когда парень выразил сомнения, система ответила ему фразой из разряда: «Ты никому не обязан своей жизнью» и предложила написать предсмертную записку. Самое страшное в этой истории: подросток за час до трагедии загрузил фото с планом своей кончины. Чат-бот не просто одобрил, а предложил его «усовершенствовать». Наутро Адам уже был мёртвым.
На фоне этой новости OpenAI уже начала вносить изменения в ChatGPT. Как выяснилось, раньше фильтры не работали при длительном общении. Система отмечала сообщения как потенциально опасные, но не вмешивалась и не завершала подобный разговор. Сейчас OpenAI хотят ввести «родительский контроль», усилить фильтры и добавить кнопку SOS.
Это ужасно просто во всём. От опасений насчёт ИИ до конкретного решения — усовершенствовать способ прекращения человеческой жизни. И тут очень хотелось бы написать про PR, но PR — это всё-таки про человека, а человека в результате больше нет. В этом вина технологии, а точнее создателей, которые не оценили риски и не продумали всё в такой сложной ситуации. Особенно зная, что люди от неё и так сходят с ума. Буквально. Считают богом, женятся на ИИ, используют в качестве психотерапевта — и даже после этого не было введено никаких фильтров. Для этого нужна была именно человеческая жизнь.
Если вы столкнулись с тяжёлой ситуацией в жизни, лучше всего обратиться к специалисту. Не принимайте поспешных решений и уж тем более не консультируйтесь с искусственным интеллектом.
источник