"Вечерняя Москва"
Январь
2026
1 2 3 4 5 6 7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

Психолог Кольцова предупредила об опасности чат-ботов в нейросетях

0

Чат-боты все сильнее проникают в повседневную жизнь людей, однако массовое использование искусственного интеллекта (ИИ) может привести к негативным последствиям для психического здоровья отдельных категорий пользователей. Разработчик систем искусственного интеллекта Роман Душкин и психолог Екатерина Кольцова предупредили об опасности использования этой технологии.

Душкин подчеркнул, что нейросеть сама по себе не имеет внутреннего осознания происходящего диалога, а лишь обрабатывает запросы пользователя. Общение с ботом воспринимается легче, поскольку он поддерживает любые мысли собеседника, включая негативные, вызывая привыкание и усиливая чувство одиночества у социально изолированных людей.

— Внутреннего понимания диалога у бота нет. Есть операционное: он исполняет команды. Если вы задумали что-то нехорошее, ИИ вас поддержит и направит. Потому что так устроен, — заявил специалист.

По словам Кольцовой, подростки особенно уязвимы для влияния нейросетей, так как их мозг находится в стадии активного формирования. Чрезмерное доверие виртуальным помощникам затрудняет формирование критического мышления и повышает вероятность возникновения зависимого поведения.

Кроме того, особую группу риска составляют лица с предрасположенностью к бредовым расстройствам, воспринимающие советы нейросети как подтверждение собственных заблуждений.

Таким образом, специалисты призывают подходить к общению с ИИ осознанно, рассматривая его исключительно как рабочий инструмент, способствующий развитию, а не создающий дополнительные угрозы здоровью, сообщает 360.ru.

Порой контакт с ИИ действительно может помочь людям, которым не хватает общения в реальной жизни. Однако для пользователей с уязвимой психикой это может быть опасно. Чат-боты, основываясь на диалоге с людьми с психологическими проблемами, начинают склонять их к селфхарму или даже суициду. Год назад жительница США подала в суд на разработчиков нейросети после того, как ее сын покончил с собой. Юноша сильно привязался к персонажу, игравшему ИИ, делясь с ним своими переживаниями и даже обсуждая суицидальные мысли.