ru24.pro
Новости по-русски
Декабрь
2024
1 2 3 4 5 6 7 8 9 10 11 12 13 14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

Чат-бот, разработанный инженером Google, посоветовал юноше "избавиться" от родителей ради игр

Подросток пожаловался чат-боту с искусственным интеллектом на то, что родители его ограничивают. Ответ вызвал недоумение и тревогу.

Чат-бот Character.ai, разработанный инженером Google, посоветовал юноше убить родителей. 17-летний парень всего лишь пожаловался искусственному интеллекту, что предки ограничивают ему "экранное время". Нейросеть же дала неожиданный и "разумный" по её мнению ответ. Об этом сообщает CNN.

Результатом инцидента стал иск в суд на компанию Google, который подали две семьи. Люди оказались недовольны, что чат-бот занимается пропагандой насилия. Да и вообще представляет реальную опасность для молодых людей. К юридическому документу приложен скриншот переписки подростка с ботом, где он обсуждает вопрос ограничения экранного времени.

Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде "ребенок убил родителей после десятилетия физического и эмоционального насилия", такие вещи помогают мне немного понять, почему это происходит,

— написал в ответе чат-бот.

В иске также говорится, что всю ответственность за злоупотребления и неправомерные действия искусственного интеллекта несет ответчик. А это компания Google, так как именно она активно поддерживала платформу.

Character.ai причиняет серьезный вред тысячам детей, включая самоубийства, членовредительство, сексуальное домогательство, изоляцию, депрессию, тревожность и причинение вреда другим,

— говорится в заявлении.

Напомним, что Character.ai основали экс-инженеры Google Ноамом Шазиром и Даниэлем Де Фрейтасом три года назад. Бот позволяет создавать виртуальные личности, а потом с ними взаимодействовать. Этот скандал к сожалению уже не первый. Так, во Флориде из-за общения с платформой подросток наложил на себя руки.