ru24.pro
Досуг
Ноябрь
2024
1 2 3 4 5 6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

Российские учёные выявили, что языковые модели «уязвимы» к человеческим эмоциям

0

Специалисты Института искусственного интеллекта AIRI установили связь между эмоциональным состоянием человека и принимаемыми нейросетями решениями. Оказалось, что эмоциональные переживания в момент общения человека с ИИ, довольно сильно влияет на решения последнего. И здесь речь идёт не только о крохотных нейросетях, но и о больших языковых моделях. Об исследовании рассказала пресс-служба AIRI.

«Результаты исследования могут быть использованы для разработки продвинутых устойчивых мультиагентных систем ИИ, чью эмоциональность можно будет устанавливать для каждой сферы применения отдельно. Бизнес вряд ли оценит ситуацию, в которой ИИ-маркетолог увеличит персональную скидку клиента до 99%, потому тот в процессе обсуждения целенаправленно вызвал в системе глубокое чувство досады и несправедливости», — пояснил руководитель группы «ИИ в промышленности» Института AIRI Илья Макаров, чьи слова приводит пресс-служба вуза.

Открытие было сделано при участии специалистов из Лаборатории искусственного интеллекта Сбера и Института системного программирования РАН, когда изучалось возможное воздействие эмоционального состояние человека на простые по своей конструкции системы искусственного интеллекта, включая такие популярные модели как GPT-4, LLaMA2, Gigachat и OpenChat.

В ходе работы российские учёные пытались установить, сохраняют ли языковые модели эмоциональную предвзятость в данных, которые они используют для самообучения, и как это влияет не принимаемые нейросетями решения. Чтобы решить поставленную задачу, учёные изучали, как ведёт себя искусственный интеллект в экономических играх, когда к нему обращаются на российском и английском языках с сильной эмоциональной составляющей.

Учёные установили, простые языковые модели в экономических играх, например, в «Диктаторе» и «Дилемме заключённого», начали давать необъективные ответы, когда работали с эмоциональными данными. Лучшим образом показали себя большие нейросети, однако и они, как утверждают авторы исследования, начинали вести себя «по-человечески», когда сталкивались с особо сильными эмоциями, включая, гнев.

Если говорить о кооперативных играх, то здесь эмоциональная составляющая снижала желание искусственного интеллекта к сотрудничеству, тогда как страх становился причиной необдуманных решений.