Ferra.ru
Ноябрь
2024
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29
30

Стоит ли вам доверить "ИИ-близнецу" думать так же, как вы — обсудил эксперт

0

Джорджио Фацио, креативный директор, сочетающий искусство и технологии, начавший свою деятельность в далеком 1995 году, в своей недавней статье для HackerNoon предложил представить читателям версию самого себя, работающую на основе искусственного интеллекта и способную подражать личности, предпочтениям и принятию решений. Для справки: недавнее исследование Стэнфордского университета и Google DeepMind показало, что ИИ-клоны могут достигать 85% сходства с поведением и взглядами искомого человека, что вызывает определенные этические сомнения.

Команда под руководством Джун Сунг Парка опросила 1 000 участников, чтобы создать «ИИ-агентов», которые могли бы имитировать их, фиксируя «индивидуальные процессы принятия решений». Эти цифровые двойники, хотя и не совершенные, могут стать ценными инструментами в социальных исследованиях и даже сложных симуляциях, считают учёные.

Однако, как и в случае с любой новой технологией, возникают серьезные этические дилеммы. Цифровые двойники могут быть использованы для несанкционированного одобрения или распространения дезинформации. Точность воспроизведения личности также имеет свои ограничения: агенты ИИ будут быть неточны при оценке их некоторых поведенческих характеристик, например «справедливости» в принятии решений.

Несмотря на эти проблемы, исследование открывает многообещающее будущее, в котором цифровые копии могут помочь в принятии решений, проведении исследований и выполнении задач, сокращая время и нагрузку на данные, которые требуются в настоящее время, пишут эксперты.