Поддельные личности — чем грозят ИИ–имитаторы людей
https://spectrum.ieee.org/digital-afterlife
В приложении на базе GPT пользователи «переписываются» с Иисусом, spectrum предрекает рождение жутковатой индустрии по созданию цифровых двойников умерших людей, а Character.AI, где с одинаковым успехом можно поболтать с Эйнштейном и Микки–Маусом осваивает 150 миллионов долларов.
Все это — наработки в области миметических языковых моделей, которые обучаются на поведении и информации о конкретных людях и призваны имитировать отдельно взятую личность, причем довольно надежно и достоверно. Речь далеко не о сильном искусственном интеллекте, но это осязаемый технологический вызов, который точно придется преодолеть. Дэниел Деннет называет такие LLM «поддельными людьми», а Юваль Харари хочет, чтобы их разработчиков сажали в тюрьму. Хоть не призывает бомбить дата–центры, но тоже довольно радикально.
Чтобы понять, из–за чего такой шум, рекомендую обратиться к статье «Клоны цифрового мышления человека: Святой Грааль искусственного интеллекта для Big Data», которая затрагивает правовые и этические последствия использования больших данных «цифровыми мысленными клонами» человека. Там миметические LLM предстают как подопытные кролики, с помощью которых рекламщики и политтехнологи отточат предсказательные модели. Cambridge Analytica на стероидах.
Впрочем, позволю себе толику оптимизма. Двойников можно применять по–разному, скажем для изучения истории. Возможно, если дообучить ту же LLaMA на переписке и дневниках аристократов 19 века, мы узнаем нечто новое о том, как мыслили наши предки. Или можно сталкивать LLM с радикальными взглядами в симулированных дебатах, чтобы найти эффективные переговорные стратегии и новые способы примирить их позиции. Как обычно, эффект зависит от намерений того, в чьих руках находится новая технология.
Если хотите больше годного контента — переходите в телеграм.
Написал SantrY на science.d3.ru / комментировать