Энтузиасты и прагматики: ученые назвали четыре типа личности пользователей ChatGPT
Мотивы взаимодействия с нейросетями существенно различаются, а универсальный подход к ИИ больше не работает. Поэтому учеными было выявлено четыре принципиально разных типа личности, к которым можно отнести всех пользователей ChatGPT. Такое исследование провели сотрудники Оксфордского университета и Берлинского университетского альянса, передает Daily Mail.
Как проходило исследование
В рамках работы ученые проанализировали 344 случая использования ChatGPT в первые четыре месяца после его публичного запуска. Авторы пришли к выводу, что юзеров невозможно рассматривать как однородную группу. Сферы применения ИИ и ожидания от технологии оказались слишком разнообразными.
Энтузиасты ИИ: технологии как собеседник
К первой группе относятся «энтузиасты ИИ» — 25,6% участников. Эти пользователи активно взаимодействуют с чат-ботом и стремятся получить не только практическую, но и социальную пользу.
По данным исследования, именно они чаще всего воспринимают ИИ как «социального партнера» и почти не испытывают опасений по поводу конфиденциальности.
Наивные прагматики: главное — результат
Во вторую группу вошли «наивные прагматики» — 20,6% опрошенных. Для них приоритетны удобство и эффективность.
Такие пользователи уверены в практической пользе ChatGPT и готовы игнорировать возможные риски, если технология помогает решать задачи быстрее и проще.
Осторожные пользователи: интерес с оглядкой
Самой многочисленной группой стали «осторожные пользователи» — 35,5% участников. Они проявляют интерес к ИИ, но постоянно сопоставляют преимущества технологии с потенциальными недостатками.
Исследователи отмечают, что именно эта категория сильнее других обеспокоена вопросами конфиденциальности.
Скептически настроенные исследователи: пробуют, но не доверяют
Наименее доверяющей ИИ группой оказались «скептически настроенные исследователи» — 18,3% пользователей. Они лишь начинают знакомство с ChatGPT и пока не видят для себя явной пользы.
Эти участники чаще всего выражают сомнения в безопасности технологии и защите персональных данных.
Почему антропоморфный ИИ может навредить
Ведущий автор исследования доктор Кристоф Герлинг отметил, что освоение ИИ требует практики и развития навыков. При этом ученые обратили внимание: несмотря на опасения по поводу конфиденциальности, три из четырех групп продолжили пользоваться чат-ботом.
Исследователи предупреждают, что попытки сделать ИИ слишком «человекообразным» могут привести к обратному эффекту.
Пользователи, обеспокоенные безопасностью данных, в таком случае склонны винить в возможных проблемах сам ИИ, а не компанию-разработчика, что способно еще сильнее подорвать доверие к технологии.
Еще больше новостей — у Пятого канала в мессенджере MAX.
