ru24.pro
Новости по-русски
Ноябрь
2024

Учёный рассказал, почему "зловещий" ChatGPT часто ошибается

Эксперт Арлазаров развенчал миф о сильном ИИ

Доктор технических наук Владимир Арлазаров рассказал RT, что люди зачастую находят ошибку у искусственного интеллекта (ИИ), хотя его математические расчёты всегда верны.

Однако нейросети, в том числе ChatGPT, не предназначены для решения серьёзных задач. Они просто имитируют общение, что многим по-настоящему интересно.

Минус ChatGPT в том, что этот бот потребляет колоссальные объёмы энергии. А если человечество создаст сильный ИИ, то он будет потреблять ещё больше, что превысит энергетические затраты какого-нибудь небольшого городка.

Поэтому, как думает эксперт, акцент лучше сделать на создании нейросетей, решающих прикладные задачи в сфере распознавания документов, здравоохранении и т. д. Сильный ИИ для человека пока является утопией. И, по предположению Арлазарова, так будет в течение ближайших 20 лет.

Тем более, что искусственный интеллект не так уж и безопасен. В 2023 году житель Бельгии после общения с чат-ботом покончил жизнь самоубийством. Когда бот узнал о планах мужчины, то сказал ему, что они останутся одним целым. У бельгийца осталась жена и двое детей.