Нейросети уличены в способности делать фатальные ошибки
В особом контроле сейчас нуждаются нейросети, которые уже активно включились в нашу жизнь. Их задействуют практически во всех сферах, но говорить о том, что искусственный интеллект может заменить человека пока рано. Несмотря на постоянное обучение, он все равно делает ошибки, которые могут привести к фатальным последствиям. Корреспондент РЕН ТВ Илья Аникеев раскрыл детали.
Точного ответа нейрорепетитор по английскому не знает. Но он прислушается, подумает и укажет на ошибки в произношении. Иностранному языку искусственный интеллект обучили студенты университета аэрокосмического приборостроения.
"Вот мы как раз ориентировались на американский английский, поскольку британский английский, он вообще не простой", - рассказал разработчик Виктор Хаванов.
Живого репетитора виртуальный учитель пока не заменит. Нейросеть долго анализирует, иногда просит повторить, в общем, сама еще учится.
"Скажем так, нету такого мегаобъема данных, чтобы обучить настолько, чтобы нейросеть не галлюцинировала. В любом случае, будет ошибаться", - рассказал кандидат технических наук Станислав Чернышов.
С похожей проблемой столкнулись разработчики из центра инфохимии. Они научили нейросеть сканировать медицинские снимки. Теперь она даже помогает создавать биосовместимые тканевые протезы. Но специалист все равно должен присматривать.
"Ошибки возможны, конечно же, но ошибки возможны и у человека, потому что человек устает, человек неровно обводит все контуры, человек, ну, банально глаз у него замыливается", - говорит руководитель группы моделирования материалов регенеративной медицины, доцент НОЦ инфохимии Павел Зум.
Человек устал, заболел, или просто не в настроении. А нейросеть, это же программа, ей лишь бы шнур питания был в розетке. Но в процессе неконтролируемого обучения ИИ может неправильно усваивать информацию. Тогда он начинает сам себя путать.
"Галлюцинирование – одна из самых проблемных особенностей нейросетей. Искусственный интеллект искажает факты, ссылается на несуществующие источники, иногда откровенно выдумывает. Конечно, среди миллионов запросов – это единичные случаи", - подчеркнул Аникеев.
Так, во время футбольного матча нейросеть перепутала мяч с бритой головой арбитра и фокусировала камеру на его лысине. А вот функция автопилота в Tesla внезапно передумала парковаться и устроила уличные гонки.
"С точки зрения технологий, ИИ – это просто огромный большой компьютер, позволяющий выполнять огромное количество действий в очень ограниченное время. Если его правильно защищать, если ему правильно задачу ставить, то никакой угрозы для людей он не несет", - подчеркнул эксперт по кибербезопасности Александр Дворянский.
С этим готов поспорить ученый Александр Цветков. В аэропорту Домодедово нейросеть перепутала его с фотороботом подозреваемого в убийстве. В СИЗО он провел целый год, доказывая свою невиновность.
"Самое главное то, что любой пользователь должен ставить правильно задачу нейросетям. Сейчас уже есть такая профессия, как модератор нейросетей, архитектор нейросетей. Может ли нейросеть кому-то навредить? Если это будет сделано и продумано человеком, то да", - отметил руководитель киберпроекта Григорий Паченко.
Вероятность восстания машин или войну роботов, специалисты отрицают. Современные нейросети пока не обладают мышлением.
"Ближайшие лет 10 нам ничего не грозит. Почему? Данные для обучения нейронных сетей закончились на планете и сейчас начнется инвестиционная зима, новых прорывных каких-то красивых решений, типа Chat GPT, не появится", - считает специалист по кибербезопасности Андрей Масалович.
К 2030-ому Россия должна войти в пятерку стран по метрикам ИИ. Такую задачу поставило правительство. Пока там США, Великобритания, Китай, Индия и Эмираты. Осталось всего пять лет, чтобы научить нейросети допускать как можно меньше ошибок в своей генерации.