Доверенная среда искусственного интеллекта
среду, в которой может быть сохранена любая тайна. Контекстная реклама, как рекомендательные технологии являются в настоящее время самым эффективным элементом рекламы. Однако в реальности данные информационные технологии еще работают недостаточно эффективно. На развитие искусственного интеллекта из федеральных средств предусмотрено 5,2 млрд руб. и еще 2,4 млрд. руб. внебюджетного софинансирования от индустриальных партнеров, среди которых Сбер, Яндекс, МТС и другие. Использование искусственного интеллекта в настоящее время построено на модели МакКаллока-Питтса и не всегда позволяет ему быть более подвижным и адаптироваться к условиям запросов пользователей в сети интернет. К примеру, пользователь, формируя запрос в поисковой строке браузера может получить контекстную рекламу, не всегда отвечающую основному запросу. Как сообщили корреспонденту Информационного агентства МАНГАЗЕЯ На недавно прошедшей юбилейной конференции НИТО 2025 (г. Москва) в выступлении Масалович А.И. подчеркивалась необходимость формирования доверенной среды при использовании искусственного интеллекта. По мнению эксперта Среднерусского института управления – филиал РАНХиГС Ирины Кружковой, следует рассмотреть искусственный интеллект с позиции ограничения технологии в условиях построения запросов. Эксперт согласна с Андреем Масалович, который настаивает на применении новой, но пока не активно внедряемой модели нейронных сетей Колмогорова-Арнольда (KAN). В настоящее время в мире разработано порядка 80 моделей. Чтобы обеспечить доверенную среду, защиту информации от неправильной трактовки, по мнению эксперта, необходимо быть готовыми к ряду обманных действий. Искусственный интеллект может обманывать нейросеть посредством применения «зашумления» (снижения количество пикселей) в картинке. Нейросеть рассматривает любую картинку в сети интернет как векторную графику, а не как количество пикселей (четкость) в картинке. А.И. Масалович обозначает такой способ обмана нейросети как «атака уклонением». Таким образом любая нейросеть не сможет рассмотреть картинку с маленьким количеством пикселей. «Отравление данными» - еще один способ привлечения внимания нейронной сети и обмана искусственного интеллекта, которая не может рассмотреть картинку в картинке. То есть в картинку в сети интернет можно встроить другую картинку, и сама нейронная сеть второй рисунок не определит. Однако человек своим зрением эту картинку видит, а искусственный интеллект – рисунок в рисунке не распознает. «Отравленные данные для чат-ботов», означает что человек может вложить в чат не проверенные либо некорректные данные, которые не помогают человеку, а наоборот в негативном ключе представляет информацию, не правильную и лишенную смысла. Трендами применения искусственного интеллекта не ближайшее время в условиях формирования доверенной среды станут создание и законодательное регулирование концепции недопустимости событий, кратный рост атак на критическую инфраструктуру, искусственный интеллект будет интегрирован в подготовку хакеров, будет создана концепция непрерывного формирования угроз и их управления, активное вхождение искусственного интеллекта в малый и средний бизнес, становление корпоративной бизнес-разведки, создание более плотного взаимодействия между компаниями по обмену информацией об угрозах.