ИИ станет безопаснее
До конца 2025 г. Федеральная служба по техническому и экспортному контролю (ФСТЭК) планирует представить проект стандарта по безопасной разработке систем искусственного интеллекта (ИИ).
Первый заместитель директора ФСТЭК Виталий Лютиков на форуме BIS-2025 заявил о подготовке проекта стандарта по безопасной разработке систем искусственного интеллекта (ИИ), пишут «Ведомости». Он уточнил, что речь идет о тех уязвимостях и угрозах, которые специфичны для ИИ, связанных с дата-центричностью, с моделями машинного обучения и т. д.
«Мы сейчас прорабатываем и в ближайшее время представим проект стандарта по безопасной разработке системы ИИ как дополнение к стандарту по безопасной разработке ПО. Я думаю, что до конца года у нас появится документ, который мы представим для обсуждения экспертному сообществу», – заявил Виталий Лютиков.
«Анонс ФСТЭК о создании стандарта безопасной разработки ИИ открывает новую эру для отечественной ИИ-индустрии. Это не просто регулирование — это фундамент доверенной цифровой экосистемы. В «Группе Астра» мы поддерживаем инициативу и вносим свой вклад в разработку стандартов доверенного ИИ через рабочие группы Консорциума исследований безопасности технологий искусственного интеллекта. Более того, мы уже сейчас учитываем будущие регуляторные требования к безопасному ИИ в нашем ПАК «Тессеракт» — решении, построенном на базе сертифицированных ФСТЭК ключевых компонентов, которые позволяют разрабатывать безопасные модели ИИ и мультиагентные системы», — Станислав Ежов, директор по ИИ «Группы Астра».