В Госдуме заявили о рисках неконтролируемого внедрения ИИ и поддержали создание стандарта ФСТЭК

К концу 2025 года Федеральная служба по техническому и экспортному контролю (ФСТЭК) планирует разработать и представить проект стандарта, регулирующего безопасную разработку систем искусственного интеллекта (ИИ). Этот стандарт станет дополнением к существующему стандарту, определяющему безопасную разработку программного обеспечения (ПО). О данном намерении сообщил первый заместитель директора ФСТЭК Виталий Лютиков в рамках форума BIS-2025, подчеркнув, что новый стандарт будет учитывать специфические уязвимости и угрозы, присущие ИИ, в частности, связанные с обработкой больших данных и моделями машинного обучения.

По мнению консультанта по безопасности Positive Technologies Алексея Лукацкого, разработка нового стандарта является своевременной, поскольку действующий 117-й приказ ФСТЭК, вступающий в силу с 1 марта 2026 года, лишь обозначает необходимость защиты ИИ, но не предоставляет конкретных практических рекомендаций. Предстоящий стандарт должен охватить вопросы, касающиеся сбора, хранения, разметки и обеспечения целостности и конфиденциальности наборов данных, используемых для обучения ИИ-моделей.

Член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин отмечает, что необходимость разработки специализированного стандарта обусловлена возрастающей ролью нейросетей в критически важных системах, включая государственный сектор и инфраструктуру. Искажение или повреждение данных, используемых для обучения ИИ, способно привести к ошибочным выводам и принятию неверных решений. Стандарт позволит установить единые требования к формированию и хранению данных, а также к процессу обучения моделей.

Немкин подчеркивает, что важно найти баланс между регулированием и развитием технологий, чтобы избежать замедления внедрения ИИ-решений.

Вернуться назад