В Госдуме заявили о рисках неконтролируемого внедрения ИИ и поддержали создание стандарта ФСТЭК
Дополнительный стандарт
До конца 2025 г. Федеральная служба по техническому и экспортному контролю (ФСТЭК) планирует представить проект стандарта по безопасной разработке систем искусственного интеллекта (ИИ) в дополнение к стандарту по безопасной разработке программного обеспечения (ПО). Об этом заявил первый заместитель директора ФСТЭК Виталий Лютиков на форуме BIS-2025. Лютиков уточнил, что речь идет о тех уязвимостях и угрозах, которые специфичны для ИИ, связанных с дата-центричностью, с моделями машинного обучения и т. д.
«Мы сейчас прорабатываем и в ближайшее время представим проект стандарта по безопасной разработке системы ИИ как дополнение к стандарту по безопасной разработке ПО. <…> Я думаю, что до конца года у нас появится документ, который мы представим для обсуждения экспертному сообществу», – заявил Лютиков.
В 117-м приказе ФСТЭК, который вступает в силу с 1 марта 2026 г. и устанавливает новые требования к защите информации в государственных информационных системах, есть достаточно большой раздел, посвященный вопросам безопасности ИИ, моделей и дата-сетов, которые используются для обучения этих моделей, напомнил консультант по безопасности Positive Technologies Алексей Лукацкий. Его слова приводят «Ведомости»: «Однако такая непростая тема не может обойтись только одной страницей внутри приказа, который только постулирует само требование по защите ИИ, но не рассказывает, как это сделать».
Предмет регулирования
В документе будут прописаны вопросы, связанные не только с ИИ-моделями, но и с тем, как собирать дата-сеты, как их хранить, как их размечать безопасным образом, как обеспечивать их целостность и конфиденциальность, поскольку они могут представлять интерес для различных злоумышленников, перечисляет эксперт. Там будет прописан процесс, связанный с обеспечением всего цикла разработки безопасного ИИ.
По словам члена комитета Госдумы по информационной политике, информационным технологиям и связи Антона Немкина, разработка отдельного стандарта по безопасной разработке ИИ – логичный и своевременный шаг. Сегодня нейросети становятся частью критически важных систем, в том числе в госсекторе и инфраструктуре, а значит, в случае с их использованием необходимо предъявлять требования не только к качеству и эффективности, но и к безопасности. Опасность в том, что модели ИИ работают с огромными объемами данных, а искаженные или вредоносно измененные дата-сеты могут привести к некорректным выводам, которые будут иметь прямое влияние на принятие решений.
«Особенность ИИ заключается в том, что его нельзя протестировать и верифицировать так же, как традиционное программное обеспечение. Модели обучаются на данных и зачастую функционируют как «черный ящик». Это порождает новые типы угроз – от «отравления» обучающих выборок до эксплуатации «галлюцинаций» модели и атак через промты. Без системного регулирования компании рискуют недооценить эти угрозы и оставить уязвимости в своих решениях», – пояснил парламентарий.
Единые правила
Введение стандарта поможет выстроить единые правила для всех участников рынка. Он задаст базовые требования к формированию и хранению дата-сетов, обеспечению целостности данных, процессу обучения моделей и интеграции их в бизнес-процессы. Для разработчиков, которые уже знакомы с практиками ФСТЭК, это будет не революция, а логичное расширение подходов, адаптированных к специфике ИИ. В перспективе такой документ станет ориентиром не только для госсектора, но и для коммерческих компаний, которые стремятся повысить доверие к своим продуктам, считает Немкин.
По его мнению, важно при этом найти баланс между регулированием и развитием технологий. Чрезмерно жесткие нормы могут замедлить внедрение ИИ-решений, а слишком мягкие приведут к росту инцидентов и падению доверия. Россия выбирает наиболее верный путь – устанавливать рамки безопасности, не мешая инновациям. Это позволит сделать ИИ более надежным и защищенным, а также повысить конкурентоспособность отечественных решений на глобальном рынке.
Источник: Пресс-служба депутата Государственной Думы РФ Антона Немкина


