Антон Немкин: рост утечек данных через публичные ИИ-сервисы требует немедленного внедрения корпоративных стандартов безопасности

В 2025 году объём утечек данных российских компаний через публичные ИИ-сервисы вырос в 30 раз. Речь идёт не о внешних взломах, а о повседневной практике сотрудников, которые загружают рабочие документы в ChatGPT, Gemini и другие аналогичные сервисы, чтобы ускорить обработку информации или «улучшить текст».

К таким выводам пришли аналитики после изучения трафика 150 компаний из различных отраслей. По их данным, около 60% организаций до сих пор не имеют формализованных правил работы с искусственным интеллектом и не контролируют, какие данные и на каких условиях передаются во внешние сервисы. В результате публичные ИИ-платформы фактически стали новым каналом утечек — незаметным для сотрудников, но крайне чувствительным с точки зрения корпоративной и государственной безопасности.

Член комитета Государственной Думы по информационной политике, информационным технологиям и связи, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин подчеркнул, что проблема носит системный характер.

«Мы видим принципиально новую модель риска. Это не атака хакеров и не пробел в технической защите, а человеческий фактор, усиленный доступностью нейросетей. Сотрудники, зачастую из лучших побуждений, загружают в публичные ИИ-службы договоры, служебные записки, элементы исходного кода, внутреннюю аналитику. В результате конфиденциальная информация покидает периметр организации без какого-либо контроля», — отметил Немкин.

По его словам, подобные инциденты фиксируются не только в России. За рубежом уже были случаи загрузки служебных документов в ChatGPT государственными служащими, а также утечки фрагментов исходного кода в крупных технологических компаниях.

«Это глобальный вызов. Нейросети — мощный и полезный инструмент, который способен существенно повысить производительность труда. Но без чётких регламентов и технических ограничений они превращаются в источник системных рисков. В отдельных случаях — даже в потенциальную точку входа для злоумышленников», — подчеркнул депутат.

Антон Немкин считает необходимым в кратчайшие сроки внедрить на уровне компаний и госкорпораций обязательные политики работы с ИИ-сервисами, включая:

запрет на передачу конфиденциальных данных во внешние публичные ИИ-платформы;

внедрение корпоративных (закрытых) ИИ-решений внутри защищённого контура;

технический мониторинг и фильтрацию исходящего трафика;

обучение сотрудников цифровой гигиене при использовании нейросетей;

актуализацию внутренних регламентов информационной безопасности.

«Сегодня важно не запрещать технологии, а выстраивать грамотную модель их безопасного использования. Искусственный интеллект должен работать на развитие экономики и повышение эффективности, а не становиться каналом утечек и угрозой для бизнеса и государства», — заключил Немкин.

Источник: Пресс-служба депутата Государственной Думы РФ Антона Немкина

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Цифровой девелопмент

Подробнее
Спецпроект

Машиностроительные предприятия инвестируют в ПО

Подробнее