ИИ под контролем

В России представлен законопроект о регулировании искусственного интеллекта. Эксперты назвали его документом, который задает правила для новой технологической эпохи и закладывает основу для системного и безопасного развития ИИ-технологий. Речь идет о переходе от фрагментарных решений к полноценной нормативной базе, учитывающей интересы отрасли и защиту прав граждан.

В основе документа – риск-ориентированный подход: регулирование будет напрямую зависеть от степени влияния конкретной системы ИИ на человека и общество. Это позволит избежать избыточных ограничений для технологий с низким уровнем риска, одновременно усилив контроль за критически важными решениями.

По словам члена комитета Госдумы по информационной политике, информационным технологиям и связи Антона Немкина, такой подход соответствует международной практике, позволяет не тормозить развитие инноваций, но при этом выстраивать понятные и справедливые правила. Чем выше потенциальное влияние ИИ – тем выше требования к его надежности и безопасности.

Суверенные, национальные и доверенные ИИ-модели

Законопроект вводит новые категории суверенные, национальные и доверенные модели искусственного интеллекта. Это важный шаг в сторону технологического суверенитета и формирования собственной ИИ-экосистемы.

Отдельный блок инициатив направлен на защиту прав граждан. Впервые закрепляется возможность досудебного обжалования решений государственных органов и госкомпаний, принятых с использованием ИИ. Кроме того, в случае причинения вреда гражданин сможет рассчитывать на компенсацию по нормам гражданского законодательства.

Возможность оспаривания решений и получения компенсации делает применение ИИ более прозрачным и подконтрольным обществу.

Требования к участникам рынка

Документ также устанавливает четкие требования к участникам рынка. Разработчики обязаны исключать дискриминационные алгоритмы и предотвращать создание противоправного контента, операторы – тестировать системы на безопасность и информировать пользователей об их ограничениях, а владельцы сервисов – оперативно реагировать на случаи неправомерного использования.

При этом ответственность за возможный вред будет распределяться между всеми участниками – от разработчика до пользователя – пропорционально степени их вины. Речь идет о формировании зрелой экосистемы, где каждый участник понимает свою ответственность за конечный результат работы технологии.

Маркировка контента

Отдельное внимание уделено проблеме синтетического контента. Законопроект обязывает маркировать все аудиовизуальные материалы, созданные с помощью ИИ. Крупные цифровые платформы, в свою очередь, должны будут контролировать наличие такой маркировки и при необходимости самостоятельно ее добавлять или удалять контент.

По словам парламентария, «в условиях стремительного роста дипфейков маркировка становится не просто технической мерой, а инструментом защиты общества от манипуляций и дезинформации».

Впереди – этап общественного обсуждения, в рамках которого к доработке инициативы смогут подключиться представители отрасли, эксперты и граждане. По словам Антона Немкина, задача – найти баланс между развитием технологий и защитой человека.

Источник: Пресс-служба депутата Государственной Думы РФ Антона Немкина

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Цифровой девелопмент

Подробнее
Спецпроект

Машиностроительные предприятия инвестируют в ПО

Подробнее