CERT по ИИ: Россия готовится к борьбе с киберугрозами

В России может появиться единый центр безопасности в области ИИ. Центр будет бороться с противоправным контентом в сети, сообщают Ведомости. Об инициативе создания единого центра безопасности в области искусственного интеллекта (ИИ) рассказала управляющий директор «Лаборатории Касперского» в России и странах СНГ Анна Кулашова на форуме информационных технологий.

«Необходимо по принципу CERT (computer emergency response team –название команд реагирования на инциденты информационной безопасности), т. е. обмена данными между участниками разных рынков и разработчиками ПО, создать единый центр исследования безопасности в области ИИ. В части классической кибербезопасности проводится регулярная проверка алгоритмов безопасной разработки ПО. То же самое может касаться и алгоритмов использования ИИ для разработки, проверки и мониторинга», – рассказала Кулашова.

Работа над созданием центра безопасности

По словам замглавы Минцифры Александра Шойтова, ведомство уже ведет работу по созданию CERT по ИИ с заинтересованными на рынке участниками. «С учетом того, что вопросы безопасности ИИ в отдельных компаниях и госструктурах развиваются, создание единого центра исследований информационной безопасности (ИБ) искусственного интеллекта как единой точки исследований необходимо», – сказал он.

При активном взаимодействии с участниками рынка такой центр может появиться уже в течение 2024 года, отметила Кулашова. При этом было бы логично создать центр на базе регулятора, к взаимодействию с которым могли бы присоединиться операторы связи, организации из Альянса в сфере ИИ или специализирующиеся на этой технологии компании, а также другие регуляторы, считает она.

Поддержка Госдумы

Создание такого центра — это амбициозная, но своевременная инициатива, считает член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин. «Угрозы, которые несут в себе технологии искусственного интеллекта, не всегда очевидны, как, например, в случае с DDoS-атаками. Конечно, сюда можно отнести проблему дипфейков и дипвойсов. Но куда более серьёзные угрозы могут скрываться еще на стадии разработки ИИ-моделей. Например, при обучении искусственного интеллекта может использоваться искаженная информация, либо разметка данных может осуществляться в преднамеренно искаженной логике. В самых радикальных вариантах такой подход может привести, например, к неверному анализу транспортных потоков или к ложной медицинской диагностике», – рассказал депутат.

  Необходимость децентрализованного подхода

По словам Немкина, амбициозность задачи по созданию отдельного центра заключается в том, что сейчас отсутствует полное понимание того, какие именно угрозы может нести в себе ИИ. «Искусственный интеллект не стоит на месте и динамично развивается, ввиду этого функционирование такого центра должно носить скорее децентрализованный характер. В противном случае ресурсов одной конкретной организации просто не хватит, при условии, что предварительно должна быть проведена кропотливая исследовательская работа по классификации угроз и определению мер реагирования на них. Вполне вероятно, что CERT в сфере ИИ будет функционировать на базе сразу нескольких компаний как в сфере разработки ИИ, так и в сфере кибербеза при координирующей роли Минцифры России», – считает парламентарий.

Важность начала работы уже сейчас

  В любом случае создание центра безопасности должно быть начато уже сейчас, подчеркнул Немкин. «Уровень проникновения искусственного интеллекта в России растет. По данным Правительства, уже треть российских компаний используют ИИ для рабочих задач, а по данным Сбера, более 60% россиян пользуются сервисами на базе технологий искусственного интеллекта. Рост числа пользователей будет неразрывно связан и с ростом числа противоправного использования технологии», – заключил депутат.

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Медицинские задачи для ИИ

Подробнее
Спецпроект

Цифровой Росатом

Подробнее


Подпишитесь
на нашу рассылку