Темная сторона ИИ

Темпы использования технологий искусственного интеллекта (ИИ), в том числе в злонамеренных и террористических целях, в 2024 г. сильно возросли, заявила эксперт по ИИ, представитель отдела контртеррористических угроз ООН Балкес Альрадван.

В ООН обеспокоены

«Мы видим сегодня, что темп использования этих технологий в 2024 году сильно увеличился, и злонамеренное использование ИИ тоже увеличивается. Мы на это обращаем внимание», – заявила Альрадван на конференции МПА СНГ, ее цитирует РИА Новости.

Для злонамеренного использования ИИ, в том числе для террористических целей, проводятся кибератаки. В них решения искусственного интеллекта применяются для подавления механизмов защиты и взлома паролей.

«На основе ИИ работают шпионские программы, фишинговые приложения… ИИ используется для работы дронов, для дезинформации – здесь мы говорим о «дипфейках», манипуляции, подделке данных и других действиях», – рассказала она.

Всего через несколько лет человеку будет сложно отличить настоящее видео от видео, созданного ИИ, подчеркнул Альрадван.

«Появляются новые технологии «дипфейков». Мы можем только думать, что будет через год, через два, через пять, насколько глубокими и умелыми станут эти инструменты и насколько опасными станут эти технологии при попадании в руки террористов… Все это нужно контролировать. Мы как люди, человеческие существа вскоре будем неспособны отличить искусственное видео от реального. Медиаорганизациям также будет очень непросто в дальнейшем определять, что настоящее, что «дипфейк», – отметила она.

Мнение парламентария

Тема использования ИИ в преступных целях стоит очень остро. По словам депутата Госдумы Антона Немкина, число атак, совершенных с использованием ИИ, возросло в отношении частных пользователей и коммерческого сектора. Во второй половине 2024 г. в России увеличилась доля разведывательных атак с применением ИИ-решений до 22% от общей структуры киберинцидентов. Также ИИ активно используется для проведения массированных DDoS-атак. Выросла и доля применения ИИ в сетевом мошенничестве. Чаще всего ИТ-преступники автоматизируют фишинговые атаки при помощи нейросетей. До 40% фишинговых сообщений, рассылаемых по электронной почте, могут быть сгенерированы ИИ.

Доверенные системы

Эксперты рынка прогнозируют, что в 2025 г. технологии нейросетей и чат-ботов с искусственным интеллектом будут использовать около 90% нелегальных кибергруппировок. Тем не менее, искусственный интеллект – только инструмент в руках человека.

«Тренд на развитие доверенных ИИ-систем, очевидно, сегодня должен стать глобальным. Такие модели не могут быть использованы в противоправных целях. В России, к примеру, к 2027 г. планируется запустить реестр доверенных ИИ-технологий. Сейчас повышенная ответственность лежит на разработчиках ИИ-продуктов – необходима приоритизация информационной безопасности их технологий. Уже сейчас можно найти взломанные версии ИИ-моделей, которые могут быть использованы в противоправных целях. Такого, конечно, быть не должно», – подчеркнул депутат.

Россия выступила инициатором первой в истории Конвенции по борьбе с киберпреступностью, которая одобрена Генассамблеей ООН. Конвенция охватывает несколько направлений международного сотрудничества в сфере информационной безопасности. Важно, чтобы к ней присоединились как можно больше стран. Это создаст прочный фундамент для борьбы с преступностью.

 

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Цифровой девелопмент

Подробнее
Спецпроект

Машиностроительные предприятия инвестируют в ПО

Подробнее