Дипфейки перестали быть футуристической угрозой ‒ они уже здесь, подделывают лица руководителей в видеозвонках и обманывают системы биометрии. Но технологии защиты тоже не стоят на месте. VisionLabs и MWS AI показали, как современные детекторы распознают фейки в реальном времени и почему 13 банков уже доверили им безопасность своих клиентов. На вебинаре «Детекция дипфейков: от теории к практике» эксперты раскрыли закулисье разработки ‒ от алгоритмов до реальных кейсов внедрения.
Масштаб угрозы: цифры, которые заставляют задуматься
Татьяна Дешкина, директор портфеля продуктов и заместитель директора по развитию продуктов VisionLabs, открыла вебинар тревожной статистикой. По данным за 2025 г., 46,6% всех мошеннических преступлений в Москве так или иначе связаны с использованием информационных технологий.
Особенно настораживает структура этих преступлений: 77,4% приходится на фрод с использованием удаленного доступа к денежным средствам ‒ мошенничество через мобильные телефоны, видеозвонки, мессенджеры и другие каналы цифровой коммуникации. Оставшиеся 22,6% ‒ это взломы, кибератаки, утечки данных и прочие киберпреступления.
Почему злоумышленникам удается так легко создавать убедительные подделки? Татьяна Дешкина привела впечатляющие цифры рынка инструментов для генерации контента на основе ИИ: примерно 2 300 инструментов для создания дипфейков: перенос лица, синхронизация губ, перенос мимики, создание ИИ-аватаров, около 10 тыс. инструментов для генерации изображений с помощью искусственного интеллекта , приблизительно 1 000 инструментов для генерации и клонирования голоса.
И это не статичная проблема ‒ она растет в геометрической прогрессии. По данным The Wall Street Journal, количество дипфейков удваивается каждый месяц. Технология создания синтетического контента становится все доступнее, а барьер входа для мошенников ‒ все ниже.
Борьба с дипфейками: технологии и решения
Татьяна Дешкина обратила внимание на серьезность проблемы дипфейков: «Звучит это все достаточно страшно. Вопрос ‒ что делать?». По ее словам, возможностей для противодействия мошенникам немало.
Эксперт подчеркнула важность комплексного подхода: «Помимо правильного проектирования процессов не следует пренебрегать средствами кибербеза». Многие инциденты с дипфейками на рынке произошли именно из-за несоблюдения базовых мер безопасности.
Ключевой подход в борьбе с угрозой ‒ «использовать искусственный интеллект против искусственного интеллекта». Татьяна представила разработку своей команды Deepfake Detection: «На протяжении последних, наверное, трех лет мы это решение развиваем. Дипфейк-детектор обучен на основные типы лицевых дипфейков, мы умеем отличать дипфейки от реальных лиц».
Решение уже доказало свою эффективность на практике. «У нас более 15 кейсов в промышленной эксплуатации в нескольких странах», ‒ отметила эксперт. Накопленный опыт позволил развить гибкость системы: «Мы можем работать как по одному, так и по нескольким кадрам, что дает возможность работать с дипфейками в режиме и реального времени, так и постобработки, т. е. с видеофайлами».
Что касается сфер применения, то спикер сказала: «По сути, она применима во всех процессах, которые касаются удаленного подтверждения личности ‒ будь то верификация в реальном времени или экспертиза медиа-контента».
Голосовой спуфинг
О растущей проблеме голосового мошенничества рассказал Иван Дулов, старший менеджер продукта Audiogram от MWS AI.
«Это кибермошенничество, при котором злоумышленники используют клонированные, предзаписанные, а также искаженные голоса, чтобы выдать себя за другое лицо и ввести в заблуждение атакуемых», ‒ объясняет эксперт.
По словам Ивана, цель таких атак очевидна: «Мошенники обманом получают конфиденциальную информацию, такую как пароли, данные банковских карт или личные данные, чтобы украсть деньги или совершить другие противоправные действия».
Специалист выделяет три основных вида атак с использованием голосового спуфинга:
- логические атаки. При этом типе используются синтезированный (клонированный) голос и конверсия голоса. Особую тревогу вызывает простота реализации: «Для клонирования речи достаточно нескольких секунд целевой речи»;
- конверсия голоса. Это процесс трансформации голоса одного человека в голос другого с сохранением интонации и эмоциональной окраски источника. В отличие от клонирования и синтеза, где для работы необходимо передать в модель текст, в случае конверсии на вход идут исходный аудиосигнал (голос) и образец голоса целевого диктора, т. е. голос, который нужно имитировать;
- Replay-атаки. Здесь используется предзаписанный реальный голос. Схема работы проста: злоумышленник скрытно записывает голос жертвы и затем воспроизводит его через динамик своего устройства перед микрофоном.
Для противодействия растущей угрозе голосового может использоваться разработка MWS AI ‒ ИИ-система на базе ASR-технологии Audiogram и языковой модели LLM Cotype.
«Наше решение обеспечивает комплексную защиту от современных видов мошенничества», ‒ отмечает эксперт. Система обладает широкой функциональностью: определяет синтезированный, скопированный по технологии дипфейк или записанный голос в аудиосообщениях, выполняет расшифровку голосового сообщения в текст и с помощью LLM выявляет признаки мошеннических действий и намерений.
Принцип работы технологии прост и доступен для любого пользователя. Достаточно загрузить скриншоты, тексты или голосовые сообщения в систему. ИИ обрабатывает информацию и присылает ответ.
Результат анализа включает вероятность мошенничества в процентах, перечисление конкретных признаков фрода, таких как переход на внешнюю ссылку или эмоциональное давление, а также рекомендации о том, как избежать обмана.
Показатели системы впечатляют: точность определения мошеннических действий в любых типах сообщений составляет 92-97%, а время подготовки ответа всего 5‒8 секунд. Такая скорость и точность делают технологию эффективным инструментом в борьбе с голосовым мошенничеством.
Вебинар показал, что синтетический контент ‒ это реальная угроза настоящего. Борьба с дипфейками требует комплексного подхода ‒ сочетания технологических решений, грамотных процедур верификации и повышения осведомленности пользователей.
Анастасия Мартьянова, Connect


