Голос с маркировкой

В Совфеде предложили маркировать синтезированные голоса. В России могут появиться законодательные ограничения для создания и использования сгенерированных при помощи нейросетей голосов людей. Это крайне актуально на фоне появления мошеннических схем, связанных с аудиодипфейками.

Превентивные меры

В Совете Федерации РФ прорабатываются законодательные предложения по использованию сгенерированного с помощью нейросети голоса людей. В первую очередь, данные людей, необходимые для создания такого контента, должны использоваться только с их согласия, также должна появиться маркировка таких материалов.

«Согласно планируемым изменениям <…> использование записи голоса гражданина допускается только с его согласия. Обсуждается вопрос маркировки при использовании синтезированного голоса. Например, если компания использует синтез голоса, она должна будет уведомлять, что следующая информация, которую вы будете слышать, создана при помощи искусственного интеллекта. Такая мера обсуждается», – рассказал зампред Совета по развитию цифровой экономики при Совете Федерации Артем Шейкин. Он также отметил, что на сегодняшний день в российском законодательстве не закреплено понятие охраны голоса гражданина.

Питательная среда для мошенников

По словам Шейкина, синтезирование голоса людей, в том числе знаменитых, несет в себе риски создания различных мошеннических схем. Примерами могут послужить озвучивание запрещенного контента, а также ложные звонки с целью вымогательства, шантажа или рассылка через социальные сети сообщений с просьбой о финансовой помощи от якобы родных и знакомых людей.

Лицо человека, а также его голос могут использоваться в мошеннических и противоправных целях без его ведома, отметил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.

«Подобное положение дел может привести к повышению социальной напряженности, если дипфейки – как аудио так и видео – будут использоваться, например, в политических целях. И такие примеры уже были – например, в прошлом году видеоролик с «обращением» президента России Владимира Путина, который транслировали ряд телеканалов и радиостанций, был подготовлен при помощи технологии дипфейк с использованием замены лица. В записи, которая выдавалась за выступление президента, было сделано несколько серьезных заявлений – если бы их распространение не удалось вовремя пресечь, последствия такой преступной выходки хакеров могли бы быть крайне масштабными», – пояснил депутат.

Вопрос времени

Проблема использования дипфейков мошенниками в частных ситуациях против граждан также обретает актуальность. Например, не так давно распространилась мошенническая схема, в рамках которой мошенники взламывали аккаунты в мессенджерах и рассылали сообщения близкому кругу с просьбой занять в долг. Однако нововведение злоумышленников заключалось в рассылке таких сообщений с использованием аудиодипфейков, что является практически беспроигрышным способом обмана жертвы.

«В МВД говорят, что мошенники пока редко используют технологии создания голосовых фейков при помощи искусственного интеллекта, так как намного дешевле для них просто сымитировать голос человека в стрессовой ситуации. Например, когда звонок поступает ночью, там раздается глухой шепот с просьбой о помощи, у мошенников все равно получается добиться от жертвы тех сведений или тех действий, которые необходимы. Тем не менее, в дальнейшем число схем с использованием будет только расти по мере освоения мошенниками этой технологии», – полагает Антон Немкин.

 

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Медицинские задачи для ИИ

Подробнее
Спецпроект

Цифровой Росатом

Подробнее


Подпишитесь
на нашу рассылку