Удар по фейкам. Нейросеть поможет отличить правду от лжи

Одним из победителей форума «ВУЗПРОМЭКСПО» названа система искусственного интеллекта по отлову фейков. Эту разработку студентов Пятигорского госуниверситета отметило жюри конкурса, на который были представлены десятки сильных проектов.

Противодействовать фейкам, количество которых в эпоху тотального онлайн растет, предлагается с помощью технологии искусственного интеллекта (ИИ). Авторы разработки научили нейросеть распознавать словосочетания, а отличать правду от лжи помогает математическая программа. В процессе анализа текста учитывается целый ряд критериев, в частности, лексика, логика, суть, стилистика и т. д.

Созданную систему искусственного интеллекта студенты из Пятигорска назвали «Берт», в честь героя одного из сериалов. Проверили разработку в ходе испытаний, подготовленных по заданиям «Сбера». Эффективность нейросети, обученной по предложенным алгоритмам, составила почти 96%.

Перспективы использования системы – самые широкие. Наряду с финансовыми организациями интерес к «Берту» проявляют в медиа-пространстве, в частности, информационные агентства, коммерческие предприятия, госструктуры, например правоохранительные. Своевременное обнаружение лживой информации позволяет снизить репутационные риски, избежать экономических проблем.

Авторы разработки – однокурсники Павел Посохов, Степан Скрыльников, Валерий Ефанов, Станислав Крапивин, Юрий Курочкин. Работа выполнена при участии доцента Ольги Тимченко.

Трудности прочтения

Как показало исследование ВЦИОМ, 42% опрошенных россиян признались в том, что с трудом отличают достоверную информацию от лживой. Фейкам верят 31% респондентов.

Чтобы не пойти на поводу у «информационного вранья», достаточно проявить бдительность. Например, попытаться проверить данные, экспертов или организации в подтвержденных источниках.

Для этого необходимо усвоить несколько простых правил критического чтения новостей: изучить источник (сайт и контактную информацию), проверить автора, посмотреть ссылки, чтобы определить, соответствует ли приведенная информация новости, перепроверить дату публикации. По данным экспертов, вероятность повторных публикаций фейковых новостей в среднем на 70% выше, чем настоящих.

Нейросети-антиподы

Известно, что сотрудникам Вашингтонского университета удалось создать нейросеть, способную сочинять по сути ложные, но по форме правдоподобные материалы. В частности, нейросеть подготовила текст о добыче полезных ископаемых на Луне. Предварительно ее обучили писать новостные заметки, пользуясь словесными конструкциями из текстов, опубликованных в Wall Street Journal. С точки зрения стиля, наличия цитат, указания источников нейросеть справилась с заданием.

Алгоритм написания заметок силами нейросетевых технологий воплощается и в других аналогичных проектах. Однако тексты без ошибок, повторов, ремарок, которые заставляют человека задуматься о подвохе, – это все же высший пилотаж для ИИ. Технология пока недостаточно развита.

Еще одной технологической нишей для трансляции и распространения фальшивых данных является видеоконтент deepfake. Популярное развлечение для пользователей YouTube предусматривает замену одних лиц другими. Потенциальный вред от такой подмены, если технологией воспользуется злоумышленник, да еще в корыстных целях, может быть весьма ощутим.

Однако и запрета на использование данной технологии ждать не стоит. Deepfake пришелся ко двору в кинематографе, шоу-бизнесе для создания визуальных эффектов.

Генератор фейков «в законе»

Разработка инструментов для генерации фейков – одно из направлений деятельности, которые развивают сегодня научные организации, университеты и ИТ-компании. Это необходимо для того, чтобы совершенствовать методы и способы противостояния разного рода фальшивкам.

Чем более эффективный генератор окажется в руках разработчиков, тем успешнее их можно будет применять для автоматического распознавания «липы».

Такие гиганты, как Facebook, Microsoft, объявляют конкурсы по совершенствованию технологий поиска сгенерированных видео. Принцип, для которого в русском языке есть подходящее определение «клин клином вышибают».

Информационная диета

Фейки – серьезный вызов для медиапространства, которое играет огромную роль в формировании общественного мнения.

Для борьбы с этим явлением выделяют силы и ресурсы не только технологические, но и исследовательские компании, вузы, другие образовательные учреждения в надежде повысить информационную грамотность тех, кто готов слепо верить написанному и может стать жертвой манипуляций.

Например, ученые Донского государственного технического университета и Высшей школы экономики разработали онлайн-курс, слушателей которого будут учить различать достоверную информацию и фейки.

Принципы новостной грамотности базируются на развитии критического мышления у потребителя новостей. Человек должен настроить «внутренние фильтры», которые позволят распознать недостоверную информацию. Курс помогает человеку перейти на «информационную диету», скептически относиться к новостным потокам, которые оказались в центре его внимания.

За последние десятилетия информационные процессы в мире настолько изменились, что неподготовленному гражданину необходимо усвоить базовые навыки ориентации в новостях. Чего стоят негативные сюжеты, которые мгновенно распространяются в социальных сетях и мессенджерах в погоне за лайками. При этом формирование культуры ответственного медиапотребления требует усилий и времени.

https://www.connect-wit.ru/

 

 

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Медицинские задачи для ИИ

Подробнее
Спецпроект

Цифровой Росатом

Подробнее


Подпишитесь
на нашу рассылку