В национальный проект по экономике данных, который должен быть утвержден в 2024 году, могут войти нормы о регулировании искусственного интеллекта и больших языковых моделей.

Экспертная группа при АНО «Цифровая экономика» обсудила включение в нацпроект по экономике данных вопросы внедрения ИИ в различных секторах экономики, сообщил «Коммерсантъ». Одно из предложений – создать в России единый регулятор в сфере ИИ, а также конкретизировать детали, связанные с работой искусственного интеллекта: например, прояснить, кто будет ответственен за ошибки, допущенные ИИ.

Ответственность и целесообразность

«Сейчас в случае принятия неправильных решений в результате применения ИИ не всегда ясно, кто несет ответственность – заказчик модели, разработчик или оператор (например, автор запроса)», – отметил директор по продуктам Just AI Глеб Обломский. Отсутствие регулирования, по словам эксперта, создает риск неправильного использования ИИ, нарушения прав и интересов пользователей.

Но если исходить из того, что нейросеть – инструмент, то «права и ответственность за результат, который она создала, лежит на человеке, который написал программу или запрос», – предположила управляющий директор практики «Данные и прикладной ИИ» Axenix Лариса Малькова.

Не менее важный вопрос, по мнению представителей бизнеса – недопущение регулирования ИИ в слишком жестких правовых рамках, что может привести к замедлению темпов развития отрасли. По мнению Глеба Обломского, отсутствие регулирования порой служит преимуществом, поскольку позволяет разработчикам экспериментировать: «Другие страны не торопятся с регулированием потому, что боятся проиграть в гонке ИИ, хоть и активно обсуждают их с рынком».

В поисках баланса

Тема регулирования искусственного интеллекта активно обсуждается. По мнению члена комитета Госдумы по информационной политике, информационным технологиям и связи Антона Немкина, «это прямое следствие темпов внедрения ИИ-технологий в России, которые все еще находятся вне правового регулирования. Вопрос необходимости такого регулирования и правда сложный. Опыт ряда зарубежных стран показывает, что помещение ИИ-технологий в жесткие правовые рамки приводит к оттоку инвесторов и замедлению темпов развития отрасли. Поэтому здесь нужно подходить аккуратно».

В то же время ИИ-технологии должны быть помещены в правовые рамки, считает Антон Немкин, что «позволит создать общее понимание того, куда мы движемся и что именно хотим получить от ИИ-решений, поскольку сейчас рынок искусственного интеллекта развивается достаточно разрознено – много, где отсутствуют единые стандарты». Сегодня необходимо рамочное регулирование вопроса, в том числе посредством экспериментальных правовых режимов. Важен баланс, нужно выработать правовые нормы, чтобы отрасль смогла развиваться прежними темпами.

Что касается вопроса ответственности за ошибки ИИ, то «если мы определим ответственным разработчика, это приведет к тому, что часть компаний просто откажется от разработки, поскольку не все готовы нести такие издержки. Подобные вопросы должны обсуждаться государством и бизнесом, а также научным сообществом, чтобы прийти к оптимальному решению», – заключил парламентарий.

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Медицинские задачи для ИИ

Подробнее
Спецпроект

Цифровой Росатом

Подробнее


Подпишитесь
на нашу рассылку