Минцифры, МВД и Роскомнадзором займутся вопросами правового регулирования цифровой технологии подмены личности. За преступления с использованием дипфейков могут ввести наказание. Но, чтобы наказать, нужно сначала поймать, а это не так просто, ведь в технологии задействован ИИ.
Правительственная комиссия по дипфейкам
Минцифры совместно с МВД и Роскомнадзором займется проработкой вопросов правового регулирования цифровой технологии подмены личности (дипфейк) в целях недопущения ее использования в противоправных целях, сообщили «Ведомости» со ссылкой на свои источники.
Представитель Минцифры подтвердил изданию получение протокола по результатам февральского заседания правительственной комиссии под председательством министра внутренних дел Владимира Колокольцева, на которой обсуждалась необходимость такого регулирования. Ведомства должны до первого ноября 2024 г. проинформировать правкомиссию о проведенной работе.
Этот вопрос поднимался и на пленарном заседании Госдумы в конце января 2024 г. Тогда председатель комитета по информационной политике Александр Хинштейн («Единая Россия») заявил, что в России может быть введена ответственность за несанкционированное использование чужого голоса и изображения.
В конце декабря 2023 г. премьер Михаил Мишустин дал поручение Минцифры проработать к 19 марта 2024 г. вопрос выявления фейков, созданных с помощью ИИ.
Сейчас применение дипфейков законом не регулируется, сказала газете специалист по реагированию на инциденты Angara Security Алина Андрух.
Дипфейк или Deepfake – это сочетание слов «глубинное обучение» (англ. deep learning) и «подделка». Этим термином обозначают методику синтеза подвижного изображения и звуки при посредстве искусственного интеллекта.
Нужен ли новый закон
Само по себе создание и использование дипфейков не является преступлением, подчеркнул управляющий партнер коллегии адвокатов Pen & Paper Алексей Добрынин.
Дипфейк — это инструмент, с помощью которого можно совершить правонарушение или преступление, по сути уже предусмотренное законом, считают юристы, опрошенные изданием. Так что в целом дополнительное законодательство может быть избыточно.
«Это, в принципе, классический случай, просто более технологически современный», — сказал адвокат Леонид Соловьев.
«Преступления с дипфейками сейчас попадают под статью о мошенничестве, — согласился заместитель директора Центра компетенций НТИ «Технологии доверенного взаимодействия» на базе ТУСУРа Руслан Пермяков.
Есть также закон, запрещающий использовать изображения конкретного человека, в том числе видеозаписи, без его согласия (ст. 152.1 ГК РФ), однако пробел в законодательстве существует в отношении голоса, отметил руководитель департамента Digital Risk Protection F.A.C.C.T. Станислав Гончаров.
Сложности расследования
Дипфейки выдают себя за другое лицо, часто с целью выманить информацию или деньги. В 2023 г. количество попыток использовать технологии дипфейк в преступных целях в мире увеличилось на 3000%, согласно данным компании Onfido, которые приводил новостной сайт RB.RU в ноябре 2023 г. По прогнозам авторов отчета, 2024 г. станет «годом дипфейков».
Расследование преступлений, совершенных с использованием дипфейков, представляет особую сложность. Трудности возникают даже при попытке установления места совершения преступления, отметил «Ведомостям» управляющий партнер коллегии адвокатов Pen & Paper Алексей Добрынин.
«Главной проблемой преступлений, связанных с использованием высоких технологий, является не невозможность квалифицировать действия злоумышленника, а его привлечение к ответственности. Технологии предлагают анонимность, и злоумышленники такой возможностью пользуются», – добавил партнер юридической фирмы «Рустам Курмаев и партнеры» Дмитрий Клеточкин.
По словам адвоката Даниила Бермана, человек, распространивший дипфейк, может отрицать, что он его создал, и утверждать, что распространял лишь потому, что считал увиденное правдой.
Борьба искусственных интеллектов
Заместитель директора Центра компетенций НТИ «Технологии доверенного взаимодействия» на базе ТУСУРа Руслан Пермяков считает, что вычислить преступников можно через движение денежных средств.
Да и в процессе общения зачастую можно заметить, что что-то не так. Например, в 2022 г. использовали дипфейки при проведении удалённого собеседования с соискателями, с которыми столкнулось ФБР США. «В ходе таких собеседований движения тела и губ человека на экране не полностью совпадали со звуком речи говорящего. Были случаи, когда кашель, чихание или другие слышимые действия не совпадали с визуальной составляющей», – говорилось в публикации ФБР.
Правда мошеннические технологии совершенствуются очень быстро. Но и попытки их выявления развиваются. Разработчики вовсю работают над способами облегчения этой задачи с помощью ИИ.
В декабре 2023 г., например, «Известия» написали о российской нейросети «Товарищ майор» от компании T.Hunter. Сеть способна определять владельцев анонимных Telegram-каналов. Она умеет исследовать сообщества в мессенджере и идентифицировать администраторов и владельцев пабликов. ИИ действует так же, как и любой аналитик: проверяет описание канала, сведения в сообщениях и встроенных чатах, но делает это быстрее и качественнее. Ее можно использовать для предотвращения распространения фейков в мессенджере и выявления их авторов.
По материалам cNews. Автор Анна Любавина