Deepfake – шантаж, угрозы и борьба с ними

Лёгкий доступ к инструментам для создания DeepFake несёт угрозы разного типа. Это не только распространение фейковых новостей, шантаж или финансовые потери.

Шантаж и угрозы

В 2021 году украинская полиция рассказала о преступной группировке коллекторов, которые занимались шантажом своих жертв, угрожая создать и разослать DeepFake-порно с их участием. А где гарантия, что после погашения задолженности шантаж прекратится?

Массовая доступность DeepFake-инструментов может стать проблемой и в различных сферах, например, DeepFake-аудио позволяют обманом вымогать деньги. В 2019 году было зафиксировано несколько случаев, когда преступникам удалось убедить руководителей компаний перевести злоумышленникам на фиктивный счет сотни тысяч долларов. Так, мошенники сгенерировали голос директора британской энергетической компании и в телефонном разговоре попросили управляющего дочерней фирмы перевести $240 тыс. Сотрудник исполнил приказ «босса». Позже управляющий рассказал, что аферисты повторили даже легкий немецкий акцент его начальника.

Права на интеллектуальную собственность

Пока ещё остаётся открытым вопрос, кому будет принадлежать авторское право на песню, записанную с помощью сгенерированного голоса, и кто будет получать роялти, если такие произведения будут приносить деньги. Первые попытки генерации текста, исполнения (голоса) и видео уже есть. Например, нейросеть написала трек для Трэвиса Скотта.

Нейросеть написала трек для Трэвиса Скотта

Этическая сторона использования дипфейк

Важным вопросом является этическая оценка распространения DeepFake. Насколько допустимо использовать изображения или голос умершего человека для его «воскрешения»? Своё согласие на это он уже дать не может. Кто должен давать согласие на такие манипуляции и где грань, за которой такое использование становится недопустимым и запрещённым?

В сентябре 2020 года организация ЮНЕСКО опубликовала «Рекомендации по этике искусственного интеллекта». Это стало началом глобального регулирования использования DeepFake технологий. Возможность массового применения таких алгоритмов, в том числе в преступных целях, делает такое регулирование обязательным. В противном случае мы рискуем оказаться в мире, захваченным DeepFake-роликами, на фоне которых проект MyHeritage окажется детским лепетом.

Законодательные ограничения

Одна из причин необходимости регулирования DeepFake технологий связана с тем, что их использование стало доступно практически любому гражданину. Например, издание Guardian сообщает, что эксперимент журналиста по созданию 15-секундного видео с Терезой Мэй и Маргарет Тетчер три года назад потребовал нескольких часов работы весьма мощного компьютера. Сегодня, благодаря инструментам от MyHeritage, каждый желающий бесплатно или за небольшие деньги может создать DeepFake-видео из любой фотографии.

Массовое использование таких роликов для обмана избирателей и в других целях, привело к осознанию необходимости регулирования этой технологии:

  • В США действует ряд правовых норм, которые регулируют использование дипфейков. В частности, с 2020 года закон запрещает использовать дипфейки для вмешательства в выборы. Политики обычно стоят четко перед камерой, а их лица хорошо и равномерно освещены, что упрощает создание дипфеков с их участием. 
  • Американские штаты Техас и Калифорния запретили создавать и распространять DeepFake-видео с политиками в период 60 дней до любых выборов.
  • Принятый в 2019 году закон, дает право людям подавать в суд на создателей DeepFake-видео с порнографическим содержанием.
  • В штате Виргиния распространение DeepFake-порно с февраля 2019 года считается уголовным преступлением.
  • В Китае с 2020 года публикация DeepFake-видео расценивается как уголовное преступление, а размещение таких видео должно сопровождаться специальной пометкой о том, что такое видео является фейком.
  • Уголовный кодекс Франции предусматривает наказание за публикацию монтажа с использованием речи или изображения человека, без его согласия, если будет не очевидно, что это монтаж. Человек, публикующий дипфейк, может быть подвергнут санкциям, если он не сможет доказать, что искренне верил в то, что опубликованный им материал не был монтажом.

Выявлением дипфейков занимаются государственные органы разных стран. Например, разведка США выделила $5 млн на выявление «дипфейков», а в феврале 2021 года МВД России объявило конкурс на создание эффективного детектора фейковых изображений. Начальная сумма разработки составила 4,8 млн рублей.

Ситуация в России

В России вопросы создания и публикации дипфейков пока ещё законодательно не регулируются. Но, по мнению некоторых экспертов, в российском праве уже есть нормы, косвенно применимые к дипфейкам. Это ст. 159 УК («Мошенничество») и ст. 152 ГК («Защита чести, достоинства и деловой репутации»). Кроме того, к этой теме относится закон о защите персональных данных.

Прежде чем что-то внедрять, нужно дождаться правоприменительной практики. Хотя бы первых серьезных историй, подтверждающих мошенничество. Тем более действующая ст. 159 Уголовного кодекса уже покрывает эту ситуацию. Так что новых требований, запрещающих дипфейки, вводить не надо.

Считает эксперт по информационной безопасности Алексей Лукацкий

Никита Куликов, член экспертного совета по цифровой экономике при Госдуме РФ и учредитель АНО «ПравоРоботов», считает, что бороться с проблемой лучше на опережение:
— Я думаю, мы всё равно придем к дипфейковым ограничениям. Однако предупреждать мошенничество нужно не только законом, но и повышением информационной грамотности — объяснять людям (особенно пожилым), что не всему следует верить, что данные нужно проверять.

Компании из сферы информационной безопасности прогнозируют, что со временем число мошенничеств с применением искусственного интеллекта будет расти.

Алексей Лукацкий заметил, что говорить о крупных инцидентах в России пока не приходится. Однако с распространением биометрии ситуация может измениться к худшему:
— По мере развития единой биометрической системы интерес злоумышленников также возрастет. Это вдвойне очевидно на фоне новостей о том, что правительство хочет за два года собрать биометрию с 70 млн граждан. На фоне новостей, что крупные торговые сети хотят ввести оплату по лицу. Остается ждать, что число мошеннических операций увеличится в разы.

Добавить комментарий

Ваш адрес email не будет опубликован.