Криминальная жизнь дипфейков в новой виртуальной реальности

Компания CyberCube – международная аналитическая компания по страхованию от киберпреступлений. В подготовленном её специалистами отчёте «Социальная инженерия: размытие реальности и фальшивка» отмечается, что «способность создавать реалистичные аудио- и видео-фейки с помощью искусственного интеллекта и машинного обучения неуклонно растёт». Хотя текущие технологии дипфейков пока ещё не совсем соответствует подлинным видеоматериалам. Присмотревшись внимательнее, обычно можно сказать, что видео не является настоящим, но технология быстро совершенствуется. Эксперты предсказывают, что уже в ближайшее время дипфейки будут неотличимы от реальных изображений. 

«Новые и появляющиеся методы социальной инженерии, такие как фальшивые видео и аудио, коренным образом изменят ландшафт киберугроз и станут технически осуществимыми и экономически жизнеспособными для преступных организаций любого размера»

Отчёт CyberCube

При переходе на дистанционный режим работы организации стали в разы больше пользоваться аудио- и видеосвязью, в основном, по открытым каналам. Вследствие чего, в интернете становится всё больше и больше видео- и аудиосэмплов деловых людей. Искусственный интеллект (ИИ) анализирует подлинные записи и на их основе учится, как может выглядеть и двигаться конкретный человек, а затем создает новые видеоролики с заданным сюжетом. Согласно отчёту CyberCube, киберпреступники «имеют большой объем данных для создания фотореалистичных симуляций людей, которые затем могут использоваться для воздействия на индивидуумов и манипулирования ими».

Такие фейковые видео, используемые в политических кампаниях, уже были замечены. «Это лишь вопрос времени, когда преступники применят ту же технику к бизнесу и богатым частным лицам» – предупредили авторы отчёта. Это может быть «так же просто, как поддельное голосовое сообщение от старшего менеджера, инструктирующее персонал совершить мошеннический платеж или перевести средства на счет, созданный хакером».

CyberCube заявила, что помимо технологии подделки видео и аудио, она также исследует «растущее использование традиционных методов социальной инженерии. Основной её целью является получение доступа к конфиденциальной информации, паролям, банковским данным и другим защищённым системам при помощи методов, базирующихся на особенностях психологии людей».

Исследователи в своём отчёте выделяют три новых тенденции в создании дипфейков, которые могут оказать значительное влияние в ближайшие 2-4 года:

  • Масштабное социальное профилирование. Это построение профиля личности, на которую направлена атака, с помощью его данных в социальных сетях или украденных документов, например, банковских, медицинских карт и водительских удостоверений. В итоге злоумышленники создают подробный профиль жертвы, в котором описывают черты характера, интересы, желания и слабости, что позволяет сформировать его личный и профессиональный портрет, который затем используют для манипуляции жертвой.
  • Подделка голоса. Впервые синтезированный компьютером голос появился ещё в 1970-х, но сегодня злоумышленники решают задачу создания убедительного и правдоподобного голоса, неотличимого от оригинала. Для этого также используются технологии искусственного интеллекта, машинного обучения и нейросетей.
  • Подделка видео с дипфейк технологией, которая позволяет с высокой точностью имитировать движение человеческого рта. Она дополняет технологии создания поддельных видео и голоса.

В отчете подчеркивалось, что «вскоре дипфейки коренным образом изменят ландшафт киберугроз. Они уже сейчас используются в политических кампаниях для манипулирования аудиторией, и это лишь вопрос времени, когда преступники применят подобный метод к состоятельным частным лицам и бизнесу».

Дипфейки способны не только дискредитировать влиятельных людей, но и потенциально нанести вред обществу в целом, в связи с чем многие эксперты по безопасности прогнозируют, что дипфейки могут стать серьёзной угрозой уже в 2021–2022 гг.

Согласно новому отчёту Университетского колледжа Лондона (UCL), фальшивый аудио- или видеоконтент был признан экспертами наиболее тревожным использованием ИИ с точки зрения его потенциального применения для совершения преступлений или терроризма.

В исследовании, опубликованном в журнале Crime Science и финансируемом Dawes Center for Future Crime at UCL, определены 20 способов использования ИИ для содействия преступности в течение следующих 15 лет. Они были ранжированы по масштабам рисков – в зависимости от вреда, который они могут причинить, потенциальной преступной выгоды и от того, насколько легко их будет выполнить и насколько сложно будет их предотвратить.

Авторы заявили, что фальшивый контент будет сложно обнаружить и остановить, и что его создание может преследовать самые разные цели: от дискредитации общественного деятеля до вымогательства денежных средств путем выдачи себя за сына или дочь супружеской пары во время видеозвонка (этот метод обманна уже взят на вооружение пранкерами). По их словам, такой контент может вызвать повсеместное недоверие к аудио- и визуальным свидетельствам, что само по себе нанесет обществу вред.

Выводы исследователей UCL

Дипфейк, по своей сути является технологией, предназначенной для того, чтобы оставаться незамеченной. Её цель – «казаться реальной», поэтому большинство связанных с ней преступлений, скорее всего, никогда даже не всплывут на поверхность. Можно рассматривать незаконное использование дипфейков как огромный айсберг. Большинство дипфейковых преступлений будут зарегистрированы как обычные преступления, поскольку их слишком сложно отличить от настоящих. Это одна из причин, по которой данная технология считается особо опасной угрозой нашего времени. В настоящее время растет интерес к возможности монетизации технологии дипфейк.

1. Финансовое вымогательство

Финансовые преступления с каждым днем ​​становятся всё более изощренными благодаря возможностям дипфейков. Есть несколько методов, которые используются преступниками для этой цели:

  • Фальсификация ваших фотографий или видео в изобличающей или позорящей манере, когда преступники вымогают деньги (часто в форме криптовалют) у своей жертвы. Если деньги не будут уплачены, компрометирующие материалы будут отправлены всем их близким. Эта тактика всё чаще используется в форме атаки программ-вымогателей Deepfake.
  • Обход аутентификации по Face ID, в частности, на сайтах онлайн-знакомств. Преступник получает доступ к конфиденциальной информации и реквизитам кредитной карты, что позволяет ему совершать платежи удаленно.
  • Использование программного обеспечения deepfake audio для имитации голоса высокопоставленного человека, например генерального директора компании. Голосовой звонок или телефонный звонок с конкретными инструкциями по переводу денег на банковский счет преступника – самая основная форма этого преступления.
  • Использование инсайдерской информации от высокопоставленных должностных лицах компании или политических деятелей с целью манипулирования рынком. Выдавая себя за высокопоставленного чиновника, преступник получает доступ к определенной информации, которая может дать ему преимущество в мире торговли.

2. Deepnudes

Один из наиболее серьезных способов вымогательства – использование так называемых «deepnudes» (изображение обнажённых). Это наиболее изощренный метод, в котором иногда дело не только в деньгах, но и просто в давлении на человека. Такой фейковый контент может нанести ущерб репутации человека даже в самых либеральных и терпимых обществах.

Deepnudes — это форма откровенности, которая может удовлетворить самые смелые мечты поклонников определенных знаменитостей. Однако deepnudes применяются не только в «развлекательных целях». Они также часто используются преступниками в качестве рычага давления на ничего не подозревающую жертву. Метод довольно порочный и затрагивает всю социальную сферу жертвы:

  • Создается откровенное изображение или видео с максимальным обнажением.
  • Изучаются все социальные контакты жертвы.
  • Преступник отправляет откровенный контент жертве, вымогая у нее деньги или заставляя её выполнять определенные действия.
  • Если жертва игнорирует попытки вымогательства преступника, то фейковый контент распространяется в ёе социальном кругу. Либо она попадает в ловушку, где вымогают всё больше и больше денег или злоупотребляют властью (или и то, и другое).

Проблема deepnudes вероятно, должна стать одним из основных направлений будущего законодательства о дипфейках.

Нидерландская компания Deeptrace, которая специализируется на кибербезопасности и распознавании дипфейков, опубликовала в 2020 г. отчёт, в соответствии с которым 96% поддельных видеороликов, созданных с помощью технологии дипфейк, относится к категории порно. Такие ролики набирают рекордное количество просмотров.

3. Кража личных данных

Выдача себя за другое лицо – это одна из основных составляющих незаконного использования дипфейков, часто сочетающаяся с каким-либо мошенничеством. Преступник притворяется тем, кем он не является. Например, можно использовать инструмент для подделки паспортов, получив доступ ко всем видам платформ, регулируемых идентификацией, ничего не подозревающей жертвы.

Ещё в марте 2019 года с использованием дипфейк у британской энергетической компании было похищено около 240 млн долларов.

4. Политические манипуляции

Политика — это репутация и мнения. Поддельный контент может быстро распространяться с помощью ботов и ферм троллей, с которыми сложно бороться таким платформам, как Twitter и Facebook. Всё, что для этого нужно, — это несколько одаренных хакеров со взглядами, отличными от повестки дня ведущей политической партии, и можно манипулировать будущим целой страны.

Хотя дипфейки всё ещё остаются незамеченными, они вызывают всё большее беспокойство. На просторах сети есть куча программ, функцией которых является создание дипфейков. С помощью них можно, например, заменить лицо на видео на совершенно другого человека или изменить движения губ говорящего. А изменение движения губ и наложение новой звуковой дорожки с голосом говорящего (которую, кстати, тоже можно сделать с помощью отдельных дипфейк-программ) позволят создать контент, в котором человек произносит совершенно другие вещи, кардинально отличные от оригинала.

Обычные люди создают всё более и более гиперреалистичный дипфейк-контент. Большая его часть является безвредной, но те немногие, которые становятся на социальных платформах вирусным контентом, могут нанести ущерб, в том числе избирательным процессам.

Центр безопасности и новых технологий (CSET) Джорджтаунской школы дипломатической службы Уолша в июле 2020 г. подготовил развёрнутый доклад о дипфейках.

В докладе делается два вывода.

Во-первых, злонамеренное использование грубо сгенерированных дипфейков станет проще по мере превращения технологии.

Во-вторых, специализированные дипфейки, созданные технически продвинутыми участниками, со временем будут представлять большие угрозы.

Авторы доклада считают, что дипфейк технологии всё чаще интегрируются в программные платформы, где не требуются специальные технические знания. Простота в их использовании упрощает «замену лиц» и делает их более доступными для пользователей без технических знаний.

В документе даются четыре рекомендации:

  • Создать базу дипфейков. Выявление дипфейков зависит от быстрого доступа к примерам синтетических носителей, которые можно использовать для улучшения алгоритмов обнаружения. Исследователи и компании должны вкладывать средства в создание базы дипфейков, которые предоставляют в свободном доступе наборы данных синтетических медиа по мере их появления в сети.
  • Поощрять более эффективное отслеживание возможностей: техническая литература по машинному обучению даёт полное представление, как субъекты дезинформации будут использовать дипфейки в своих операциях. Однако непоследовательная практика документирования среди исследователей затрудняет этот анализ.
  • Оказание помощи в развитии технологии обнаружения дипфейков, что поможет снизить эффективность их применения. Государственные учреждения и благотворительные организации должны распределять гранты, чтобы помочь исследованиям в области обнаружения дипфейков. Регулярная разъяснительная работа для журналистов и представителей различных профессий, которые могут быть нацелены на использование этих методов.
  • Распространять «маркированные» (идентифицируемые) данные. Наборы данных можно сделать маркированными. Это значительно снизит затраты на обнаружение дипфейков, а также заставит более изощренных субъектов дезинформации, вкладывая дополнительные средства, использовать собственные наборы данных, чтобы избежать обнаружения.

5. О возможностях разоблачения дипфейков

Дипфейки могут содержать своего рода «отпечатки пальцев», позволяющие расследователям связать воедино все СМИ, участвующие в кампании дезинформации. Расследователи, в свою очередь, могут отследить кампанию до определенного источника.

Алгоритмы по распознаванию дипфейков обычно используют свёрточные нейронные сети, которые призваны выделять характерные признаки. Эти нейросети обучают на самих изображениях в явном виде, что требует много времени и ресурсов. Однако коллектив исследователей из Института информационной безопасности им. Хорста Гёрца при Рурском университете в Бохуме предложил простое и изящное решение проблемы выявления дипфейка и источника его возникновения. Учёные решили подвергнуть изображения частотному анализу, использовав давно известный метод дискретного косинусного преобразования. Он применяется, например, в алгоритме сжатия JPEG. Изображение в этом случае рассматривается как результат наложения гармонических колебаний различной частоты, взятых с разными коэффициентами. Эти коэффициенты можно визуализировать в виде прямоугольной тепловой карты, верхний левый угол которой соответствует низкочастотным областям исходного изображения, а нижний правый — высокочастотным. Реальные фотографии в основном состоят из низкочастотных колебаний.

Если же явные всплески наблюдаются в высокочастотной области, это может свидетельствовать о том, что изображение скорее всего является поддельным. А если они ещё и формируют регулярную структуру — тут как говорится, и к гадалке не ходи.

Чтобы проверить эффективность предложенного подхода, учёные составили тестовую выборку из 10 000 изображений, куда вошли сгенерированные нейросетью StyleGAN портреты несуществующих людей и реальные фотографии из набора Flickr-Faces-HQ (FFHQ), можно найти на сайте whichfaceisreal.com. Алгоритм распознал все дипфейки до единого.

Более того — выяснилось, что он с большой долей вероятности позволяет определить, с помощью какой именно нейросети было сгенерировано изображение. Дело в том, что каждая из них имеет свой «отпечаток» в частотном диапазоне.

Корейский институт науки и технологий Korea Advanced Institute of Science and Technology (KAIST) представил программное обеспечение на базе ИИ, предназначенное для обнаружения дипфейков.

Новое программное обеспечение, получившее название Kaicatch, способно анализировать как изображения, так и видео, и выявлять искусственные изменения, которые могут быть невидимы для человеческого глаза. Kaicatch использует сразу несколько разных механизмов машинного обучения и может не только определять, что конкретно было изменено на фотографии или в видео, но и способ внесения правок.

Ученые из Университета штата Нью-Йорк в Буффало предложили надежный способ, позволяющий отличить дипфейковое изображение от настоящего. В основе решения — отражение в глазах человека. Искусственно сгенерированное сетью GAN-изображение имеет отличия в бликах и отражений в глазах.

Агрессивная позиция, занимаемая онлайн-платформами в отношении дипфейков, будет иметь определённые последствия. Злоумышленники столкнутся с более враждебной средой для распространения дипфейков через основные каналы социальных сетей, поскольку контент будет удалён, если будет идентифицирован алгоритмом обнаружения.

6. Сценарии и рекомендации

Тенденции исследования в области создания и обнаружения дипфейков предполагают два сценария.

В первом сценарии дипфейки могут распространиться и стать повсеместными в публичном дискурсе. Даже злоумышленники с небольшим бюджетом, применяющие дезинформацию, могут воспользоваться этой технологией, так как она становится всё более дешёвой и доступной. Доступность пакетов с открытым исходным кодом и готовым программным обеспечением, вероятно, только начало волны инструментов для простых манипуляций с медиа. Хотя модели машинного обучения могут быть сложными для разработки с нуля и обучения для достижения высокого уровня производительности, но, однажды построенные, их относительно легко использовать и распространять.

Распространение технологий создания дипфейков не ограничивается подпольными способами. Такие компании, как Adobe, начали популяризировать программное обеспечение с расширенным машинным обучением для редактирования изображений и звука. У платформы существует сильная коммерческая мотивация, предлагающая эти передовые функции своим клиентам. Коммерциализация инструментов для создания дипфейков и открытый исходный код моделей машинного обучения, вероятно, снизят стоимость и сложность этих инструментов до такой степени, что технически несложные кампании по дезинформации будут использовать дипфейки.

Если простая смена лица на изображении или видео может помочь кампании преследовать их цели или распространить неопределенность с небольшими операционными затратами, следует ожидать, что они это сделают. Более широкодоступные инструменты для создания дипфейков, вероятно, будут доступны как тем, кто борется с дипфейками, так и злоумышленникам.

В то же время, существующие исследования по обнаружению дипфейков предполагают, что в ближайшем будущем не будет окончательно найдено решение для идентификации подделок с помощью машинного обучения. Вместо этого системы обнаружения будут нуждаться в постоянном обновлении на основе возможностей новых приложений и обученных моделей.

Практически все платформы социальных сетей имеют политику, запрещающую злонамеренное использование дипфейков и сталкивающуюся с сильным политическим давлением в целях борьбы с дезинформацией. Эффективное обнаружение дипфейков позволяет компаниям применять политику удаления дипфейков со своих платформ.

Второй сценарий заключается в том, что кампании по дезинформации могут предпочесть инвестировать в создание пользовательской модели машинного обучения разрабатывая дипфейк алгоритмы для очень конкретной цели, не полагаться на уже подходящие инструменты и модели.

Эксперты Forbеs, проанализировав ситуацию с аудио дипфейками, считают, что «было бы логично ввести верификацию аккаунтов, когда пользователь подтверждает свой ID с помощью фотографии, и голосовой биометрии, регистрируя свой голосовой образец». Голосовая биометрия позволит использовать технологии голосового антиспуфинга. Такую технологию применяют, например, банки. Если оператор разговаривает с клиентом, который предоставлял голосовую биометрию, система во время разговора мониторит голос и сразу же оповещает оператора, если «видит», что голос чужой (это могут быть такие малозаметные для человеческого уха параметры, как тембр, скорость речи, паузы и т. д.). Крупный бизнес считает, что антиспуфинг — это необходимость, и такие технологии должны быть интегрированы на любой голосовой платформе.

Законодательные ограничения

Дипфейки — это не добро, но и не зло. Это всего лишь инструмент. С его помощью можно сделать смешной видеомем или донести важную информацию конкретной группе людей. Но в то же время можно нанести кому-то вред. В итоге всё, как и всегда, зависит исключительно от того, к кому в руки попадёт этот инструмент. К сожалению, контролировать и регулировать распространение и использование подобных программ очень сложно.

В Китае действует уголовная ответственность за введение людей в заблуждение с помощью дипфейков.

В США разработаны четыре законопроекта, касающихся дипфейков. Если они будут приняты, подобные видео обяжут маркировать — указывать, что это фейк, и называть его создателей. Это позволит правительству налагать штрафы на лиц, распространяющих вредный контент, созданный с использованием ИИ. В Калифорнии уже приняты два закона, касающиеся дипфейков. Первый делает незаконным размещение любых видео с манипуляциями в политических целях — например, замена лица или речи кандидата для его дискредитации. Другой позволяет жителям штата подать в суд на любого, кто использует дипфейк в порнографическом видео.

Во Франции введено наказание за публикацию монтажа, сделанного со словами или изображением человека.


В России Уголовный кодекс пока не содержит упоминания о дипфейках. За их производство ответственности нет. В России нет инструментов, позволяющих защитить граждан от дипфейков.

По материалам Universe-tss. Авторы Елена Ларина и Владимир Овчинский

Добавить комментарий

Ваш адрес email не будет опубликован.