Проверка биометрии становится более нацеленной на deepfake

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

В то время как цифровая идентификация глубже проникает в нашу жизнь, она также привлекает новые угрозы в виде продвинутого программного обеспечения deepfake, обнаруженного в dark web, пишет компания Gemini Advisory, занимающаяся киберразведкой.

В deepfakes нет ничего нового. Тем не менее, спрос на них сейчас растет, поскольку банки и другие финансовые службы все больше полагаются на проверку цифровых идентификаторов с помощью селфи и видео для защиты своих автоматизированных услуг. Появление новых технологий deepfake представляет собой жизненную угрозу для банков, криптовалютных бирж и других предприятий, которые все чаще используют аутентификацию изображений и видео для KYC и AML.

Gemini Advisory отслеживает услуги deepfake, предлагаемые в dark web, для оценки их спроса и предложения. Различные списки, найденные на онлайн-форумах обслуживают растущую клиентскую базу, которая пытается обмануть цифровую идентификацию, подделывая черты лица пользователей с помощью технологии изменения лица. Эти услуги кажутся относительно доступными: некоторые видеоролики стоят $10 – $30 за минуту. Помимо самих deepfakes, продавцы также предлагают руководства о том, как обойти меры безопасности для взломанной учетной записи.

Незаконные технологические услуги долгое время предоставлялись с помощью таких решений, как Face Swap и Adobe Photoshop, но появились и вышли на рынок более продвинутые приложения. Это новое программное обеспечение использует ИИ, нейронные сети и машинное обучение для создания подделок изображений и видео.

Среди двух наиболее обсуждаемых сервисов deepfake – DeepFaceLab и Avatarify. Помимо производительности, эти решения также обещают быть простыми в использовании. Кроме того, разработки с открытым исходным кодом также позволяют разработчикам продолжать улучшать программное обеспечение, чтобы затруднить обнаружение deepfakes.

По словам Gemini, текущие программные решения для обнаружения глубоких подделок отстают от этих угроз. В отличие от быстро развивающихся deepfakes, большинство современных программ обнаружения работают с точностью 65,18%. Таким образом, растущая угроза deepfakes, скорее всего, в ближайшем будущем будут стимулировать разработку более надежного программного обеспечения. Одна из таких программ, Microsoft Video Authenticator, запущенная в сентябре 2020 года, обещает более высокую производительность и сложность в обнаружении манипуляций с изображениями и видео.

Поставщики биометри разрабатывают технологии обнаружения живости для предотвращения deepfakes.

Deepfakes и чат-боты сталкиваются с негативной реакцией общественности в Южной Корее

Общественность Южной Кореи на фоне недавних споров, выступает против технологии deepfakes. Существуют две важные причины такого резонанса: появление deepfake порнографий и нарушение в работе чат-ботов, пишет DW.

Онлайн-петиция «Пожалуйста, строго накажите незаконные deepfake [изображения], от которых страдают женщины-знаменитости», собрала более 375 000 подписей. Кампания призывает корейское правительство действовать и остановить deepfake порнографии.

Аналогичным образом корейская компания Scatter Lab столкнулась с публичной критикой после того, как её чат-бот Ли Люда начал рассылать оскорбления и откровенные сообщения. Чат-бот на базе искусственного интеллекта, который первоначально предполагался для взаимодействия с пользователями Facebook Messenger, начал не корректно функционировать после того, как неизвестные пользователи научили его оскорблениям и гомофобным высказываниям.

В результате Scatter Lab извинилась, и Ли Люда была отключена всего через 19 дней. Генеральный директор компании Ким Чен Юн заявил, что необходимо провести дополнительную работу, чтобы научить Люду, как правильно общаться. Тем не менее, порнография и неуместные выражения – не единственные спорные моменты, связанные с deepfake и технологией искусственного интеллекта в Корее.

Критики также поставили под сомнение этичность возвращения умерших знаменитостей с помощью голограмм и искусственного интеллекта. «Технологии – это одновременно и благословение, и вызов для каждого общества, поэтому я думаю, что здесь, в Корее, то же самое. Отчасти проблема связана с этикой, связанной с цифровой трансформацией нашего общества», – сказал доктор Пак Саинг-ин, экономист, работающий в Сеульском национальном университете.

DW сообщает, что deepfakes недавно были объявлены в Корее вне закона, в результате чего преступление карается тюремным заключением сроком до пяти лет и крупными штрафами.

По материалам Biometrics Research Group. Автор Javad Jarrahi

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *