Фейковые новости, клонирование людей и манипулирование

Растущая доступность и мощь дипфейк подделок и генеративного искусственного интеллекта вызывают головную боль у специалистов по предотвращению мошенничества и у судебных следователей, и проблема, похоже, усугубляется. Tencent Cloud предлагает Deepfakes как услугу, взимая 145 долларов за создание цифровых копий человека на основе трех минут видео и ста произнесённых предложений, сообщает The Register.

Изготовление интерактивных подделок занимает всего 24 часа, и в них отсутствует плоская интонация, которая иногда может предупредить о присутствии виртуального человека с помощью технологии настройки тембра.

Администрация киберпространства Китая ввела в действие правила для генеративного искусственного интеллекта, которые, по-видимому, требуют, чтобы продукты этого сервиса были чётко обозначены как таковые.

Преступники демонстрируют, как могут использоваться такого рода технологии. Издание Arizona сообщает об инциденте, в котором преступники подделали голос подростка, пытаясь инсценировать похищение. Предполагаемые похитители позвонили матери подростка и потребовали выкуп в миллион долларов.

Мать подростка бдительно убедилась, что её дочь в безопасности, не заплатив, но эксперты по искусственному интеллекту предупреждают людей, чтобы они были внимательны к возможности подобных мошеннических атак.

Журналисты тоже находят готовую аудиторию для своих рассказов о мошенничестве с искусственным интеллектом, и последний пример – от обозревателя Wall Street Journal, которой удалось обмануть голосовую биометрическую систему своего банка и членов семьи, по крайней мере временно. Старший технический обозреватель Джоанна Стерн клонировала себя с помощью профессионального сервиса искусственного интеллекта и дополнительного уровня голосовых технологий.

Исследование Regula показывает, что примерно треть предприятий уже подверглись атаке deepfake-мошенничества.

Генеративный искусственный интеллект угрожает цифровой криминалистике

Глубокие подделки были одной из четырёх тем, обсуждавшихся на семинаре EAB & CiTER по биометрии

Андерсон Роша (Anderson Rocha), профессор и исследователь Государственного университета Кампинас и приглашённый профессор Исследовательского института Idiap, выступил с основным докладом на тему «Глубокие подделки и синтетические реальности: как дать отпор?»

«Глубокие подделки – это только верхушка айсберга», – говорит Роша. Генеративный искусственный интеллект опровергает устоявшиеся предположения в криминалистике.

Роша утверждает, что до «сингулярности» ещё далеко, но, как заметил Артур К. Кларк (Arthur C. Clarke), «любая достаточно продвинутая технология неотличима от магии».

Искусственный интеллект используется в цифровой криминалистике, чтобы помочь идентифицировать, анализировать и интерпретировать цифровые доказательства, отчасти путём поиска артефактов, которые, по крайней мере теоретически, остаются после каждого изменения, вносимого в улику.

Проблема определения происхождения СМИ была поднята перед командой Роши в 2009 году, когда в реальном мире было проведено расследование законности фотографий тогдашнего президента Бразилии, опубликованных в средствах массовой информации. Роша описывает методы, использовавшиеся в то время, и их эволюцию, включающую методы компьютерного зрения, вплоть до тех пор, пока взрывной рост объёма данных и развитие нейронных сетей не изменили возможности манипулирования фотографиями и другими доказательствами примерно в 2018 году.

Теперь комбинации детекторов с машинным обучением необходимы для обнаружения более тонких манипуляций, которые стали возможны с помощью искусственного интеллекта. Однако темпы развития искусственного интеллекта постоянно бросают вызов судебным следователям.

Таким образом, истинная угроза генеративного ИИ, по мнению Роши, исходит не столько от глубоких подделок, сколько от манипуляций, которые не оставляют обнаруживаемых артефактов.

Тема была дополнительно изучена с помощью презентаций Ника Гаубича (Nick Gaubitch) из Pindrop о PAD в среде echoey, Аруна Росса (Arun Ross) из Мичиганского государственного университета о deepfakes радужной оболочки глаз и квартета презентаций академических исследователей.

По материалам Biometrics Research Group. Автор Chris Burt

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *