Раньше над deepfake насмехались, теперь ФБР – предупреждает

Весной прошлого года в НАТО обсуждали угрозы, исходящие от дипфейков. Тогда в ходе панельной дискуссии эксперты заявляли, что в этом нет ничего страшного. Весной этого года представитель ФБР утверждал, что мир приближается к эпохе, где фейк нельзя отличить от реальности.

Теперь ФБР заявляет, что серьезная кампания по дезинформации, проводимая другой страной, независимой пропагандистской ячейкой или доморощенной преступной операцией, может произойти через год или через 18 месяцев.

«злоумышленники почти наверняка будут использовать синтетический контент для кибернетических операций и операций по внешнему влиянию»

Предупреждает ФБР

Что изменилось за последний год, чтобы две взаимосвязанные правительственные организации могли так по-разному оценивать мир? На самом деле не так уж и много.

Улучшение алгоритма Deepfake обнадеживает, но не удивляет исследователей и программистов ИИ.

Вероятно, что эта технология воспринимается более серьезно в кругах глобальной и национальной безопасности.

Группа экспертов, созданная Центром передового опыта стратегических коммуникаций НАТО, не выявила особого беспокойства, потому что дипфейк-атаки еще не произошли, людей не обмануть, и потому что методы определения того, что является фальшивкой, не отстают.

И действительно, тактика фальшивого обнаружения продолжает проявляться.

Одна из недавних попыток была сосредоточена на глазах людей, представленных в цифровом виде. Отражения света в каждом глазу фотографии реального человека в значительной степени зеркально отражаются. В глазах искусственно созданных лиц дело обстоит иначе.

Это может быть связано с тем, что каждый пиксель дипфейка представляет собой совокупность неисчислимых изображений набора данных. Это также может быть результатом программирования, которое избегает неестественной симметрии (которая часто приводит к деформированным ушам и несоответствующим серьгам).

В любом случае полученные изображения могут быть проанализированы на предмет схожести с помощью системы искусственного интеллекта для обнаружения подделки, и исследователи достигли 94-процентного успеха обнаружения глубоких подделок с фотографиями в портретном стиле. Исследователи также признают ограничения метода, основанные на необходимости отраженного источника света, отражаемого обоими глазами.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *