Не верь глазам своим
Человечество склонно доверять всему новому. Так было сначала с газетами, потом с радио, а затем с телевидением, интернетом, социальными сетями, телеграм-каналами и ютуб-видео. Эти средства массовой коммуникации на протяжении веков перенимали эстафету доверия. Но объединяет их одно: они создают в сознании людей представление о событиях, в которых сами читатели, слушатели, зрители не принимали участия и не были свидетелями.
Сейчас люди больше верят именно видео. Оно, казалось бы, по наитию должно быть исходным, простым доказательством того, что событие имело место. Поскольку имеется видеоматериал, значит, это действительно происходило. Есть сложившееся мнение, что подделать видео сложно, отсюда такое к нему доверие.
Однако технологии шагнули далеко вперед, и сейчас на смену «правдивому видео» приходят подделки, или дипфейки. В них в качестве главных героев выступают видные политические деятели, известные актеры, актрисы. Их лица с немых фото ожили и теперь заговорили.
Дипфейк (от соединения английских слов deep learning («глубинное обучение») и fake («подделка») — это компьютерная технология с использованием самообучающихся программ, которые запоминают изображение человека с разных ракурсов, его мимику, на основе алгоритмов она позволяет заменять лица в видеозаписях одного человека на совершенно иной персонаж.
Дипфейки стали активно распространяться в интернете с 2017 года. Первоначально они касались исключительно пикантных видео, где лица порноактеров заменялись на лица кинозвезд. Умельцы сделали дипфейк даже на известную сцену из «Кавказской пленницы» про уколы и усыпление Бывалого, Труса и Балбеса. Только лицо Никулина заменили на Аль Пачино, Вицина — на Шона Пенна, а Моргунова — на Арнольда Шварценеггера.
Позже формат подобного развлечения вышел за пределы юмора и стал активно использоваться для создания видеоподделок с участием политиков (Б.Обама, Х.Клинтон, Р.Никсон), владельцев крупных компаний (М.Цукерберг, И.Маск и другие).
Для большей популярности таких поддельных видео и заявления персонажей носят, как правило, весьма провокационный характер — от обвинений оппонентов (мнимый Обама обвинял Трампа) до признаний Цукерберга в стремлении контролировать все данные о людях для установления своей полной власти над миром.
Примером искажения истории может служить и дипфейк, в котором мнимый президент США Никсон объявляет о гибели астронавтов «Аполлон-11» в рамках лунной программы. В действительности они успешно долетели и вернулись на Землю живыми.
Такие провокационные видео быстро тиражируются и набирают огромное количество просмотров. Многие верят им, и жертвам дипфейков приходилось оправдываться перед аудиторией в непричастности к распространенным заявлениям или действиям.
За последние два года в крупных зарубежных СМИ вышел целый ряд публикаций с осуждением разработчиков дипфейков. В статьях указывались примеры того, как порноподделки с лицами женщин-журналистов и политиков-женщин в Азии или на Ближнем Востоке приводили к их травле, устрашению и выходу из предвыборной кампании. В действительности с развитием технологий дипфейка угроза его использования против населения, банков, фондовых рынков резко повышается. Уже сейчас есть пример незаконного использования дипфейков для хищения денег. Так, мошенники с помощью поддельного видео (применили лицо сотрудника компании) вынудили жертву перевести 200 тысяч долларов на подставные счета…
Подобные видеоловушки с использованием лиц политиков, владельцев бизнеса могут использоваться для объявлений о крушении компании, введении чрезвычайного положения и тем самым обвалить рынки, вызвать социальные и экономические потрясения.
В полном масштабе трагедия от таких технологий показана в фантастическом фильме Федора Бондарчука «Вторжение», где иноземный корабль из доступных в интернете материалов делает фейк-видео, фейк-новости и дает поддельные команды войскам на применение оружия.
Сегодня специалистами ведется поиск алгоритмов для быстрого распознавания дипфейков и пресечения их распространения в сетях и социальных платформах (Facebook, YouTube). Но есть простое правило для наших читателей. На фейк-видео персонажи не моргают так, как это делает человек: в среднем люди моргают 17 раз в минуту, 4,5 раза при чтении и более 26 раз во время разговора.
Кроме того, искусственный интеллект создает новое лицо с помощью изображений политиков и актеров в интернете. Но их фото в сеть с закрытыми глазами, как правило, никто не выкладывает. И конечно, видео, в котором политик или, например, владелец бизнеса делает громкие заявления, надо рассматривать скептически и не принимать поспешно за чистую монету. Ведь такого рода материалы состряпаны как раз для того, чтобы оказать эмоциональное воздействие на публику для изменения ее поведения, принятия ошибочных решений, создания панических настроений и так далее. Поэтому люди должны понимать, что любые сомнительные заявления, публикации, видео, в которых содержатся парадоксальные мысли, провокационные призывы, агрессия и так далее, всегда следует перепроверять на других ресурсах.
Технологией создания дипфейков первоначально владели только узкие специалисты по искусственному интеллекту и спецэффектам. Новейшие программы и распространение машинного обучения упростили процесс создания фальшивых видео, тем самым сделав их опасными.
По материалам "Беларусь сегодня". Автор Алексей Алдонин, аналитик Белорусского института стратегических исследований.