Страх перед глубокими подделками, возможно, достиг своего пика. НАТО провела онлайн-дискуссию об угрозе, которую представляют очень реалистичные, но сфабрикованные видео с использованием искусственного интеллекта реальных людей.
Выступление преуменьшает вероятность того, что мировой лидер будет сбит поддельным видео о том, как они берут взятку, едят пальцами или сотрудничают с политическими соперниками. Однако в конечном итоге это может отразиться на отрасли биометрии.
Пара экспертов, привлеченных для проведения видеоконференции, приводят ряд причин, чтобы расслабиться по поводу deepfakes. Но обоснование сводится к тому, что атаки deepfake еще не произошли, технологии обнаружения будут развиваться быстрее или даже превосходить технологии обмана, и люди не будут обмануты.
Jānis Sārts, директор подразделения НАТО по связям с общественностью StratCom, начинает выступление, ссылаясь на «почти мифологический тему deepfakes» и высказывая предположение, что их разрушительный потенциал не будет соответствовать технологическим или экономическим реалиям.
«То, что технология может быть использована, не означает, что она будет использоваться», – сказал Tim Hwang, директор инициативы по этике и управлению Гарвардского университета в Массачусетском технологическом институте.
Hwang сказал, что нет никаких доказательств того, что дезинформационные команды используют deepfakes. Во многом это связано с тем, что участвовать в традиционных медиа-кампаниях и социальных сетях дешевле.
По словам Hwang, даже если плохие актеры тратят «десятки тысяч долларов», необходимые для организации deepfake кампаний, у исследователей есть множество примеров, которые они могут использовать при машинном обучении для выявления мошенничества с видео.
Он также указал на возможность «отравления» обучающих данных – изображения и голосового контента – образными «радиоактивными маркерами», которые могли бы выдать мошенников. По его словам, только угроза отравления может быть достаточно сдерживающей, чтобы сделать атаки маловероятными, поскольку крупные социальные сети будут активно искать маркеры и чистые каналы.
К Hwang и Sārts присоединился Keir Giles, специалист по России из Исследовательского центра по изучению конфликтов, который сказал, что аргументы о мошеннических видеозаписях лидера могут быть преувеличены.
Однако есть и другие опасности, связанные с deepfakes, которые, как сказал Giles, следует учитывать.
Во-первых, они теоретически могли бы сделать биометрическое распознавание лица и голоса таким же несущественным, как и рукописные подписи, сказал он. В обсуждении также приняли участие вице-президент Nuance Communications и генеральный директор по безопасности и биометрии Brett Beranek.
По словам Giles, масштабирующая способность этой технологии требует наблюдения. Это будет иметь «почти нулевую стоимость» для создания вводящего в заблуждение контента с участием правдоподобного человеческого аватара и его распространения по всему миру.
Похоже, что именно аватар больше всего беспокоит Giles.
Люди, измученные политикой и технологиями, с меньшей вероятностью примут на веру осуждающее содержание известного человека. Но аватар или аватары могут делать или говорить все что угодно и влиять на мысли и поведение людей, уже потребляющих другой обманчивый контент.
Плохие актеры могут создавать анонимных deepfake лидеров, группы или даже движения, сказал он.
По материалам Biometrics Research Group. Автор Jim Nash