НАТО получает успокаивающее сообщение о deepfakes, но…

Страх перед глубокими подделками, возможно, достиг своего пика. НАТО провела онлайн-дискуссию об угрозе, которую представляют очень реалистичные, но сфабрикованные видео с использованием искусственного интеллекта реальных людей.

Выступление преуменьшает вероятность того, что мировой лидер будет сбит поддельным видео о том, как они берут взятку, едят пальцами или сотрудничают с политическими соперниками. Однако в конечном итоге это может отразиться на отрасли биометрии.

Пара экспертов, привлеченных для проведения видеоконференции, приводят ряд причин, чтобы расслабиться по поводу deepfakes. Но обоснование сводится к тому, что атаки deepfake еще не произошли, технологии обнаружения будут развиваться быстрее или даже превосходить технологии обмана, и люди не будут обмануты.

Jānis Sārts, директор подразделения НАТО по связям с общественностью StratCom, начинает выступление, ссылаясь на «почти мифологический тему deepfakes» и высказывая предположение, что их разрушительный потенциал не будет соответствовать технологическим или экономическим реалиям.

«То, что технология может быть использована, не означает, что она будет использоваться», – сказал Tim Hwang, директор инициативы по этике и управлению Гарвардского университета в Массачусетском технологическом институте.

Hwang сказал, что нет никаких доказательств того, что дезинформационные команды используют deepfakes. Во многом это связано с тем, что участвовать в традиционных медиа-кампаниях и социальных сетях дешевле.

По словам Hwang, даже если плохие актеры тратят «десятки тысяч долларов», необходимые для организации deepfake кампаний, у исследователей есть множество примеров, которые они могут использовать при машинном обучении для выявления мошенничества с видео.

Он также указал на возможность «отравления» обучающих данных – изображения и голосового контента – образными «радиоактивными маркерами», которые могли бы выдать мошенников. По его словам, только угроза отравления может быть достаточно сдерживающей, чтобы сделать атаки маловероятными, поскольку крупные социальные сети будут активно искать маркеры и чистые каналы.

К Hwang и Sārts присоединился Keir Giles, специалист по России из Исследовательского центра по изучению конфликтов, который сказал, что аргументы о мошеннических видеозаписях лидера могут быть преувеличены.

Однако есть и другие опасности, связанные с deepfakes, которые, как сказал Giles, следует учитывать.

Во-первых, они теоретически могли бы сделать биометрическое распознавание лица и голоса таким же несущественным, как и рукописные подписи, сказал он. В обсуждении также приняли участие вице-президент Nuance Communications и генеральный директор по безопасности и биометрии Brett Beranek.

По словам Giles, масштабирующая способность этой технологии требует наблюдения. Это будет иметь «почти нулевую стоимость» для создания вводящего в заблуждение контента с участием правдоподобного человеческого аватара и его распространения по всему миру.

Похоже, что именно аватар больше всего беспокоит Giles.

Люди, измученные политикой и технологиями, с меньшей вероятностью примут на веру осуждающее содержание известного человека. Но аватар или аватары могут делать или говорить все что угодно и влиять на мысли и поведение людей, уже потребляющих другой обманчивый контент.

Плохие актеры могут создавать анонимных deepfake лидеров, группы или даже движения, сказал он.

По материалам Biometrics Research Group. Автор Jim Nash

Добавить комментарий

Ваш адрес email не будет опубликован.