Программное обеспечение с открытыми deepfake алгоритмами становятся доступнее, дешевле и убедительнее. В качестве примера того, как просто можно получить поддельное изображение любой персоны, представленной в сети, эксперты FireEye создали фейковые фотографии и аудиозаписи Тома Хэнкса (Tom Hanks). Все инструменты для этого уже есть в открытом доступе, они не требуют углубленных знаний и серьезных расходов. ым исходным кодом и менее чем за 100 долларов, исследователь смог создать правдоподобные изображения и аудио актера Тома Хэнкса.
Филип Талли (Philip Tully), специалист в области обработки данных в компании по сетевой безопасности FireEye, сгенерировал фальшивого Хэнкса, чтобы проверить, насколько легко можно адаптировать программное обеспечение с открытым исходным кодом для дезинформационный атак. Его вывод: «Люди с небольшим опытом могут использовать эти модели машинного обучения и делать с ними довольно эффективные вещи».
Конечно, если присмотреться повнимательнее, то по фото в полном разрешении видно, что это фейк. Например, складки на шее и текстура кожи выглядят неестественно. Но в целом эти изображения довольно точно воспроизводят черты лица актера – нахмуренные брови и холодный взгляд серо-зеленых глаз. Этого достаточно, чтобы в соцсетях их приняли за реальные фото Тома.
Для создания поддельного снимка Тулли нужно было всего лишь собрать в Интернете несколько сотен изображений Хэнкса и и потратить менее $100 на аренду программы для генерации изображений — систему Nvidia, выпущенную в прошлом году.
Талли также использовал другое программное обеспечение ИИ с открытым исходным кодом, чтобы попытаться имитировать голос актера из трех клипов YouTube, но уже, с менее впечатляющим результатом.
Демонстрируя, насколько дешево и легко человек может создавать приемлемые поддельные фотографии, проект FireEye может усилить опасения, что онлайн-дезинформация может быть усилена технологией искусственного интеллекта, которая генерирует приемлемые изображения или речь. Действительно, пока большинство такой продукции низкого качества и служит развлекательным или порнографическим целям. Но программы, находящиеся в распоряжении корпораций, способны выдавать намного более качественный результат.
По мнению Ли Фостера (Lee Foster) из той же компании, занимающегося анализом сетевых манипуляций, дипфейки не обязательно должны быть высокого качества, чтобы выполнять свою функцию. Поддельная фотография Хэнкса может быть достаточно убедительной в мире, где люди потребляют огромное количество информации, не особенно вглядываясь в изображения. «Если вы быстро прокручиваете свой Twitter-канал, вам не придется внимательно изучать изображения профиля» – говорит он.
Создание сложных дипфейк-видео потребует значительного времени и опыта. Тим Хван (Tim Hwang), научный сотрудник Центра безопасности и новых технологий в Джорджтауне, подготовил отчет, в котором делается вывод, что дипфейки не представляют серьезной и неминуемой угрозы, но общество в любом случае должно инвестировать в защиту.
Thanks for sharing this. Deepfake technology has its pros and cons. It is effective and gives great impact when it’s used wisely but on the other side of the coin, it could be dangerous when it is used irresponsibly. This is an interesting article to read. Would love to share this manifesto on the ethical use of synthetic media. https://www.respeecher.com/ethics