Я создал свой собственный дипфейк за две недели и $552

Технология дипфейков использует глубокие нейронные сети для убедительной замены на видео одного лица другим. У этой технологии есть очевидный потенциал для злонамеренного использования, и она становится всё более распространённой. По поводу социальных и политических последствий этого тренда было написано уже много хороших статей.

В Facebook «клонировали» голос Билла Гейтса

В Facebook «клонировали» голос Билла Гейтса

Инженеры Facebook Шон Васкес и Майк Льюис использовали алгоритмы искусственного интеллекта для разработки «умного» синтезатора речи MelNet. Программа сгенерировала голос основателя Microsoft Билла Гейтса и других известных личностей. Аудиоролики длительностью до трех секунд разработчики опубликовали на сайте, посвященном исследованию, в разделе…

FaceShifter: нейросеть заменяет лица на фотографиях

FaceShifter: нейросеть заменяет лица на фотографиях

FaceShifter — это двухступенчатый нейросетевой фреймворк для реалистичного переноса лица на изображение человека. Модель устойчива к окклюзии лиц на входных изображениях. Исследователи заявляют, что FaceShifter лучше, чем предыдущие подходы, сохраняют черты целевой личности в сгенерированном изображении.

«Дочка» Alphabet создала сервис для борьбы с фейковыми фотографиями

«Дочка» Alphabet создала сервис для борьбы с фото-фейками

С помощью нового сервиса Assembler журналисты и исследователи смогут определять, оригинальная перед ними фотография или поддельная. Сервис будет бороться с появлением в сети дипфейков Дочерняя компания Alphabet Inс. (владелец поисковой системы Google) Jigsaw разработала бесплатный сервис Assembler, который позволяет отличить…

Эксперты обеспокоены несовершенством технологий распознавания deepfakes

Эксперты обеспокоены несовершенством распознавания deepfake

Эксперты обеспокоены несовершенством технологий распознавания deepfakes. Речь об этом шла во время очередного заседания проекта “Экспертная среда” – “Deepfakes: новый вызов информационной безопасности” в пресс-центре БЕЛТА. Аналитик Белорусского института стратегических исследований (БИСИ) Виталий Демиров подчеркнул, что воздействие deepfakes и fake…