В Clubhouse стали появляться фейки известных людей

Способом борьбы с фейками для Clubhouse могла бы стать метка подтвержденного аккаунта и включение на уровне приложения идентификации, защищающей от подделки голоса с помощью технологий голосовой биометрии. Для получения такой метки соцсеть может обязать пользователя оставить «слепок голоса», а на уровне самого приложения создать голосовую биометрию, которая будет определять, что говорящий соответствует цифровому слепку и голос не является воспроизведением с ноутбука или диктофона

Медицинские маски для лица препятствуют распознаванию лиц

В затруднение распознавания людей в масках есть и положительная сторона. Проблему, с которой сталкиваются сервисы аутентификации, предстоит решить программам распознавания лиц

Как запустили приложение для анимации фото на Product Hunt

Конечно, мы разослали ссылку на Product Hunt всем знакомым. Я попросила ребят в социальной сети Mesto и в Телеграм-чате Silicon Pravda поддержать нас. Но большая часть голосов пришла от незнакомых людей, что весьма порадовало

Google на видео изменяет скорость движения одного объекта

Редактирование отдельных элементов на видеозаписи требует покадровых изменений. Обычно это делается вручную, как в мультипликации, или с использованием специальных инструментов, которые имеют ограниченный функционал и могут выполнять только отдельные запрограммированные действия. Команда разработчиков Google и Оксфордского университета смогли разделить каждый кадр видео на отдельные слои и научила ИИ распознавать в них людей или другие движущиеся объекты

Нейросеть генерирует изображения не существующих людей

Благодаря развитию искусственного интеллекта понять, где реальность, а где подделка, становится все сложнее. Если в прошлом году опасения вызывала технология deepfake, то сейчас появляется феномен fake face, то есть создание неотличимых от настоящих изображений несуществующих людей. По мнению экспертов, эта технология активно используется для политической пропаганды

МВД заказывает программу для выявления фейковых видеороликов

По условиям тендера, победителю предстоит выполнить работу на тему «Исследование возможных способов выявления признаков внутрикадрового монтажа видеоизображений, выполненного с помощью нейронных сетей». Кроме того, исполнитель должен будет составить техзадание на разработку аппаратно-программного комплекса для анализа видеофальшивок.

Создан сервис для проверки подмены лица на фото и видео

Разработчики уверяют, что точность инструмента может достигать 99,9%, однако детектор не во всех случаях «уверен» почти на 100% в своем решении. Также в будущем планируется обучить систему различить, изменялись ли другие объекты на видео или фото

В Российский алгоритм распознаёт видеофейки с точностью 90%

В основу представленного VIEN сервиса легла технология Fake Video Detection Service (FVDS), работающая, в свою очередь, с помощью моделей компьютерного зрения, позволяющего покадрово оценить и классифицировать все присутствующие на видеозаписях объекты

Deepfake и другие поддельные видео – как защитить себя

Авторы дипфейков могут шантажировать руководителей крупных компаний, угрожая опубликовать фейковое видео, способное подорвать их репутацию, если те не заплатят отступные. Также мошенники могут, например, проникнуть в вашу сеть, сымитировав звонок от IT-директора и обманом заставив сотрудников предоставить пароли и привилегии доступа, после чего ваши конфиденциальные данные окажутся в полном распоряжении хакеров

Дешевые и легкие дипфейки становятся все ближе к реальности

Бюджетные дипфейки становятся реальностью

Программное обеспечение с открытыми deepfake алгоритмами становятся доступнее, дешевле и убедительнее. В качестве примера того, как просто можно получить поддельное изображение любой персоны, представленной в сети, эксперты FireEye создали фейковые фотографии и аудиозаписи Тома Хэнкса (Tom Hanks). Все инструменты для этого уже есть в открытом…

Теория лжи на практике: как противостоять фейкам в эпоху цифровых войн

Теория лжи: как противостоять фейкам в цифровых войнах

Для чего нужны фейки? Ложную информацию используют, чтобы повысить медиатрафик, сформировать общественное мнение, дискредитировать конкурента или потроллить публичного человека. Фейки стали мощным инструментом влияния и обрели новую силу в цифровую эру. Характерно, что число ложных новостей значительно возрастает во время политических кампаний, военных конфликтов и кризисных ситуаций. Естественно отследить каждую фиктивную новость невозможно.

Новый ИИ помогает поговорить с известными людьми (даже мертвыми)

ИИ помогает поговорить с известными людьми (даже мёртвыми)

Проект под названием AI|Writer использует API генератора текста OpenAI для создания имитационных бесед с виртуальными историческими фигурами. Сначала система обрабатывает само сообщение, а потом его получателя, чтобы подобрать правильный ответ из своей базы. Для этого она использует базу данных API.

Deepfake как угроза информационной безопасности

Технологии Deepfake как угроза информационной безопасности

Для того чтобы минимизировать риски целевых фишинговых атак при помощи дипфейков в корпоративной среде, необходимо информировать пользователей о новых типах вредоносной активности и быть начеку в ситуациях, когда поведение собеседника в телефонном разговоре или голосовом сообщении кажется необычным.

Мошенники стали использовать для обмана deepfake-копии людей

Дмитрий Мацкевич известный в России предприниматель, и вряд ли станет связываться с мошенниками. Вероятно, эти видео были созданы мошенниками при помощи deepfake. Держитесь подальше от тех, кто предлагает быстрые заработки. Если кто-то знает, как можно ежегодно увеличивать своё состояние на 360%, то он должен хранить этот секрет в тайне, а не обесценивать его, привлекая сотни новых конкурентов

Почему дипфейк-видео захватывают интернет

Человечество склонно доверять всему новому. Так было сначала с газетами, потом с радио, а затем с телевидением, интернетом, социальными сетями, телеграм-каналами и ютуб-видео. Эти средства массовой коммуникации на протяжении веков перенимали эстафету доверия. Но объединяет их одно: они создают в сознании людей представление о событиях, в которых сами читатели, слушатели, зрители не принимали участия и не были свидетелями.

Кто должен нести ответственность за решения, принимаемые AI

Кто должен нести ответственность за принимаемые AI решения

AI все чаще присутствует в нашей повседневной жизни. Технологические компании используют огромное количество данных, доступных им, чтобы сделать более точные прогнозы, отследить наши запросы и предложить новые услуги. Поскольку AI уже используется во всем мире, возникает вопрос, кто несет ответственность за решения, принимаемые им?