Нейросеть генерирует изображения не существующих людей

Благодаря развитию искусственного интеллекта понять, где реальность, а где подделка, становится все сложнее. Если в прошлом году опасения вызывала технология deepfake, то сейчас появляется феномен fake face, то есть создание неотличимых от настоящих изображений несуществующих людей. По мнению экспертов, эта технология активно используется для политической пропаганды

Создан сервис для проверки подмены лица на фото и видео

Разработчики уверяют, что точность инструмента может достигать 99,9%, однако детектор не во всех случаях «уверен» почти на 100% в своем решении. Также в будущем планируется обучить систему различить, изменялись ли другие объекты на видео или фото

В Российский алгоритм распознаёт видеофейки с точностью 90%

В основу представленного VIEN сервиса легла технология Fake Video Detection Service (FVDS), работающая, в свою очередь, с помощью моделей компьютерного зрения, позволяющего покадрово оценить и классифицировать все присутствующие на видеозаписях объекты

Deepfake и другие поддельные видео – как защитить себя

Авторы дипфейков могут шантажировать руководителей крупных компаний, угрожая опубликовать фейковое видео, способное подорвать их репутацию, если те не заплатят отступные. Также мошенники могут, например, проникнуть в вашу сеть, сымитировав звонок от IT-директора и обманом заставив сотрудников предоставить пароли и привилегии доступа, после чего ваши конфиденциальные данные окажутся в полном распоряжении хакеров

Теория лжи на практике: как противостоять фейкам в эпоху цифровых войн

Теория лжи: как противостоять фейкам в цифровых войнах

Для чего нужны фейки? Ложную информацию используют, чтобы повысить медиатрафик, сформировать общественное мнение, дискредитировать конкурента или потроллить публичного человека. Фейки стали мощным инструментом влияния и обрели новую силу в цифровую эру. Характерно, что число ложных новостей значительно возрастает во время политических кампаний, военных конфликтов и кризисных ситуаций. Естественно отследить каждую фиктивную новость невозможно.

Deepfake как угроза информационной безопасности

Технологии Deepfake как угроза информационной безопасности

Для того чтобы минимизировать риски целевых фишинговых атак при помощи дипфейков в корпоративной среде, необходимо информировать пользователей о новых типах вредоносной активности и быть начеку в ситуациях, когда поведение собеседника в телефонном разговоре или голосовом сообщении кажется необычным.

Почему дипфейк-видео захватывают интернет

Человечество склонно доверять всему новому. Так было сначала с газетами, потом с радио, а затем с телевидением, интернетом, социальными сетями, телеграм-каналами и ютуб-видео. Эти средства массовой коммуникации на протяжении веков перенимали эстафету доверия. Но объединяет их одно: они создают в сознании людей представление о событиях, в которых сами читатели, слушатели, зрители не принимали участия и не были свидетелями.

Кто должен нести ответственность за решения, принимаемые AI

Кто должен нести ответственность за принимаемые AI решения

AI все чаще присутствует в нашей повседневной жизни. Технологические компании используют огромное количество данных, доступных им, чтобы сделать более точные прогнозы, отследить наши запросы и предложить новые услуги. Поскольку AI уже используется во всем мире, возникает вопрос, кто несет ответственность за решения, принимаемые им?

Создан ИИ, который делает портреты на основе вашего с ним «разговора»

Нейросеть делает портреты на основе «разговора» с ней

Группа исследователей из лаборатории Университета Саймона Фрейзера в Канаде разработала творческий ИИ, который рисует портреты людей, передавая черты личности и эмоции. Прежде чем как рисовать, ИИ «разговаривает» с вами. Информация об исследовании опубликована в журнале arXiv.

Готовятся законодательно бороться с deepfake на экзаменах

В проекте постановления указано, что решение об использовании ЕБС будут принимать вузы в добровольном порядке. Если такое решение будет принято, то студентам придется сходить в отделение банка, оснащенное системой сбора биометрии, сфотографироваться и оставить образец голоса.

Дипфейки для бизнеса: кто и как на них будет зарабатывать?

Реклама с виртуальными моделями, цифровые телеведущие и фейковые речи президентов – реальность, которую формируют алгоритмы машинного обучения. В 2020 году технологии искусственного интеллекта глубже проникают в сферы телекоммуникаций, развлечений и формируют новые рынки. За развитием дипфейков внимательно наблюдают специалисты по кибербезопасности, расследуя новые формы мошенничества с использованием передовых технологий

biometricupdate

Решение IDmission проверено на обнаружение атак уровня 2

«Гарантия того, что снимается селфи от живого человека, а не с фотографии другого снимка, маски или видео, является одновременно технически сложной и критически важной. Сделать это пассивно, без каких-либо действий со стороны пользователя – это вишенка на торте»

Создана защита от дипфейков

Готовится регулирование Deepfake в ближайшем будущем

Для будущих публикаций проблема теоретически будет решена, но остается проблема архивов: защищая только вновь создаваемый контент – это не окажет практически никакого влияния на уже размещённые материалы