Рост мошенничества с подделкой личности в 2020 году

В 2020 году появилось несколько новых способов обмана с использование сгенерированных данных. Для этого мошенники подделывают как голоса, так и манеру речи. Об одном таком способе убеждения о мошенническом переводе мы сообщали ранее. В другом случае, для убеждения подделывали изображение пластиковой карты, на которую просят перевести деньги

Появились алггоримы, опаснее deepfake

Ещё вчера все говорили про опасность алгоритмов, генерирующих поддельные изображения и голос. Обсуждалась возможность использования этих алгоритмов в конструктивных целях. Но такие алгоритмы уже вчерашний день. 2021 год ознаменуется появлением более опасных алгоритмов: алгоритмов, которые понимают причину тех или иных действий и подстраиваются под наше психологическое восприятие. Социальная инженерия автоматизируется и ставится на поток

Нейросетевой Санта-Клаус поздравляет с Новым Годом

Обработка занимает от нескольких минут до нескольких часов — все зависит от загрузки сервера. Максимальная длина сообщения — 200 символов. Все обращения проверяют модераторы и удаляют тексты, которые содержат непристойности или оскорбления

Скоро потребуется регулирование дипфейк технологий

Развитие дипфейк столь стремительно, что скоро потребует регулирования

Большая часть компаний по развитию технологий дипфейков сосредоточена в США и Китае. «Яркие примеры — это ZAO (Китай), StyleGAN (США)», Deepfakes web (Япония), AvengeThem (Франция) и DeepFaceLab (США). В России – Dowell (входит в Everypixel Group), AvaTunes и Vera voice

Готовятся законодательно бороться с deepfake на экзаменах

В проекте постановления указано, что решение об использовании ЕБС будут принимать вузы в добровольном порядке. Если такое решение будет принято, то студентам придется сходить в отделение банка, оснащенное системой сбора биометрии, сфотографироваться и оставить образец голоса.

В 2020 году МВД возбудило 37 уголовных дел за фейки о коронавирусе

В пресс-центре МВД России сообщили, что с начала года полиция возбудила 37 уголовных дел за распространение фейковой информации о коронавирусе и более 450 протоколов об административных правонарушениях, передает ТАСС

Скажите, как меня зовут, скажите, как меня зовут

Скажите, как меня зовут, скажите, как меня зовут

У вас, вероятно, также был опыт, когда кто-то выкрикивал ваше имя, чтобы позвонить вас или когото еще с похожим (даже не одинаковым) именем, и ваши уши настораживались. Неважно как вы это называете, многолюдный ли это бар, торговый центр, детская площадка.

Журналист Андрей Тюкавкин об «оживлении» убитых, дипфейк и войне с мексиканской наркомафией

Знаменитый мексиканский журналист Хавьер Вальдес, убитый наркомафией в 2017 году, вновь «ожил» с помощью искусственного интеллекта, нейросетей и IT-специалистов из России, и начал обвинять президента и правительство

Мошенники обманывают россиян «дипфейками» со знаменитостями

Эксперты компании «Инфосистемы Джет» предупредили о новом способе обмана в интернете, когда мошенники выманивают деньги у жертв, создавая убедительные видеоподделки с наложением лиц и голосов известных людей

Deepfake — самое опасное преступление будущего

Специалисты считают дипфейк самым опасным преступлением будущего

Люди теперь проводят большую часть своей жизни в интернете, в котором аккумулируется огромное количество информации, и их деятельность в сети может создавать и разрушать репутацию человека. Такая информационная онлайн-среда идеально подходит для занятия преступной деятельностью, основанной на искусственном интеллекте

Дипфейк – технология, отменяющая реальность

Дипфейк – технология, отменяющая реальность

После обращения Конгресса США из открытого доступа исчезли все программные продукты, которые позволяли создавать глубокие подделки. Все… кроме одного, который вроде бы принадлежит русскому разработчику.

Дипфейки для бизнеса: кто и как на них будет зарабатывать?

Реклама с виртуальными моделями, цифровые телеведущие и фейковые речи президентов – реальность, которую формируют алгоритмы машинного обучения. В 2020 году технологии искусственного интеллекта глубже проникают в сферы телекоммуникаций, развлечений и формируют новые рынки. За развитием дипфейков внимательно наблюдают специалисты по кибербезопасности, расследуя новые формы мошенничества с использованием передовых технологий

Британский стартап готов купить у вас «права на лицо»

Британский стартап готов купить у вас «права на лицо» за 8 миллионов рублей

Отмечается, что компания ищет «доброе и дружелюбное лицо», так как будущие роботы будут помогать пожилыми людьми. Всем заинтересованным стартап предлагает отправить свое фото на почту

Преобразование голоса: определение, технология, использование и проблемы

Преобразование голоса: определение, технология, использование и проблемы

Преобразование голоса – это средство преобразования одного голоса в другой, методика изменения формы волны речи для преобразования нелингвистической информации при сохранении языковой информации (например, одни и те же слова, другой голос).

Deepfake в рекламе Сбера

«Нужен был именно тот голос, которым актёр говорил 47 лет назад», – говорят в компании. Обычно для качественного синтеза речи с помощью технологии TTS (text-to-speech) нужно не меньше 20 часов речи в записи, но у команды было только четыре минуты, рассказали в Сбере

biometricupdate

Решение IDmission протестировано iBeta на обнаружение атак уровня 2

«Гарантия того, что снимается селфи от живого человека, а не с фотографии другого снимка, маски или видео, является одновременно технически сложной и критически важной. Сделать это пассивно, без каких-либо действий со стороны пользователя – это вишенка на торте»

Для достоверности обмана мошенники генерируют изображения пластиковых карт

Фотография поддельной кредитной карты генерируется специальной программой. Для этого необходимо ввести имя владельца взломанного аккаунта и номер настоящей кредитной карты кибермошенника, на которую будут переводиться деньги. Ранее для этого злоумышленники использовали программу Photoshop

Создана защита от дипфейков

Регулирование Deepfake в будущем

Для будущих публикаций проблема теоретически будет решена, но остается проблема архивов: защищая только вновь создаваемый контент – это не окажет практически никакого влияния на уже размещённые материалы