Наблюдается прогресс в обнаружении поддельного видео, исследуется подделка голоса

В официальном документе, опубликованном фирмой Nisos, специализирующейся в области кибербезопасности, описываются пять инцидентов, связанных с deepfake аудио-атаками

Маски для лица препятствуют распознаванию лиц

В затруднение распознавания людей в масках есть и положительная сторона. Проблему, с которой сталкиваются сервисы аутентификации, предстоит решить программам распознавания лиц

Мошенники стали использовать для обмана deepfake-копии людей

Дмитрий Мацкевич известный в России предприниматель, и вряд ли станет связываться с мошенниками. Вероятно, эти видео были созданы мошенниками при помощи deepfake. Держитесь подальше от тех, кто предлагает быстрые заработки. Если кто-то знает, как можно ежегодно увеличивать своё состояние на 360%, то он должен хранить этот секрет в тайне, а не обесценивать его, привлекая сотни новых конкурентов

Кто должен нести ответственность за решения, принимаемые AI

Кто должен нести ответственность за решения, принимаемые AI

AI все чаще присутствует в нашей повседневной жизни. Технологические компании используют огромное количество данных, доступных им, чтобы сделать более точные прогнозы, отследить наши запросы и предложить новые услуги. Поскольку AI уже используется во всем мире, возникает вопрос, кто несет ответственность за решения, принимаемые им?

Зачем мошенники записывают по телефону ваш голос

Если сервисы будут полагаться на использование голосовых команд по телефону, то мошенники смогут использовать полученные образцы для синтеза вашего голоса и последующей атаки на такие сервисы. Кстати, нейросетей, способных по сэмплам смоделировать голос, уже достаточно

Commvault прогнозирует опасное влияние Deepfake на данные

Дон Фостер (Don Foster), вице-президент по глобальным продажам Commvault, считает, что «Технологии Deep Fake простимулируют рост рынка решений для тестирования целостности и верификации данных»

Рост мошенничества с подделкой личности в 2020 году

В 2020 году появилось несколько новых способов обмана с использование сгенерированных данных. Для этого мошенники подделывают как голоса, так и манеру речи. Об одном таком способе убеждения о мошенническом переводе мы сообщали ранее. В другом случае, для убеждения подделывали изображение пластиковой карты, на которую просят перевести деньги

Появились алггоримы, опаснее deepfake

Ещё вчера все говорили про опасность алгоритмов, генерирующих поддельные изображения и голос. Обсуждалась возможность использования этих алгоритмов в конструктивных целях. Но такие алгоритмы уже вчерашний день. 2021 год ознаменуется появлением более опасных алгоритмов: алгоритмов, которые понимают причину тех или иных действий и подстраиваются под наше психологическое восприятие. Социальная инженерия автоматизируется и ставится на поток