Deepfake — самое опасное преступление будущего

Специалисты считают дипфейк опасным преступлением будущего

Люди теперь проводят большую часть своей жизни в интернете, в котором аккумулируется огромное количество информации, и их деятельность в сети может создавать и разрушать репутацию человека. Такая информационная онлайн-среда идеально подходит для занятия преступной деятельностью, основанной на искусственном интеллекте

Дипфейки для бизнеса: кто и как на них будет зарабатывать?

Реклама с виртуальными моделями, цифровые телеведущие и фейковые речи президентов – реальность, которую формируют алгоритмы машинного обучения. В 2020 году технологии искусственного интеллекта глубже проникают в сферы телекоммуникаций, развлечений и формируют новые рынки. За развитием дипфейков внимательно наблюдают специалисты по кибербезопасности, расследуя новые формы мошенничества с использованием передовых технологий

Создана защита от дипфейков

Готовится регулирование Deepfake в ближайшем будущем

Для будущих публикаций проблема теоретически будет решена, но остается проблема архивов: защищая только вновь создаваемый контент – это не окажет практически никакого влияния на уже размещённые материалы

Нейросетевая пропасть между безопасностью и удобством

Приведем смысловую выжимку из острой и насыщенной дискуссии, состоявшейся на секции «Цифровая инфраструктура, технологии искусственного интеллекта и вопросы информационной безопасности в банковской сфере» в рамках ИНФОФОРУМ-2020 В дискуссии участвовали такие эксперты отрасли, как Валерий Комаров, начальник отдела обеспечения осведомленности Управления…

Маск уверен, что ИИ от DeepMind станет угрозой цивилизации уже через 5 лет

Маск: ИИ от DeepMind станет угрозой цивилизации через 5 лет

Команда DeepMind приобрела известность как разработчик алгоритма AlphaStar, гроссмейстера шахмат, го, сеги, а также 57 классических игр Atari и стратегической многопользовательской игры StarCraft II.

Прогнозы худших угроз искусственного интеллекта

Оценивая угрозы на основе потенциального вреда, прибыльности, жизнеспособности и поражения, группа определила, что deepfake, технология, которая уже существует и распространяется, представляет наивысший уровень угрозы

Дипфейки и провокации в соцсетях для влияния на избирателей

Риск COVID-19 в США, где на данный момент коронавирусной инфекций заражены более 2,6 млн человек, удерживает людей от посещения избирательных участков, как это сделал испанский грипп на выборах столетие назад

Преступники используют секретные SIM-карты

Киберпреступники взяли на вооружение так называемые «русские», «зашифрованные» или «белые» SIM-карты, позволяющие им менять телефонные номера и искажать голос звонящего. Неизвестный звонок поступил из Франции. Когда я взял трубку, мужчина спросил, работал ли я с Национальным агентством по борьбе с…

Борьба с мошенничеством с использованием liveness detection

Лицевая биометрия и liveness для борьбы с мошенничеством

Кража личных данных является одним из наиболее быстро растущих преступлений в США, в последние годы личность миллионов людей была скомпрометирована. В 2019 году Федеральная торговая комиссия получила 3,2 миллиона сообщений о проблемах защиты прав потребителей. Из них наиболее распространенным мошенничеством, о котором сообщалось, были мошенничества и кража личных данных, особенно в государственных службах, онлайн-магазинах и кредитных бюро.

Onfido привлекает $100 милн для финансирования нового стандарта идентификации

Onfido привлекает $100 млн для выявления злоумышленников

«Мы используем ИИ для подтверждения подлинности личности, проверяя подлинность фотографии на удостоверение личности, а затем сопоставляя его с лицом. Поскольку мы видим десятки миллионов документов, удостоверяющих личность, наш ИИ может выявлять, какие из них являются мошенническими, а какие – нет. Все наши клиенты получают выгоду от этой обновленной и улучшенной модели искусственного интеллекта».

Дипфейки – медиаинструмент в политической борьбе

Дипфейки – медиаинструмент в политической борьбе

Атака дипфейков на нашу реальность. В Интернете более 14 000 поддельных видеороликов, которые посмотрели минимум 134 млн. раз. 96 % – это фильмы для взрослых, куда нейросеть “приклеила” лица актеров, политиков и других известных персон.

Борьба с мошенничеством с использованием liveness detection

Пассивная биометрия живости лица ID R&D, реализована Zenoo

Пассивная лицевая биометрическая технология обнаружения живости от ID R&D была внедрена новатором цифровой интеграции Zenoo для усиления безопасности во время онлайн-проверки личности без дополнительных шагов или сложностей

Система Zoloz соответствует стандарту ISO

Компания Zoloz подтвердила соответствие уровню 1 и уровню 2 для обнаружения атак презентации (PAD) в соответствии со стандартами ISO 30107-3 для своей биометрической технологии при тестировании на iBeta, объявила компания.

Лицо мужчины будто бы распухло, и на него страшно смотреть

Американский режиссёр показал, какой маской защищается от коронавируса, и от этого зрелища у многих голова идёт кругом. У мужчины очень искажена нижняя часть лица — но это не травма, а творческий подход. И теперь одни люди шутят о том, на кого он стал похож, а другие — делятся своими шедеврами.

«Глубокие фейки» и национальная безопасность

Deepfake и национальная безопасность – оценка влияния

Глубокие фейки (deepfake; дипфейк) – технологии искусственного синтеза человеческого изображения на основе нейросетей и искусственного интеллекта. С помощью технологии одним из первых был создан ролик «Вы не захотите поверить тому, что Обама скажет в этом видео», в котором бывший президент…