Злоумышленники создают фотографию для документа, которая одновременно похожа на лицо владельца паспорта, и на самого мошенника (ИИ совмещает два изображения)
Рубрика: Безопасность
Запрет на рекламу порнографического контента, созданного при помощи deepfake, является ответственным шагом Google в защиту морального облика цифровой среды
Дипфейк оказался настолько правдободным, что у девушки не осталось сомнений – с ней действительно связался сам Маск. Но эта схема оказалась мошеннической
Синтетическая цифровая личность – это цифровая запись о некоторой персоне, содержащая стандартные атрибуты личности (Ф.И.О., номер телефона, адрес прописки и т.д.), значения которых полностью сфабрикованы или скомпилированы из реальных и вымышленных данных. С развитием цифровизации в мире на 2024 г.…
Просмотр с дипфейками знаменитых людей, которые не имели к этому отношения, является «разрушением человеческой сущности, человеческих и семейных отношений»
Deepfake меняет представление о возможностях видеосвязи, но для её положительного воздействие, необходимо участие всех заинтересованных сторон
В Google Play удалённое приложение имело возрастной рейтинг «E» (для всех возрастов) и насчитывало более 10 000 загрузок и более 200 отзывов
Изучение и предотвращение атак с использованием голосовых дипфейков является важной задачей для обеспечения безопасности в цифровой среде
Компаниям никогда не следует загружать и исполнять код, который они не понимают и не проверяли – например, репозитории GitHub с открытым исходным кодом
В киберпространстве разгорается скандал, связанный с использованием генеративного ИИ для создания порнографических картинок без согласия изображённых на них лиц
Инструменты искусственного интеллекта применяются для обзвона и выявления потенциальных жертв, что позволяет мошенникам быть эффективнее
Искусственный интеллект станет постоянным элементом нашей жизни, и дискуссия об этичном использовании генеративного ИИ будет становиться всё острее
В условиях развития дипфейков, а также активной интеграции этого инструмента в противоправную деятельность опасения закономерны, отметил Антон Немкин
Специфика технологии заключается в выборе ярлыка, который описывает то, что на самом деле изображено, чтобы размыть границы этого понятия
Современные мошенники всё чаще используют популярные мессенджеры, такие как Telegram и WhatsApp, для реализации своих злонамеренных схем
В настоящее время дипфейки выявляют вручную криминалисты и специалисты по информационной безопасности при анализе конкретного видео
С развитием технологий, проникающих в нашу повседневную жизнь, увеличивается число мошеннических схем с использованием популярных мессенджеров
Мошенники воспользовались deepfake-технологией замены лиц и голосов. В ходе видеоконференции они выдали себя за руководство головного офиса
«Когда менять голос смогут в режиме онлайн, у всех нас будут огромные проблемы»
Владислав Тушканов, эксперт «Лаборатории Касперского»
Выводы доклада были сделаны на основе дискуссии на тему «Глубокие подделки и демократия», проведённой MediaNama 17 января при поддержке Meta и Google
Многие мечтали о летающих машинках и космических приключениях, но вместо этого мы столкнулись с новыми схемами мошенничества, использующими нейросети и дипфейки
Человек, незнакомый глубоко с новейшими технологиями, справедливо задаст вопрос: «Как это может использоваться?». Попробуем дать ответ…
Onfido сообщает об огромном всплеске глубоких фейковых атак, поскольку правительства борются с новыми потенциальными угрозами
Граждане республики также называют детей в честь казахстанских городов. В стране живут 24 Астаны, 20 Алма-Аты и 3 Шымкента
Глубокие подделки потенциально могут нанести значительный вред, распространяя дезинформацию, манипулируя общественным мнением и подрывая доверие