В России дипфейки пока экзотика, но уже сейчас люди и целые компании теряют деньги из-за мошенников, использующих эту технологию. Можно ли себя обезопасить? Мнение эксперта.
В России обсуждают сразу несколько законодательных инициатив, связанных с регулированием дипфейков. Эта технология на основе искусственного интеллекта, позволяющая подменять голос и изображение человека, набирает популярность у мошенников. Они используют её, чтобы получить деньги, персональную информацию или добиться определённой реакции жертвы.
Как рассказали в Ассоциации развития финансовой грамотности, от бизнесменов в российских регионах уже поступают сигналы о случаях использования дипфейков для кражи денег. Например, показательный случай произошёл в Нижнем Новгороде: бухгалтеру местной компании позвонила её начальница и попросила передать миллион рублей наличными из сейфа в руки курьера. Курьер тут же подъехал и всё забрал. И только потом выяснилось, что звонила не директор фирмы, а мошенники, которым удалось подделать голос и интонации человека.
Начальник отдела информационной безопасности «СерчИнформ» Алексей Дрозд отмечает: для России дипфейки пока не очень распространённое явление. Но в перспективе они будут представлять серьёзную опасность. На пресс-конференции в Екатеринбурге эксперт рассказал, что представляет собой эта технология и могут ли потенциальные жертвы каким-то образом себя обезопасить.
Как это работает?
Есть два основных направления использования дипфейков.
- Первое – синтез, создание полностью виртуальной личности или события. Как это выглядит? Допустим, мошенник просит нейросеть сгенерировать фотографию определённого города, разрушенного ураганом. Иллюстрации разрушений мошенник выдаёт за фотографии очевидца и открывает сбор пожертвований. Результат — люди переводят деньги на решение несуществующей проблемы.
- Второе – клонирование. Был забавный инцидент: мошенники решили воссоздать с помощью нейросети голос рэпера и озвучили этим голосом несколько стихотворений под музыку. Треки выставили на продажу, объявив, что это демозапись нового альбома, которую выкрали хакеры. На обмане людей мошенники заработали $13 тыс.
Самый большой ущерб от дипфейков, о котором я слышал? – пример транснационального мошенничества. Банкир-японец получил звонок от американского инвестора, который просил перевести деньги для покупки стартапа. В итоге единовременный ущерб составил $35 млн.
В России пока в основном генерируются «дешевые дипфейки», которые с технической точки зрения легко повторить. С помощью нейросетей создаются голосовые сообщения с голосом определённого человека – его образцы берутся из открытых источников.
Как правило, сообщения рассылаются с незнакомого номера родственникам и знакомым. Содержание идентичное: «Я попал в ДТП/полицию, телефон потерял, пишу с номера полицейского, переведи мне деньги».
Что делать?
Не всегда в стрессовых ситуациях удаётся быстро сориентироваться и вычислить атаку мошенников. Тем не менее есть несколько вещей, которые должны вас насторожить.
- Первое – контекст. Обычно такие сообщения и звонки поступают внезапно, с незнакомых номеров.
- Второе – спешка. Мошенники будут стараться навести панику, говорить, что деньги нужны срочно, в течение нескольких минут или получаса, иначе всё пропало. В таком случае нужно немедленно прекратить разговор и обдумать происходящее.
- Третья вещь – наличие шумов, помех, монотонности. За счет всего этого маскируется искусственность голоса. Если вы получаете от человека звонок странного содержания и чувствуете, что в его голосе пропали какие-то особенности речи – вас это тоже должно насторожить.
Получив подозрительное сообщение, имеет смысл связаться с человеком по привычному каналу связи и уточнить его намерения. Ещё один способ, который можно использовать для подтверждения владельца, – видеозвонок. Но он может и не дать стопроцентного результата – современные технологии позволяют создавать «маски», с помощью которых можно выдать себя за другого человека.
Если посмотреть на мировую практику, уже сейчас в некоторых странах звучат инициативы о том, что глобальные компании должны разработать и внедрить технологии, которые будут выявлять и маркировать deepfake-контент. В этом случае пользователь будет предупреждён о возможных действиях мошенников.
Пока таких опций нет – придётся вести себя максимально настороженно.
По материалам «Деловой квартал-Екатеринбург»