Как нейросети стали инструментом кибермошенников

Как не стать жертвой кибермошенников – статья заместителя директора Аналитического центра УЦСБ Евгения Баклушина

Евгений Баклушин

Заместитель директора Аналитического центра УЦСБ

Выпускник ИРИТ-РТФ УрФУ, преподаватель дисциплин по информационной безопасности. В сфере кибербезопасности более 10 лет, специализация — аудиты и стратегия развития ИБ для бизнеса и госсектора.

В середине декабря 2023 года на прямой линии с Президентом РФ студент СПбГУ с помощью искусственного интеллекта и механизмов deepfake дал возможность пообщаться Владимиру Владимировичу со своим двойником. Ситуация повеселила многих, но наглядно продемонстрировала, что новейшие технологии легко могут быть использованы для подмены личности. Естественно, все это взяли на вооружение кибермошенники. 

Ещё одним примером подобного использования новейших технологий стала ситуация, когда мошенники заставили сотрудника финансового отдела перевести 25 миллионов долларов, подделав лица директора и ещё нескольких коллег на совещании в прямом эфире. 

Человек, незнакомый глубоко с новейшими технологиями, справедливо задаст вопрос: «Как это может использоваться?». Попробуем дать ответ…

Слагаемое первое — голос

В фильме «Терминатор 2» одноименный персонаж продемонстрировал механизм подмены голоса, чтобы выявить злодея и спасти Джона Коннора. Однако сегодня такая технология стала больше, чем реальностью. Реальность эта намного доступнее, ведь для неё не нужно отправлять робота из будущего в прошлое. Любой злоумышленник даже без технического и ИТ-опыта буквально в пару кликов может найти инструкции и ресурсы в интернете, чтобы использовать инструменты подмены голоса как своё орудие. 

При этом не нужно быть президентом страны или публичной личностью, чтобы это орудие было использовано против вас. Оно может быть использовано против любого пользователя и гражданина. Также не нужно быть публичной личностью, чтобы злоумышленник мог получить ваш голос или голос вашего родственника. Достаточно буквально одного-двух примеров голоса вашего родственника, коллеги или знакомого, чтобы искусственный интеллект мог его воспроизвести. Злоумышленнику достаточно иметь номер телефона, который он, скорее всего, найдёт в социальных сетях. Ему хватит всего лишь одного звонка, чтобы получить достаточно «материала».

Слагаемое второе — изображение

Вторым слагаемым двойника стало лицо президента. Однако здесь тоже не нужно быть главой государства, чтобы злоумышленник смог его сгенерировать. Достаточно профиля вашего знакомого или вашего родственника в любой социальной сети, и очень вероятно, что фотографий там даже больше, чем одна. Чем больше фотографий, тем выше качество изображения и обучения механизма изменения лица. Таким образом, чтобы получить нужное «лицо» злоумышленнику даже не нужно взаимодействовать с его владельцем.

Третье слагаемое — ИИ

Уже понятно, что социальные сети становятся источником нужных номеров телефона, изображений, но ещё к таким материалам относятся и ваши контакты или «друзья» в социальных сетях, которые пополняют базу потенциальных жертв злоумышленников.

После сбора нужных материалов в виде голоса и изображения лица злоумышленник приступает к созданию клона. На этом этапе в бой вступает искусственный интеллект, поскольку вручную выполнить подмену голоса и видеомонтаж — это очень трудоёмкий и дорогой процесс. ИИ сокращает потенциально затрачиваемое время в сотни или даже тысячи раз.

В качестве первого шага на данном этапе злоумышленник записывает видео, на котором говорит необходимый текст. После чего видео отправляется на первую обработку с помощью ИИ – происходит замена голоса. Далее видео с новым голосом проходит второе преобразование, в котором настоящее лицо злоумышленника заменяется на то изображение, которое он выбрал. При этом ИИ не просто вставляет картинку, как в обычном редакторе изображений, а оживляет её – добавляет мимику и движение губ.

В итоге получается материал, готовый к использованию в злодеяниях. Важно помнить, что злоумышленник в целом может обойтись и более простой версией материала для атаки – в аудиоформате, без видеоизображения. Записывает необходимое аудио, отправляет ИИ вместе с примером нужного голоса и далее использует конечный результат.

Что делать?

Несмотря на то, что технологии являются новейшими, способы борьбы с ними такие же, как и были раньше. Стоит соблюдать пять основных правил:

  1. Остановитесь, подумайте. Злоумышленники всегда стараются застать врасплох, говорят очень быстро и подталкивают вас к немедленным действиям. Просто остановитесь и спокойно подумайте над тем, что вам сказали или написали.
  2. Доверяйте, но проверяйте. Самый простой способ убедиться в том, что вы говорите с настоящим человеком − сбросить звонок или выйти из чата и связаться с человеком, которым представился собеседник, по имеющимся у вас с ним  каналам. Это может быть номер из вашей телефонной книжки или нужный чат в мессенджере.
  3. Размещайте меньше информации. Чем меньше информации вы размещаете о себе и своих близких, тем сложнее произвести на вас атаку с подменой личности.
  4. Запишите контакты. Хорошей и простой практикой является, когда вы записываете все номера телефонов важных контактов (личных, профессиональных). Если у вас записан номер директора вашей компании, то, когда злоумышленник позвонит с другого номера и представится вашим руководителем, вам легче будет распознать обман.
  5. Используйте антиспам-приложения. Они помогут защитить вас на самом первом, «нулевом» этапе сбор информации злоумышленником, когда он проверяет собранные телефоны на актуальность. Проверяет, что на другой стороне живой человек.
По материалам РБК Компании

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *