Педофилы активно используют системы генеративного искусственного интеллекта для «омоложения» знаменитостей на фотографиях и создания их детских снимков сексуального характера. Кроме того, в интернете обнаружены тысячи ИИ-изображений, на которых демонстрируется насилие над детьми. Об этом говорится в отчёте неправительственной британской организации Internet Watch Foundation (IWF), опубликованном 25 октября 2023 года.
Сообщается, что только в течение сентября 2023-го на одном из форумов в даркнете были опубликованы приблизительно 3 тыс. изображений, созданных посредством ИИ-алгоритмов и изображающих сексуальное насилие над детьми. Причём примерно каждое пятое такое изображение (564 штуки) признано максимально неприемлемым: речь идёт об изнасилованиях, сексуальных пытках и зоофилии. На 1372 из выявленных изображений показаны дети младшего школьного возраста (от 7 до 10 лет), на 143 картинках — дети в возрасте от трёх до шести лет, а на двух изображениях — малыши до двух лет.
Злоумышленники генерируют изображения звёзд в детском возрасте и придумывают с ними различные истории. Инструменты ИИ также используются для создания изображений детей в раздетом виде на основе фотографий, которые были загружены в интернет в легальных целях. Снимки детей применяются для обучения ИИ-моделей с целью последующего формирования дипфейков.
IWF отмечает, что некоторые ИИ-модели работают настолько эффективно, что даже опытным специалистам сложно отличить сгенерированные изображения от реальных фотографий. В дальнейшем такие инструменты будут совершенствоваться, что создаст дополнительные трудности для правоохранительных органов, занимающихся выявлением педофилов. IWF опасается, что поток реалистичных ИИ-материалов приведёт к тому, что аналитики будут впустую тратить время на изучение дипфейков вместо поиска реальных преступников.
По материалам TAdviser