Специалисты считают дипфейк опасным преступлением будущего

Deepfake — самое опасное преступление будущего
Фото retail-life.ru

Согласно новому отчету, фальшивый аудио или видеоконтент был признан экспертами наиболее опасным видом использования искусственного интеллекта.

Термин «deepfake» относится к видео или аудио файлам, в которых искусственный интеллект с помощью глубокого обучения (метод алгоритмического обучения компьютерной программы) используется для того, чтобы заставить всех поверить в то, чего на самом деле не происходило. Яркие примеры этого,- представляют собой сфальсифицированное видео президентского послания Ричарда Никсона по случаю запуска миссии Аполлон-11 или речь Барака Обамы оскорбляющего Дональда Трампа. Такие видео быстро распространяются в сети и носят характер «вирусных».

Норвежские исследователи нашли первое полезное применение DeepFake-технологии: с ее помощью предложили анонимизировать людей на фото и видео

Авторы исследования пояснили, что контент «deepfake» представляет опасность по ряду причин, одна из которых заключается в том, что его будет сложно распознать. Это связано с тем, что программы-детекторы дипфейков требуют постоянного обучения с помощью сотен оригинальных видеороликов и должны тратить на это большое количество времени в каждом случае, в то время как злоумышленники могут добиться успеха загрузив или отправив поддельный контент за пару секунд.
Вторая причина заключается в том, что дипфейки могут использоваться для различных преступлений, например, для дискредитации общественных деятелей, или для вымогательства и шантажа. Долгосрочный эффект от этого может привести к недоверию к аудио и видео свидетельствам в целом, что, по мнению исследователей, нанесет вред обществу и правосудию.

Deepfake — самое опасное преступление будущего
Фото vladtime.ru

«Люди теперь проводят большую часть своей жизни в интернете, в котором аккумулируется огромное количество информации, и их деятельность в сети может создавать и разрушать репутацию человека. Такая информационная онлайн-среда идеально подходит для занятия преступной деятельностью, основанной на искусственном интеллекте», — сказал доктор Мэтью Колдуэлл, автор исследования.
В отличие от многих традиционных преступлений, преступления в «цифровом мире» можно легко распространять, повторять и даже продавать, что позволяет злоумышленникам предлагать их в качестве товара или услуги. Это означает, что преступники могут отдать на аутсорсинг более сложные аспекты своей деятельности с использованием искусственного интеллекта.

Deepfake — самое опасное преступление будущего
Фото focus.ua

В настоящее время «deepfakes» преимущественно используется для создания видео категории «для взрослых». В июне 2020 года, исследование показало , что 96% всех поддельных роликов имеют непристойный контекст, и почти в 100% этих случаев используется женский образ.
Помимо проблемы дипфейк-контента, исследователи обнаружили еще пять преступлений с использованием искусственного интеллекта (ИИ), которые могут стать серьезной проблемой в будущем. К ним относятся использование ИИ для взлома программного обеспечения беспилотных автомобилей, использование ИИ для адаптации фишинговых сообщений, нарушение работы систем управляемых машинами с программным обеспечением, написание фейковых новостей и сбор онлайн-информации для шантажа.

По материалам Social Media News

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *