Согласно новому отчету, фальшивый аудио или видеоконтент был признан экспертами наиболее опасным видом использования искусственного интеллекта.
Термин «deepfake» относится к видео или аудио файлам, в которых искусственный интеллект с помощью глубокого обучения (метод алгоритмического обучения компьютерной программы) используется для того, чтобы заставить всех поверить в то, чего на самом деле не происходило. Яркие примеры этого,- представляют собой сфальсифицированное видео президентского послания Ричарда Никсона по случаю запуска миссии Аполлон-11 или речь Барака Обамы оскорбляющего Дональда Трампа. Такие видео быстро распространяются в сети и носят характер «вирусных».
Авторы исследования пояснили, что контент «deepfake» представляет опасность по ряду причин, одна из которых заключается в том, что его будет сложно распознать. Это связано с тем, что программы-детекторы дипфейков требуют постоянного обучения с помощью сотен оригинальных видеороликов и должны тратить на это большое количество времени в каждом случае, в то время как злоумышленники могут добиться успеха загрузив или отправив поддельный контент за пару секунд.
Вторая причина заключается в том, что дипфейки могут использоваться для различных преступлений, например, для дискредитации общественных деятелей, или для вымогательства и шантажа. Долгосрочный эффект от этого может привести к недоверию к аудио и видео свидетельствам в целом, что, по мнению исследователей, нанесет вред обществу и правосудию.
«Люди теперь проводят большую часть своей жизни в интернете, в котором аккумулируется огромное количество информации, и их деятельность в сети может создавать и разрушать репутацию человека. Такая информационная онлайн-среда идеально подходит для занятия преступной деятельностью, основанной на искусственном интеллекте», — сказал доктор Мэтью Колдуэлл, автор исследования.
В отличие от многих традиционных преступлений, преступления в «цифровом мире» можно легко распространять, повторять и даже продавать, что позволяет злоумышленникам предлагать их в качестве товара или услуги. Это означает, что преступники могут отдать на аутсорсинг более сложные аспекты своей деятельности с использованием искусственного интеллекта.
В настоящее время «deepfakes» преимущественно используется для создания видео категории «для взрослых». В июне 2020 года, исследование показало , что 96% всех поддельных роликов имеют непристойный контекст, и почти в 100% этих случаев используется женский образ.
Помимо проблемы дипфейк-контента, исследователи обнаружили еще пять преступлений с использованием искусственного интеллекта (ИИ), которые могут стать серьезной проблемой в будущем. К ним относятся использование ИИ для взлома программного обеспечения беспилотных автомобилей, использование ИИ для адаптации фишинговых сообщений, нарушение работы систем управляемых машинами с программным обеспечением, написание фейковых новостей и сбор онлайн-информации для шантажа.
По материалам Social Media News