Gartner: будущее ИИ не так радужно, как некоторые думают

Абстрактный контур головы человека с монтажной платой. Технологическая и инженерная концепция

В отчете Gartner прогнозируется, что широкое распространение ИИ окажет огромное влияние на общество, вплоть до того, что мы не будем уверены, можем ли мы доверять своим глазам.

Gartner выпустила серию исследовательских отчетов Predicts 2021, в том числе тот, в котором описываются серьезные и далеко идущие этические и социальные проблемы искусственного интеллекта (ИИ), которые, по прогнозам, возникнут в ближайшие несколько лет.

Генеративный ИИ, например, теперь может создавать реалистичные фотографии несуществующих людей и объектов. Gartner прогнозирует, что к 2023 году 20% кражи аккаунтов будут при помощи дипфейки. «Возможности искусственного интеллекта, которые могут создавать и генерировать гиперреалистичный контент, окажут трансформирующий эффект на то, насколько люди могут доверять своим глазам», – говорится в отчете.

В отчете рассматриваются пять различных прогнозов рынка искусственного интеллекта и даются рекомендации о том, как компании могут решить эти проблемы и адаптироваться к будущему:

  • К 2025 году предварительно обученные модели ИИ будут в основном сосредоточены среди 1% поставщиков, что сделает ответственное использование ИИ проблемой общества.
  • В 2023 году 20% успешных атак с захватом аккаунтов будут использовать дипфейки как часть атак социальной инженерии.
  • К 2024 году 60% поставщиков ИИ будут включать меры по предотвращению вреда/неправомерного использования в свое программное обеспечение.
  • К 2025 году 10% пправительств будут избегать проблем нарушения конфиденциальности и безопасности, используя отдельные группы населения для обучения ИИ.
  • К 2025 году 75% разговоров на рабочем месте будут записываться и анализироваться для повышения организационной ценности и оценки рисков.

Каждого из этих анализов достаточно, чтобы на них обратили внимание, но в сочетании они создают картину мрачного будущего, изобилующего этическими проблемами, потенциальным злоупотреблением ИИ и потерей конфиденциальности на рабочем месте.

Как компании могут ответить

Опасения по поводу влияния ИИ на конфиденциальность и правдивость наверняка станут основными темами в ближайшие годы, если аналитики Gartner будут точны в своих прогнозах, и успешные компании должны быть готовы быстро адаптироваться к этим опасениям.

Постоянной темой в отчете является создание в компаниях советов по этике, которые полагаются на ИИ, будь то услуга или продукт. Это особенно актуально для предприятий, которые планируют записывать и анализировать разговоры на рабочем месте: следует создать советы сотрудников для обеспечения справедливого использования записанных данных, сказал Gartner.

Gartner также рекомендует компаниям установить критерии ответственного использования ИИ и отдать приоритет поставщикам, которые «ответственно относятся к развитию ИИ и предоставляют решение соответствующих социальных проблем».

Что касается проблем безопасности, связанных с дипфейками и генеративным ИИ, Gartner рекомендует организациям запланировать обучение по дипфейкам. «Сейчас мы входим в мир нулевого доверия. Никому и ничему в этом мире нельзя доверять, не увидев подтверждение в виде криптографической цифровой подписи», – говорится в отчете.

Аналитики считают, что лучшее программное обеспечение для обнаружения дипфейков будет достигать 50% -ного уровня идентификации. Полный отчет доступен на сайте Gartner, но заинтересованные стороны должны будут заплатить за доступ.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *