Худшие угрозы искусственного интеллекта

Как будто 2020 год не был достаточно катастрофическим, команда ученых, политиков и инсайдеров ИИ предупреждает нас о проблемах на горизонте. 18, если быть точным. Это основные угрозы ИИ, о которых нам следует беспокоиться в следующие 15 лет.

Научная фантастика и популярная культура хотят, чтобы мы поверили, что наша гибель будет вызвана бунтом разумных роботов. Фактически один недавнее обучение в криминалистике показывает, что самая серьезная угроза будет больше связана с нами, чем с самим искусственным интеллектом.

Оценивая угрозы на основе потенциального вреда, прибыльности, жизнеспособности и поражения, группа определила, что deepfake, технология, которая уже существует и распространяется, представляет наивысший уровень угрозы.

Дипфейк, враг номер один

Есть фундаментальная разница между роботизированным бунтом и технологией дипфейка. Первый мог нанести материальный ущерб. Второй – системный: он может вызвать эрозию доверия к людям и к самому обществу.

Худшая угроза со стороны искусственного интеллекта всегда может казаться чем-то далеким в будущем. В конце концов, как ИИ может навредить нам, если Алекса сегодня даже не может правильно установить таймер макарон? Шейн Джонсон, Директор Dawes Center for Future Crimes при UCL, который финансировал исследование, объясняет, что эти угрозы будут становиться все более изощренными и переплетаться с нашей повседневной жизнью.

«Мы живем в постоянно меняющемся мире, который создает новые возможности, хорошие и плохие», Джонсон предупреждает. «Вот почему приоритетной задачей является предвидение будущих угроз преступности, чтобы политики и другие компетентные лица могли сделать это до того, как возникнут серьезные проблемы».

Авторы признают, что суждения, высказанные в этом исследовании, по своей сути спекулятивны по своей природе и зависят от нашего нынешнего политического и технического ландшафта, но нельзя игнорировать будущее этих технологий.

Как родился «плейлист» самых страшных угроз

Чтобы сформулировать свои прогнозы на будущее, исследователи собрали команду из 14 ученых в смежных областях, семи экспертов частного сектора и 10 экспертов государственного сектора.

Затем эти эксперты были разделены на группы по четыре-шесть человек и получили список потенциальных проблем, которые может создать ИИ. Сценарии варьируются от физических угроз (автономные атаки дронов) до цифровых форм угроз, таких как фишинг.

Чтобы сделать свое заключение, команда рассмотрела четыре основных характеристики атак:

  • Возможный ущерб
  • рентабельность
  • осуществимость
  • уязвимость

Для экспертов ущерб от дипфейка будет материальным, моральным и даже социальным. Они также могут нанести вред другим искусственным интеллектам (например, уклоняясь от распознавания лиц) или быть косвенными плодами (например, шантажировать людей с помощью глубокого подделки видео).

Хотя эти факторы невозможно отделить друг от друга (например, ущерб от атаки может фактически зависеть от ее осуществимости), экспертов попросили рассмотреть влияние этих критериев отдельно.

Затем оценка различных групп экспертов была заказана для определения наиболее разрушительных атак, которые мы увидим с помощью ИИ (или ИИ) в следующие 15 лет.

График, показывающий распределение различных угроз по разным квадрантам

Избалованный выбором

Как уже упоминалось, сравнивая 18 различных типов угроз ИИ, группа определила, что манипуляции с видео и аудио в форме дипфейков являются наихудшими угрозами за всю историю.

«Люди имеют сильную тенденцию верить своим глазам и ушам. Вот почему аудио- и видеодоказательствам традиционно уделяется большое внимание (а часто и юридическая ценность), несмотря на долгую историю фотографических обманов », — объясняют авторы. «Но недавние разработки в области глубокого обучения (и дипфейков) значительно увеличили шансы на создание поддельного контента».

Возможные последствия этих манипуляций?

От людей, обманывающих пожилых людей, выдавая себя за члена семьи, до видеороликов, призванных посеять недоверие к общественным и государственным деятелям. Атаки, которые трудно обнаружить отдельным людям (а в некоторых случаях даже экспертам) и которые трудно остановить.

К другим серьезным угрозам относятся автономные транспортные средства, используемые в качестве дистанционного оружия. Интересно, что группа сочла роботов-роботов (маленькие роботы, которые могут лазить по сточным канавам, чтобы украсть ключи или открыть двери для воров-людей) как одну из наименее опасных угроз.

Худшие угрозы ИИ. Так мы закончили?

Нет, но над этим надо работать. На наших оптимистичных изображениях есть какая-то кнопка, чтобы остановить всех роботов и все злые компьютеры.

На самом деле угроза не столько в самих роботах. Это то, как мы используем их, чтобы манипулировать друг другом и причинять им вред.

Если мы поймем это и сделаем все возможное, чтобы предвидеть эти опасности, мы действительно сможем противостоять любому роботизированному апокалипсису.

По материалам Futuroprossimo. Автор Джанлука Риччио

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *