Эксперты призывают обходиться с искусственным интеллектом (ИИ) с большей осторожностью и не практиковать подход Кремниевой долины, подразумевающий прогресс без оглядки на что бы то ни было ещё.
ИИ и его угрозы
Дэмис Хассабис (Demis Hassabis), сооснователь лаборатории Google Deepmind, одной из крупнейших ИИ-фирм в Великобритании, призвал отрасль искусственного интеллекта ни в коем случае не копировать подход Кремниевой долины. Формула «несись вперёд, сметая всё», работала с «обычными» информационными технологиями, но, считает Хассабис, ИИ имеет слишком большое значение.
«[Формула] была очень успешной в том, что касается создания гигантских компаний и предоставления великолепных сервисов и приложений, но ИИ слишком важен», – заявил Дэмис Хассабис. По его мнению, необходимо проделать много работы, чтобы удостовериться в понимании [ИИ-систем] и в том, что мы знаем, как их эксплуатировать безопасно и ответственно.
При этом, главную опасность ИИ представляет возможностью генерации дезинформации и дипфейков, а также эксплуатацию ИИ-технологий потенциальными злоумышленниками.
«Манипулирование информацией, безусловно, опасный фактор, однако куда опаснее – возможность полного выхода ИИ из-под контроля. До сих пор не существует никаких стандартов или ограничений для ИИ, их только обсуждают, но куда медленнее, чем происходит эволюция технологий искусственного интеллекта», – говорит генеральный директор компании «Информационные технологии будущего» Дмитрий Гвоздев. По его словам, ИИ способен принимать решения и действовать в онлайне на порядки быстрее человека, а идея, что если всё выйдет из-под контроля, то мы сможем просто вынуть штепсель из розетки, – не более, чем иллюзия. «Для нас всё может произойти мгновенно, без предупреждения и с совершенно неожиданной стороны.
Например, ИИ, созданный в совершенно утилитарных целях, из-за ошибки или злого умысла разработчиков, вдруг получает доступ к обширным расчётным мощностям и выход в интернет», – продолжает мысль Дмитрий Гвоздев. Он считает, что в результате таких событий ИИ способен принять решения о вреде человечества или его части для стоящих перед ним задач. И это может очень плохо закончится для тех, кого он посчитает помехой.
Как побороть эти угрозы
В Великобритании проходит Саммит по безопасности искусственного интеллекта, в котором участвуют более ста мировых лидеров, представителей академических кругов, исследователей ИИ и руководителей крупнейших ИТ-компаний.
Некоторые из них загодя сделали громкие заявления. Например, Илон Маск (Elon Musk) выдал на-гора, что если ИИ будут «программировать» люди «из экологического движения», то они могут воспользоваться этими технологиями для защиты жизни на планете путём устранения человечества.
Выступал он в подкасте скандально известного ведущего Джо Рогана (Joe Rogan), и до какой степени это было своеобразной шуткой, а до какой – реальным мнением главы Tesla и X/Twitter, сказать сложно.
Ранее, однако, Маск призывал объявить полугодовой мораторий на разработки ИИ – как раз из соображений безопасности.
В свою очередь, экс-президент Meta и бывший вице-премьер Великобритании Ник Клегг (Nick Clegg), считает, что ключевая опасность заключается в излишнем внимании к перспективам и увлечении футуризмом, в то время как существуют вполне реальные и серьёзные проблемы сегодняшнего дня. По его мнению, не стоит переводить акцент с актуальных вызовов на спекуляции о будущем.
Между тем, ключевыми темами Саммита стали и текущие и возможные в будущем достоинства и проблемы ИИ. Обсуждается, как максимизировать потенциал ИИ в борьбе с заболеваниями и потенциально фатальными изменениями климата, и одновременно как минимизировать риски – побочные и прямые.
В приоритетном порядке планируется обсуждать и экстремальные угрозы, которые формирует так называемый авангардный ИИ (frontier AI), самые передовые технологии искусственного интеллекта, которые Хассабис окрестил «наконечником копья». Кроме этого, много внимания будет уделено биотерроризму и кибератакам.
По материалам News