2019 год для ИИ: пик формы или начало заката нейросетей

В 2019 году ощутить мощь ИИ мог буквально каждый — например, проиграв супералгоритму в Starcraft 2 или оценив очередной и вновь поразительный дипфейк. Но столь серьезный прогресс породил и дискуссию о его рубежах: как пользоваться алгоритмами, которые не могут объяснить своих решений? И какую цену человечество за это заплатит?


В 2019 году алгоритмы машинного обучения — нейросети, которые принято именовать «искусственным интеллектом» — будто разделились на два лагеря. Утилитарные сосредоточились на помощи людям и взаимодействии, а прорывные навязчиво демонстрировали, как превосходят человека уже сейчас. Разумеется, о вторых говорили намного больше — и на протяжении года выстроилась красноречивая траектория.

В 2019 году алгоритму полностью покорилась самая популярная разновидность покера — техасский холдем за столами с шестью игроками. Pluribus оказался сильнее пятерых именитых профессионалов-людей в этой изощренной игре с неполной информацией и множеством вариантов выигрыша. А затем его создатель решил побороть рак.

На слуху также были победы созданного в OpenAI алгоритма над чемпионами-людьми в Dota 2, а разработки DeepMind — в Starcraft 2. С последним алгоритмом мог «вслепую» сразиться любой, и компьютер обыграл 99,8% людей, став мастером игры за все три расы.

Однако, возможно, более показателен успех алгоритма DeepRole, о котором писали значительно меньше. Он превзошел людей в похожую на «Мафию» игру «The Resistance: Avalon», где соратники и противники заранее неизвестны. Для успеха нужно распознать мотивы других игроков, не раскрывая себя. И DeepRole сделал это, даже не пользуясь текстовым чатом — хотя для людей это неотъемлемый элемент игровой механики.

В этой сфере итог году подвел 19-кратный чемпион мира по го Ли Седоль. Он заявил, что в его любимой игре появилась «непобедимая сущность», и теперь, понимая, что никогда не сможет быть первым, он вынужден завершить карьеру и искать новый смысл жизни.

Немало внимания привлекали и кейсы нестандартного использования алгоритмов: ИИ-кража с участием алгоритма изменения голоса, британский бар со справедливой благодаря распознаванию лиц очередью или алгоритм-следователь, указавший на финансовую пирамиду.

Дипфейки

Однако ни в одной другой сфере прогресс не был более нагляден для неспециалистов, чем в создании дипфейков — видеофрагментов, где человек «произносит» слова, которые говорил кто-то другой. YouTube-канал Ctrl Shift Face, «вклеивающий» лица одних актеров на место других, стал одним из событий года.

Однако сама технология породила множество сомнений: как жить в мире, где даже видео перестало отражать реальность? Один из пионеров ИИ-редактирования Хао Ли считает, что максимум через год дипфейки станут неотличимыми от документальных кадров. Теперь он работает над способами разоблачения подделок.

Впрочем, эксперты MIT предупредили, что главные угрозы, порождаемые дипфейками, не устранить никакими технологиями.

При этом дипфейки становятся не только все реальнее, но и все более доступными. В конце ноября команда исследователей из Кореи представила алгоритм, правдоподобно оживляющий лица по одной фотографии.

Тупик машинного обучения

Оборотной стороной столь заметного прогресса стало внимание к теме ИИ широкой общественности. Оно породило новые вопросы, обсуждаемые на конференциях, которые собирали рекордное количество специалистов.

Вопросы эти касались не только сомнений в приватности. Главной проблемой остается схема «черного ящика», который устанавливает связи и выносит суждения необъяснимым образом. С одной стороны, это ограничивает области принятия решений, которые мы готовы доверить ИИ. С другой — резко повысило объем ресурсов в нынешней экстенсивной схеме развития. Модели обучения становятся все более объемными, поглощая и обрабатывая гигабайты данных — и требуя все больше энергии.

Экологи подсчитали, что обучение одной нейросети в 2019 году выбрасывало в атмосферу почти 300 тонн СО2, так что ИИ может погубить человечество вместо того, чтобы начать новую главу в истории вида, приведя нас к технологической сингулярности.

Стоит отметить, что для нужд ИИ был создан и самый большой чип — в нем 1,2 трлн транзисторов.

На этом фоне все чаще стали звучать голоса специалистов, которые призывали искать альтернативный путь. Разделились они на два лагеря. Одни заняты проблемой эффективности обучения нейросетей. Представитель этого лагеря — глава разработки ИИ Facebook Ян Лекун, считающий, что алгоритмы со схемой спонтанного обучения, которые постигают мир как подобно детям, спасут идею. Другие исследователи, например футуролог Тим О’Райли, призывали не делать единственную ставку на ИИ, а подумать о грядущем симбиозе человека и машины.

Появились у ИИ и новые неожиданные сторонники. Уйдя с управляющего поста в Oculus, посвятить себя созданию сильного ИИ пообещал легендарный Джон Кармак — создатель компьютерных игр Doom и Quake, которые определили законы жанра шутеров и в целом трехмерных игровых миров на десять лет вперед. Джон назвал сильный ИИ проблемой без очевидного решения, которые его всегда привлекали.

По материалам Хайтек+. Автор Александр Носков.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *