Amazon Alexa научилась говорить голосами мёртвых

Amazon презентовал новую функцию, позволяющую Alexa имитировать любой голос на основе его минутной аудиозаписи. Microsoft, наоборот, ввела жёсткие ограничения на подобные вещи.

Дочитает ли бабушка сказку

Amazon планирует снабдить виртуального помощника Alexa возможностью имитировать голос любого человека, живого или мёртвого. Для этого Alexa достаточно будет лишь прослушать минутную аудиозапись голоса, который она должна будет воспроизводить.

Впервые эту функцию продемонстрировали на конференции Amazonre: Mars в Лас-Вегасе. Собравшимся показали короткое видео, где ребёнок спрашивает: «Alexa, может бабушка дочитать мне “Волшебника страны Оз”?», после чего Alexa переключается на более человеческий голос (очевидно, принадлежавший покойной родственнице) и читает фрагмент из классической сказки.

«Это достижение потребовало новых подходов; нам нужно было научиться производить высококачественную имитацию голоса из менее чем минутных записей, вместо нескольких часов студийных записей. Нам удалось этого добиться, подойдя к вопросу со стороны конверсии голоса, а не генерации речи»

Рохид Прасад (Rohid Prasad), руководитель научного направления проекта Amazon Alexa

По его словам, речь идёт об «обобщаемом» интеллекте, который позволяет Alexa адаптироваться к различным условиям и перерабатывать свой опыт в знания с минимальным вмешательством людей. Такая система отличается от общего (или «истинного») ИИ, цель которого — решать проблемы так же, как это делает человеческий разум.

Amazon Alexa заговорил голосами родственников, безвременно умерших от COVID-19

Прасад также добавил, что запрос на имитацию голоса сейчас весьма высок, поскольку, многие люди потеряли близких во время пандемии COVID-19: «Хотя ИИ не может облегчить боль потери, он может дольше сохранять воспоминания».

Когда эта функция станет доступна широкой публике, впрочем, в Amazon отвечать отказываются.

И о последствиях

Amazon не единственный, кто разрабатывает подобные решения. Однако такие проекты слишком чреваты злоупотреблениями.

«Достоверная имитация чьего-либо голоса открывает широкие возможности для злоупотреблений; самый простой сценарий — это поддельный звонок родственникам с просьбой переслать денег на такой-то номер или озвучить какую-либо конфиденциальную информацию, которая затем может использоваться для причинения серьёзного вреда, — говорит Дмитрий Кирюхин, эксперт по информационной безопасности компании SEQ. — Ну, и сама идея продлить воспоминания об умерших людях, имитируя их голоса, также выглядит довольно неоднозначно. Хотя и на такое спрос, вероятно, будет».

На днях Microsoft со своей стороны объявила о том, что серьёзно ограничивает доступ к своим ИИ-разработкам, связанным с генерацией натурально звучащей речи. В частности, теперь имитировать голос того или иного человека будет возможно только с письменного разрешения обладателя голоса.

По материалам CNews. Автор Роман Георгиев

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *