ИИ играет в прятки сам с собой

Некоммерческая лаборатория OpenAI, созданная в 2015 году при участии Илона Маска, продолжает экспериментировать с искусственным интеллектом. В этот раз ее сотрудники обучили компьютер игре в прятки. Для этого они разместили на небольшой виртуальной площадке синих и красных человечков. Синие прятались, а красные —…

Дипфейки – медиаинструмент в политической борьбе

Дипфейки – медиаинструмент в политической борьбе

Атака дипфейков на нашу реальность. В Интернете более 14 000 поддельных видеороликов, которые посмотрели минимум 134 млн. раз. 96 % — это фильмы для взрослых, куда нейросеть «приклеила» лица актеров, политиков и других известных персон.

порно со мной в главной роли могут снять без моего ведома

Это правда, что порно со мной в главной роли могут снять без моего ведома. А преступников накажут?

Порнография онлайн привлекает миллионы людей, готовых смотреть на секс. Достаточно ввести запрос в интернет, и вам покажут все, что пожелаете, в любое время и в любом месте. А с появлением «фейкового порно» возможности расширились: можно заказать видео с человеком, который никогда не занимался сексом на камеру. Эксперты предупреждают, что такие ролики несут в себе много рисков. Видеомейкеры могут использовать изображения детей или людей, которым заказчик контента хочет отомстить.

© Алексей Дурасов/ТАСС

Соцсети начнут больше бороться с фейками. Каковы их шансы на успех?

С 5 марта Twitter начинает удалять фейковые видео и фото или помечать их соответствующим образом. Ранее Facebook объявил, что начнет разработку алгоритма, который будет отличать deepfake-изображения.

«Глубокие фейки» и национальная безопасность

«Глубокие фейки» и национальная безопасность – оценка потенциального влияния

Глубокие фейки (deepfake; дипфейк) – технологии искусственного синтеза человеческого изображения на основе нейросетей и искусственного интеллекта. С помощью технологии одним из первых был создан ролик «Вы не захотите поверить тому, что Обама скажет в этом видео», в котором бывший президент…

Какие опасности нейросетей мы недооцениваем

Какие опасности нейросетей мы недооцениваем?

Случалось ли вам встречать на улице человека, который один в один был бы похож на вас? Одежда, лицо, походка, манера общения, повадки полностью идентичны вашим. Как будто вас отсканировали и распечатали на принтере. Звучит немного жутковато, не так ли? А теперь…

Чем это угрожает миру и можно ли от него спастись

Deepfake. Чем это угрожает миру и можно ли от него спастись

Дипфейки используют лица не только звезд мира культуры, но и ведущих мировых политиков. И это уже вообще не шутки. Еще в апреле 2018 г. привлек внимание к этой проблеме актер и режиссер Джордан Пил. Для пущей наглядности он сам выступил в дипфейк-ролике, где под видом 44-го президента США Барака Обамы предостерег от опасности дипфейковых новостей. «Мы вступаем в эру, в которой наши враги могут заставить любого сказать что угодно и когда угодно», – объявил дипфейковый «Обама».