В реальном мире мы полагаемся не только на внешность, чтобы идентифицировать человека. Точно так же в цифровом мире нам нужно выйти за рамки физической биометрии и учитывать передовые технологии, такие как ИИ и машинное обучение (ML), которые распознают поведенческие черты. Рассмотрим гипотетический пример: ваш сосед, Лин, стучит в вашу дверь, чтобы одолжить газонокосилку. Вы уверены, что одолжили ей это, потому что, во-первых, вы узнаете Лин (физиологию). Во-вторых, для вас не является неожиданностью видеть вашего соседа у входной двери (контекст). В-третьих, Лин заимствовал газонокосилку раньше (история), и в результате вы оцениваете (интеллект) риск одолжить ей газонокосилку как низкий. Все эти факторы в совокупности создают высокий уровень уверенности в этом конкретном взаимодействии. Таким же образом, AI и ML способны учиться распознавать поведение, соответствующее поставленной задаче, и принимать решения за доли секунды. В мобильной коммерции поведенческая аналитика может оценить пассивную биометрию того, как человек взаимодействует со своим телефоном: как он печатает, проводит пальцами по веб-сайтам и приложениям и перемещается по ним. Из этих отдельных точек данных можно создать профиль пользователя, который мошенникам сложно подделать. AI и ML решения также эффективны, потому что они учатся. Чем больше образцов, тем умнее будет идентификация. Они также могут быть динамичным присутствием. Известный как непрерывная проверка, множественные поведенческие биометрии могут быть объединены в фоновом режиме, чтобы постоянно проверять человека, без этого дополнительного уровня безопасности, вызывающего любое нарушение вообще. Важно отметить, что эти методы аутентификации не требуют обширной личной информации. Вам не нужно знать дату или место рождения Лин, ее судимость, банковский счет или девичью фамилию, чтобы одолжить ей газонокосилку. Вам просто нужно знать достаточно, чтобы узнать Лин и быть уверенным, что ей можно доверять в этом взаимодействии.

Швейцарские ученые хотят помешать нейросетям копировать реальность

Пока самые известные и популярные видео, изготовленные с применением технологии Deepfake, — это пародии на политиков и знаменитостей. Однако эта техника может быть использована и для вмешательства в политические процессы, а также с целью манипулирования общественным мнением.