Нейросеть от Facebook ломает мозг (и другие нейросети). Людей подменяют двойниками, и попробуй их отличи

Facebook разработала технологию деидентификации лиц: это нейросеть, которая способна обманывать другие нейросети. Алгоритм вносит неуловимые изменения во внешность человека на видео. Так что вы даже не заметите, как перед вами оказалась вовсе не Дженнифер Лоуренс, а кто-то совсем другой.

Разработчики Facebook AI Research 27 октября показали новинку, которая представляет собой алгоритм деидентификации лиц. Подобные технологии создавались и раньше, однако эта нейросеть — первая, которая умеет обрабатывать видео в режиме реального времени, пишет VentureBeat.

Новинка от Facebook меняет внешность человека на видео, но так, что другие люди этого практически не замечают. Всё окружение, поза, мимика остаются прежними, но вносимых изменений достаточно, чтобы поставить в тупик алгоритмы распознавания. Это касается как внешности, так и голоса.

В качестве примера работы нейросети показана нарезка из интервью голливудских звёзд: Дженнифер Лоуренс, Уиллема Дефо, Сары Джессики Паркер, Галь Гадот, Джорджа Клуни и других. Если внимательно приглядеться, изменения всё же можно заметить. К примеру, у  Дженнифер Лоуренс меняется форма и цвет губ, а нос становится крупнее; а у Джорджа Клуни сглаживается его выразительный подбородок.

Facebook поясняет, что эта технология — ответ на потенциальные угрозы, которые несут в себе различные алгоритмы идентификации.

Распознавание лиц может вести к потере конфиденциальности, а технологии их замены могут быть использованы для создания вводящих в заблуждение видео… Злоупотребление идентификацией лиц делает создание методов деидентификации необходимостью.

Как пишет The Verge, Facebook пока не планирует внедрять эту технологию в свои коммерческие продукты. Но в дальнейшем алгоритм могут использовать для защиты частной жизни пользователей и борьбы с фейковыми видео.

Речь идёт в первую очередь о дипфейках — видео, созданных при помощи технологии, позволяющей заменить лицо человека на любое другое. Например, всех «Ангелов Чарли» — на Михаила Ефремова. Впрочем, чаще всего возможности этой нейросети используются в порно, от чего пострадала уже упоминавшаяся выше актриса Галь Гадот.