На GitHub появились исходники приложения под Windows, которое дает возможность изменять лица людей на любом видео. Инструмент полностью бесплатен, выложен он с инструкцией и подробными комментариями.
Исходники выложены на аккаунте iperov. О проекте сообщается лишь то, что он называется Deepfacelab, а разработка его ведется с 2018 года. Автор программы — не команда, а всего один человек.
Приложение не имеет графического интерфейса, это набор пакетных файлов (батники, .bat) для ОС Windows. Системные требования очень мягкие — для того, чтобы программа могла работать, компьютер должен иметь 2 ГБ ОЗУ и место для файла подкачки. Видеокарта должна быть совместима с OpenCL (Open Computing Language) и иметь не менее 256 МБ ОЗУ. ОС — Windows 7 или выше.
Речь идет, фактически, о нейронной сети. Для ее обучения используются ресурсы не только видеокарты, но и процессора. В комментариях к проекту говорится, что восьмое поколение процессоров Intel позволяет системе быстро обучаться — всего за два дня тренировок она демонстрирует неплохие результаты.
Кроме основного приложения, его файлов, устанавливать ничего не нужно. Главное — чтобы был установлен драйвер видеокарты. В приложении есть режим выделения лиц людей вручную, плюс поддерживается сортировка извлеченных лиц для быстрого удаления ненужных, плюс быстрая работа с видео.
По словам автора программы, он не гарантирует идеальной работы нейросети, поскольку она может пропускать некоторые кадры. Но при условии достаточного обучения результат должен быть хорошим. В большой степени он зависит от качества исходного видео, относительной схожести лиц, освещения и многих других факторов.
Принцип работы приложения такой же, как и у аналогов. Изначально анализируется большое количество изображений определенного человека с разных ракурсов. Затем, используя полученный результат, система генерирует видео, где человек с фото выполняет разные действия.
Подобные программы — не игрушка. Они могут использоваться для создания фальшивок с участием известных людей — политиков, бизнесменов, актеров. В Сети неоднократно выкладывались примеры таких фейков, некоторые из них очень сложно отличить от оригинала, настолько качественно сделана копия.
Плюс ко всему, существуют и технологии подделки голосов. Все эти системы постоянно совершенствуются, так что уже через несколько лет можно ожидать появления настолько естественно выглядящих (и звучащих) фейков, что выявить подделку можно будет лишь после тщательного анализа исходного материала.
Голосовые подделки также используются злоумышленниками — в частности, для того, чтобы обмануть банковских сотрудников и убедить их выполнить неавторизованные транзакции.
Автор: marks