Рубрика «Deepfake»

Обновление FaceFusion v3.0.0 — ультимативной нейросети для дипфейков - 1

Всем привет!

В этой статье взглянем на FaceFusion версии 3.0.0 — мощный инструмент для замены лиц на изображениях и видео!

Для использования понадобится всего лишь фотография в профиль. Также в статье расскажу, как не париться с установкой и запустить FaceFusion в один клик.

Основные возможности FaceFusion:

Тинькофф банк вернул 200 тысяч. Это был не дипфейк - 1

В прошлом посте я поделился историей, как мошенник подтвердил мою личность в банке.

Что случилось

Мошенники вывели 200 тысяч, получив доступ к личному кабинету Тинькофф:

18 января мне пришло СМС от банка, где был запрошен видео-звонок. Уведомления были отключены, поэтому их не заметил.

21 январяЧитать полностью »

Deepfakes и deep media: Новое поле битвы за безопасность - 1

Эта статья является частью специального выпуска VB. Читайте полную серию здесь: AI and Security.

Количество дипфейков – медиа, которые берут существующее фото, аудио или видео и заменяют личность человека на нем на чужую с помощью ИИ – очень быстро растет. Это вызывает беспокойство не только потому, что такие подделки могут быть использованы, чтобы влиять на мнения людей во время выборов или впутывать кого-то в преступления, но и потому, что ими уже злоупотребляли для создания фейкового порно и обмана директора британской энергетической компании. Читать полностью »

image

Гендиректор Alphabet Сундар Пичаи в своей колонки для Financial Times рассказал об угрозах, которые таит в себе искусственный интеллект и заявил о необходимости контролировать развитие технологии как со стороны компаний, так и государств.

Пичаи считает ИИ одной из самых многообещающих технологий. Однако он отмечает, что она может использоваться и для подделки видео, и для распространения ложной информации. Читать полностью »

Создавая это видео, я научился многому

Технология дипфейков использует глубокие нейронные сети для убедительной замены на видео одного лица другим. У этой технологии есть очевидный потенциал для злонамеренного использования, и она становится всё более распространённой. По поводу социальных и политических последствий этого тренда было написано уже много хороших статей.

И это не одна из них. Вместо этого я сам поближе ознакомлюсь с этой технологией: как работает ПО для дипфейков? Насколько сложно их создавать, и насколько хорошими получаются результаты?

Я решил, что лучше всего ответить на эти вопросы, создав собственное дипфейк-видео. Редакция выделила мне сколько дней на то, чтобы поиграться с ПО и $1000 на оплату облачных вычислений. Через пару недель я получил результат, представленный на видео в начале статьи. Начал я с видео Марка Цукерберга, выступающего перед конгрессом, и заменил его лицо на лейтенант-командера Дейту (Брента Спайнера) из фильма «Звёздный путь: следующее поколение». Всего было потрачено $552.
Читать полностью »

7 лет хайпа нейросетей в графиках и вдохновляющие перспективы Deep Learning 2020-х - 1

Новый год все ближе, скоро закончатся 2010-е годы, подарившие миру нашумевший ренессанс нейросетей. Мне не давала покоя и лишала сна простая мысль: «Как можно ретроспективно прикинуть скорость развития нейросетей?» Ибо «Тот, кто знает прошлое — тот знает и будущее». Как быстро «взлетали» разные алгоритмы? Как вообще можно оценить скорость прогресса в этой области и прикинуть скорость прогресса в следующем десятилетии? 

7 лет хайпа нейросетей в графиках и вдохновляющие перспективы Deep Learning 2020-х - 2

Понятно, что можно примерно посчитать количество статей по разным областям. Метод не идеальный, нужно учитывать подобласти, но в целом можно пробовать. Дарю идею, по Google Scholar (BatchNorm) это вполне реально! Можно считать новые датасеты, можно новые курсы. Ваш же покорный слуга, перебрав несколько вариантов, остановился на Google Trends (BatchNorm)

Мы с коллегами взяли запросы основных технологий ML/DL, например, Batch Normalization, как на картинке выше, точкой добавили дату публикации статьи и получили вполне себе график взлета популярности темы. Но не у всех тем путь усыпан розами взлет такой явный и красивый, как у батчнорма. Некоторые термины, например регуляризацию или skip connections, вообще не получилось построить из-за зашумленности данных. Но в целом тренды собрать удалось.

Кому интересно, что получилось — добро пожаловать под кат!
Читать полностью »

image

Власти Китая объявили любую публикацию заведомо ложной информации, в том числе дипфейков, уголовным преступлением. Соответствующий закон вступит в силу 1 января 2020 года.

Согласно новым нормам, все дипфейки нужно будет отмечать специальной пометкой, которая будет предупреждать пользователей о том, что это ненастоящая новость. Читать полностью »

image

Facebook AI Research заявила о разработке системы машинного обучения, которая не дает искусственному интеллекту определять людей по видео. На этой технологии основаны все современные системы распознавания лиц.

Разработчики утверждают, что ИИ для автоматической модификации видео не требует дополнительного обучения под конкретное видео. Как пояснил инженер-исследователь Facebook AI и профессор Тель-Авивского университета Лиор Вольф, система объединяет состязательный автокодировщик с нейросетью. Алгоритм просто заменяет лицо человека его слегка искаженной версией, а ИИ использует архитектуру кодировщика-декодера и генерирует искаженные и неискаженные изображения лица человека, которые затем можно встроить в видео. Разработка показала на видео, как это работает.Читать полностью »

Калифорния ввела два закона против дипфейков - 1

Губернатор Калифорнии Гэвин Ньюсом подписал два законопроекта, касающихся дипфейков. Первый делает незаконным размещение любых видео с манипуляциями в политических целях — например, замена лица или речи кандидата для его дискредитации. Другой позволит жителям государства подать в суд на любого, кто использует дипфейк в порнографическом видео.

Дипфейки могут быть забавными, однако некоторые могут принести ощутимый вред. Например, дипфейк-видео со спикером палаты представителей конгресса США Нэнси Пелоси, на котором была изменена её речь. Создавалось впечатление, что политик была пьяна и едва выговаривала свои слова. Видео было опубликовано на Facebook, и компания не согласилась удалить его сразу, заявив, что вместо этого разместит статью-опровержение, в которой будет подчеркиваться факт редактирования речи.
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js