Рубрика «Deepfake» - 2

Не смотря на все прелести интернета, у него есть много минусов, и один из самых ужасных – это введения людей в заблуждение. Кликбейт, монтаж фотографий, ложные новости – все эти инструменты активно используются для обмана обычных пользователей в мировой сети, но в последние годы набирает обороты новый потенциально опасный инструмент, известный как DeepFake.

Меня данная технология заинтересовала недавно. Впервые о ней я узнал из доклада одного из спикеров на “AI Conference 2018”. Там демонстрировалось видео, в котором по аудиозаписи алгоритм сгенерировал видео с обращением Барака Обамы. Ссылка на подборку видео созданных с помощью этой технологии. Результаты меня сильно вдохновили, и мною было принято решение лучше разобраться с данной технологией, чтобы в будущем противодействовать ей. Для этого я решил написать DeepFake на языке C#. В итоге получил такой результат.

image

Приятного чтения!
Читать полностью »

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги - 1

C момента своего появления в декабре 2017-го дипфейки, видео с почти идеальной заменой лица, созданные нейросетью, наводили на экспертов панику. Многие, например, тогда боялись, что теперь еще проще станет «порно-месть», когда бывший бойфренд с достаточно мощным ПК может смастерить любое грязное порно с подругой. А Натали Портман и Скарлетт Йоханссон, о которых порно с deepfake снимали особенно много, публично прокляли интернет.

Чтобы бороться с подступающей угрозой, Facebook и Microsoft недавно собрали коалицию для борьбы с дипфейками, объявив призовой фонд $10 млн тем разработчикам, которые придумают лучшие алгоритмы для их обнаружения. Это помимо DARPA, управления исследованиями Министерства обороны США, выделившего на эту цель $68 млн за последние два года.

Ну так вот, уже поздно. Первое deepfake-преступление уже состоялось.Читать полностью »

Алгоритм DeepPrivacy не позволяет нейросети деанонимизировать людей на фото и видео - 1

Исследователи из Норвежского технологического университета придумали, как использовать технологию DeepFake для сохранения анонимности людей на фото и видео с сохранением исходных данных изображения.

Сохранение собственной конфиденциальности стало важной проблемой. Пока ещё не было найдено подходящего решения для анонимизации человеческих лиц на изображениях без ухудшения качества самого фото. Как правило, для сохранения анонимности лица обычно размывают или закрывают пикселями или чёрным квадратом. Однако это нарушает распределение данных изображения и усложняет дальнейшую его обработку алгоритмами.

Хакон Хуккелас, Рудольф Местер и Фрэнк Линдсет создали систему DeepPrivacy, которая разработана с помощью сразу нескольких нейросетей, используемых для обработки изображений. Сначала изображение обрабатывается нейросетью S3FD, которая определяет, где на фото находится само лицо. Затем в дело вступает нейросеть Mask R-CNN, которая размечает ключевые точки фото человека — глаза, уши, плечи и нос. Этот этап необходим для того, чтобы впоследствии созданное нейросетью новое лицо выглядело максимально реалистично.
Читать полностью »

Security Week 37: уязвимость в Android, Microsoft против deepfakes, популярность Windows 7 - 1Уязвимости в iOS мы обсудили на прошлой неделе, пришла очередь уязвимостей в Android. Четвертого сентября информацию о проблеме в Android опубликовали исследователи из Zero Day Initiative (новость, бюллетень), причем на момент публикации она так и не была закрыта. В выпущенном днем ранее наборе патчей для Android исправлены две критические ошибки в Media Framework, а вот эта проблема в драйвере Video4Linux 2 по-прежнему актуальна.

Поэтому и деталей раскрыто немного. В ZDI оценивают уязвимость в 7,8 баллов по методике CVSS. Суть проблемы заключается в отсутствии проверки драйвером существования объекта перед тем, как проводить операции над ним. Баг для эксплуатации требует локального доступа к системе. Иными словами, приложение с вредоносным кодом и низкими привилегиями может получить полный доступ к смартфону, но это приложение нужно еще как-то установить.

Сообщение об уязвимости представители Google пока не прокомментировали. По данным ZDI, разработчик Android получил информацию о проблеме еще в марте этого года, в июне сообщил, что ведется работа над патчем, но на последующие запросы о дате выпуска заплатки не отвечал. Оценка вендора все же важна: так, компания Apple на прошлой неделе отреагировала на исследование Google об уязвимостях в iOS заявлением, в котором подтвердила существование вредоносной кампании, но опровергла утверждения о длительности атаки. По версии Apple, кампания длилась два месяца, а не два года.
Читать полностью »

Facebook и Microsoft запускают конкурс по обнаружению deepfake - 1

Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества» (PAI), а также научными работниками из нескольких университетов анонсировала конкурс на разработку технологии распознавания дипфейков (deepfake).

Как сообщается в блоге Facebook, в рамках проекта, который получил название Deepfake Detection Challenge, Facebook поручит исследователям создавать реалистичные дипфейки. После этого участники конкурса будут прорабатывать алгоритмы обнаружения deepfake. Авторы лучших получат гранты. Призовой фонд проекта — $10 миллионов.
Читать полностью »

Орегонский университет предлагает бороться с deepfake с помощью мышей - 1

В рамках борьбы с deepfake — видео и аудио, созданных с помощью искусственного интеллекта — исследователи Орегонского университета тестируют одну из самых необычных идей. Группа учёных пытается научить мышей распознавать незаметные для человеческого слуха различия в речи, чтобы затем обучить машину этому механизму распознавания.

Исследователи обучили мышей понимать небольшой набор фонем, которые отличают одно слово от другого. Мышки получали награду каждый раз, когда они правильно идентифицировали звуки, что составило до 80% случаев.

«Мы научили мышей определять разницу между звуками, окруженными разными гласными, в разных контекстах. Мы считаем, что есть возможность обучить мышей распознавать ложную и реальную речь», — рассказал Джонатан Сондерс, один из исследователей проекта, изданию BBC.
Читать полностью »

Министерство обороны США попытается решить проблему deepfake - 1

Управление перспективных исследовательских проектов Министерства обороны США (DARPA) ищет средства для быстрого обнаружения deepfake в условиях «растущей угрозы крупномасштабных дезинформационных атак».

На прошлой неделе Управление объявило о том, что 28 августа проведёт день соискателей. Цель мероприятия — дать больше информации о программе Semantic Forensics (SemaFor). Программа, по словам DARPA, будет разрабатывать способы обхода некоторых слабых сторон современных deepfake-инструментов.

«Методы обнаружения, которые использовались раньше, часто можно обмануть из-за их ограниченных ресурсов, — говорится в объявлении DARPA. — Однако существующие алгоритмы автоматического генерирования и манипулирования мультимедиа в значительной степени подвержены семантическим ошибкам».
Читать полностью »

GitHub удаляет открытые версии DeepNude - 1

Сервис GitHub начал удалять страницы, содержащие код программы DeepNude — приложения на основе искусственного интеллекта, которое «раздевает» женщин на фотографиях.

Фрагменты кода были сгенерированы из копии приложения DeepNude, которое вышло в продажу в прошлом месяце. Материал был помещен в удаленный на текущий момент репозиторий GitHub. Как пишет издание The Verge со ссылкой на Motherboard, представители GitHub пояснили, что приложение нарушает правила в отношении «сексуально непристойного контента». С GitHub были удалены несколько репозиториев, включая тот, что был официально создан разработчиком DeepNude.
Читать полностью »

Сегодняшний ИИ технически «слабый» – однако он сложный и может значительно повлиять на общество

Основы современного искусственного интеллекта: как он работает, и уничтожит ли наше общество уже в этом году? - 1
Не нужно быть Киром Дулли, чтобы знать, насколько пугающим может стать хорошо соображающий искусственный интеллект [американский актёр, исполнявший роль астронавта Дэйва Боумена в фильме «Космическая одиссея 2001 года» / прим. перев.]

ИИ, или искусственный интеллект, сейчас одна из самых важных областей знания. Решаются «нерешаемые» задачи, инвестируются миллиарды долларов, а Microsoft даже нанимает Коммона, чтобы он рассказал нам поэтическим штилем, какая это замечательная штука – ИИ. Вот ведь.
Читать полностью »

Эти новые уловки пока ещё способны перехитрить видеоролики от Deepfake - 1

Несколько недель специалист по информатике Сывей Люй [Siwei Lyu] наблюдал за роликами deepfake, созданными его командой, с терзающим беспокойством. Эти поддельные фильмы, созданные при помощи алгоритма машинного обучения, показывали знаменитостей, занимающихся такими вещами, которыми бы они не стали заниматься. Они казались ему странно пугающими, и не только потому, что он знал, что они поддельные. «Они неправильно выглядят, — вспоминает он свои мысли, — но очень сложно точно определить, из-за чего складывается такое впечатление».

Но однажды в его мозгу возникло детское воспоминание. Как и многие другие дети, он играл с детьми в «гляделки». «Я всегда проигрывал такие состязания, — говорит он, — потому что, когда я смотрел на их немигающие лица, мне становилось очень не по себе».

Он понял, что эти поддельные фильмы вызывали у него схожий дискомфорт: он проигрывал гляделки этим звёздам кино, поскольку те не открывали и не закрывали глаза с такой частотой, как это делают реальные люди.
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js