В ноябре 2017 года аккаунт Reddit под названием deepfakes опубликовал первые в интернете порнографические видеоролики, в которых программное обеспечение заменяло лица реальных актрис лицами голливудских знаменитостей. Почти два года спустя «дипфейки» стали общим явлением и термином, который описывает любое поддельное видео, сделанное с помощью программ ИИ. Этот метод используют и для смешных видеороликов на YouTube, он также вызывает озабоченность законодателей, опасающихся политической дезинформации. Тем не менее, новое исследование говорит о том, что дипфейки в основном остаются верными своим непристойным корням.
Стартап Deeptrace провел своего рода перепись дипфейков в июне-июле 2019 года, чтобы отрекламировать свои инструменты обнаружения, которые он надеется продать новостным организациям и онлайн-платформам. Всего стартап обнаружил 14 678 видеороликов, открыто представленных в качестве дипфейков: почти в два раза больше, чем семь месяцев назад. Около 96% из них оказались порнографическими.
История дипфейков повторяют историю многих других медиатехнологий, которые получили распространение благодаря порно: от VHS до потокового вещания.
Читать полностью »