Рубрика «нейросети» - 29

Машинное обучение vs. аналитический подход - 1

Какое-то время назад мы нашли свои старые материалы, по которым обучали первые потоки на наших курсах машинного обучения в Школе Данных и сравнили их с теперешними. Мы удивились, сколько всего мы добавили и поменяли за 5 лет обучения. Осознав, почему мы это сделали и как, на самом деле, поменялся подход к решению задач Data Science, мы решили написать вот эту публикацию.Читать полностью »

XLNet против BERT - 1

В конце июня коллектив из Carnegie Mellon University показал нам XLNet, сразу выложив публикацию, код и готовую модель (XLNet-Large, Cased: 24-layer, 1024-hidden, 16-heads). Это предобученная модель для решения разных задач обработки естественного языка.

В публикации они сразу же обозначили сравнение своей модели с гугловым BERT-ом. Они пишут, что XLNet превосходит BERT в большом количестве задач. И показывает в 18 задачах state-of-the-art результаты.
Читать полностью »

Когда человек учится играть в гольф, большую часть времени он обычно проводит за постановкой базового удара. К другим ударам он подходит потом, постепенно, изучая те или иные хитрости, основываясь на базовом ударе и развивая его. Сходным образом мы пока что фокусировались на понимании алгоритма обратного распространения. Это наш «базовый удар», основа для обучения для большей части работы с нейросетями (НС). В этой главе я расскажу о наборе техник, которые можно использовать для улучшения нашей простейшей реализации обратного распространения, и улучшить способ обучения НС.

Среди техник, которым мы научимся в этой главе: лучший вариант на роль функции стоимости, а именно функция стоимости с перекрёстной энтропией; четыре т.н. метода регуляризации (регуляризации L1 и L2, исключение нейронов [dropout], искусственное расширение обучающих данных), улучшающих обобщаемость наших НС за пределы обучающих данных; лучший метод инициализации весов сети; набор эвристических методов, помогающих выбирать хорошие гиперпараметры для сети. Я также рассмотрю и несколько других техник, чуть более поверхностно. Эти обсуждения по большей части не зависят друг от друга, поэтому их можно по желанию перепрыгивать. Мы также реализуем множество технологий в рабочем коде и используем их для улучшения результатов, полученных для задачи классификации рукописных цифр, изученной в главе 1.
Читать полностью »

Обсудили непростую тему конкуренции на примере Яндекса, понастольгировали по играм нашего детства, порассуждали про границы дозволенного при распространении информации и с трудом поверили в пентагоновский лазер. Темы новостей и ссылки на них ищите внутри поста.

Читать полностью »

Новости недели: Raspberry Pi 4 в продаже, интернет на ЕГЭ, Роскомнадзор и VPN-сервисы, нейросеть раздевает людей - 1

В этом выпуске читайте:

  • Raspberry Pi 4 уже можно купить;
  • на ЕГЭ не будут запрещать пользоваться Интернетом;
  • в России разработан процессор для нейросетей;
  • Роскомнадзор не собирается блокировать непослушные VPN-сервисы;
  • нейросеть научилась раздевать людей на фотографиях;
  • аппаратный эмулятор Commodore 64 появится зимой;
  • глобальное наблюдение за водителями в России.

Читать полностью »

Вот, о чем мы поговорили в седьмом выпуске подкаста:

Читать полностью »

Новости недели: нейросеть и отфотошопленные снимки, рост акций «Яндекса», Huawei требует за патенты $1 млрд - 1

В этом выпуске читайте:

  • Huawei требует от Verizon свыше $1 млрд за свои технологии;
  • Mail.ru представила Марусю;
  • в сентябре в продажу поступают первые смартфоны и планшеты на отечественной ОС Astra Linux;
  • подготовлены правила изоляции Рунета;
  • создан симулятор Enigma;
  • акции «Яндекса» выросли до исторического максимума;
  • Microsoft выпускает детский конструктор-ноутбук;
  • нейросеть научили обнаруживать отредактированные фотографии.

Читать полностью »

В шестом выпуске подкаста Habr Weekly прошлись вот по таким темам:

Читать полностью »

Аппаратное ускорение глубоких нейросетей: GPU, FPGA, ASIC, TPU, VPU, IPU, DPU, NPU, RPU, NNP и другие буквы - 1

14 мая, когда Трамп готовился спустить всех собак на Huawei, я мирно сидел в Шеньжене на Huawei STW 2019 — большой конференции на 1000 участников — в программе которой были доклады Филипа Вонга, вице-президента по исследованиям TSMC по перспективам не-фон-неймановских вычислительных архитектур, и Хенга Ляо, Huawei Fellow, Chief Scientist Huawei 2012 Lab, на тему разработки новой архитектуры тензорных процессоров и нейропроцессоров. TSMC, если знаете, делает нейроускорители для Apple и Huawei по технологии 7 nm (которой мало кто владеет), а Huawei по нейропроцессорам готова составить серьезную конкуренцию Google и NVIDIA.

Google в Китае забанен, поставить VPN на планшет я не удосужился, поэтому патриотично пользовался Яндексом для того, чтобы смотреть, какая ситуация у других производителей аналогичного железа, и что вообще происходит. В общем-то за ситуацией я следил, но только после этих докладов осознал, насколько масштабна готовящаяся в недрах компаний и тиши научных кабинетов революция.

Только в прошлом году в тему было вложено больше 3 миллиардов долларов. Google уже давно объявил нейросети стратегическим направлением, активно строит их аппаратную и программную поддержку. NVIDIA, почувствовав, что трон зашатался, вкладывает фантастические усилия в библиотеки ускорения нейросетей и новое железо. Intel в 2016 году потратил 0,8 миллиарда на покупку двух компаний, занимающихся аппаратным ускорением нейросетей. И это при том, что основные покупки еще не начались, а количество игроков перевалило за полсотни и быстро растет.

Аппаратное ускорение глубоких нейросетей: GPU, FPGA, ASIC, TPU, VPU, IPU, DPU, NPU, RPU, NNP и другие буквы - 2

TPU, VPU, IPU, DPU, NPU, RPU, NNP — что все это означает и кто победит? Попробуем разобраться. Кому интересно — велкам под кат!
Читать полностью »

Новый алгоритм, созданный учеными, позволяет создавать почти идеальные «говорящие головы» с реальными людьми - 1

Исследователи научились редактировать видеоролики, вкладывая в уста человека на видео любые слова и предложения. Технология обрабатывает ролик таким образом, что выглядит все это весьма естественно и органично, заметить подделку можно только в том случае, если подозревать редактирование.

Создала новый алгоритм объединенная команда исследователей из Стэнфорда, Института Макса Планка, Принстона и компании Adobe. Редактирование заключается лишь в создании текста, который должен произнести человек с ролика. Всю остальную работу выполняет нейросеть. Заметить подделку сложно потому, что мимика и паттерны движений «спикера» сохраняются, технология позволяет маскировать следы вмешательства.
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js