Добро пожаловать во вторую часть руководства по нейронным сетям. Сразу хочу принести извинения всем кто ждал вторую часть намного раньше. По определенным причинам мне пришлось отложить ее написание. На самом деле я не ожидал, что у первой статьи будет такой спрос и что так много людей заинтересует данная тема. Взяв во внимание ваши комментарии, я постараюсь предоставить вам как можно больше информации и в то же время сохранить максимально понятный способ ее изложения. В данной статье, я буду рассказывать о способах обучения/тренировки нейросетей (в частности метод обратного распространения) и если вы, по каким-либо причинам, еще не прочитали первую часть, настоятельно рекомендую начать с нее. В процессе написания этой статьи, я хотел также рассказать о других видах нейросетей и методах тренировки, однако, начав писать про них, я понял что это пойдет вразрез с моим методом изложения. Я понимаю, что вам не терпится получить как можно больше информации, однако эти темы очень обширны и требуют детального анализа, а моей основной задачей является не написать очередную статью с поверхностным объяснением, а донести до вас каждый аспект затронутой темы и сделать статью максимально легкой в освоении. Спешу расстроить любителей “покодить”, так как я все еще не буду прибегать к использованию языка программирования и буду объяснять все “на пальцах”. Достаточно вступления, давайте теперь продолжим изучение нейросетей.
Читать полностью »
Рубрика «нейронные сети» - 31
Нейронные сети для начинающих. Часть 2
2017-02-12 в 15:38, admin, рубрики: Алгоритмы, для начинающих, для новичков, машинное обучение, нейронные сетиНейронные сети — XOR [JS]
2017-02-11 в 18:03, admin, рубрики: javascript, нейронные сети, Учебный процесс в ITДобрый день. В прошлой статье «Нейронные сети за 1 день» мы рассмотрели НС которая решала задачу AND, причём сеть была однослойная. В этот раз мы создадим нейронную сеть, которая будет способна решить задачу XOR, она будет многослойная. Эта статья научит вас использовать метод обратного распространения ошибки, введёт в классификацию.
Нейробайесовский подход к задачам машинного обучения. Лекция Дмитрия Ветрова в Яндексе
2017-02-08 в 12:02, admin, рубрики: байесовские сети, байесовский вывод, байесовский подход, Блог компании Яндекс, задача оптимизации, латентность, математика, машинное обучение, метод главных компонент, нейронные сети, регуляризация, теорема БайесаЭтим постом мы завершаем серию лекций с Data Fest. Одним из центральных событий конференции стал доклад Дмитрия Ветрова — профессора факультета компьютерных наук НИУ ВШЭ. Дмитрий входит в число самых известных в России специалистов по машинному обучению и, начиная с прошлого года, работает в Яндексе ведущим исследователем. В докладе он рассказывает об основах байесовского подхода и объясняет, какие преимущества дает этот подход при использовании нейронных сетей.
Под катом — расшифровка и часть слайдов.
Логика сознания. Часть 11. Естественное кодирование зрительной и звуковой информации
2017-02-06 в 13:36, admin, рубрики: Алгоритмы, биология, искусственный интеллект, математика, машинное обучение, нейрон, нейронные сети, параллельное программирование, Программирование, смысл, сознаниеВ предыдущей части были сформулированы требования к процедуре универсального обобщения. Одно из требований гласило, что результат обобщения должен не просто содержать набор понятий, кроме этого полученные понятия обязаны формировать некое пространство, в котором сохраняются представление о том, как полученные понятия соотносятся между собой.
Если рассматривать понятия как «точечные» объекты, то такую структуру можно отчасти описать матрицей взаимных расстояний и представить в виде взвешенного графа, где вершины — это понятия, а каждому ребру сопоставлено число, соответствующее расстоянию между понятиями, которые это ребро соединяет.
Ситуация несколько усложняется, когда понятия имеют природу множеств (рисунок ниже). Тогда возможны формулировки типа: «понятие C содержит понятия A и B», «понятия A и B различны», «понятия A и B имеют нечто общее». Если положить, что близость определяется в интервале от 0 до 1, то про рисунок слева можно сказать: «близость A и C равна 1, близость B и C равна 1, близость A и B равна 0).
Читать полностью »
Исследование связности в мозге на основе электрофизиологических данных. Лекция в Яндексе
2017-02-04 в 9:55, admin, рубрики: Блог компании Яндекс, графы, Исследования и прогнозы в IT, когерентность, мозг, нейробиология, нейрон, нейронные сети, связность, физика, физический эксперимент, ээгРаз уж идеология нейросетей в IT строилась с оглядкой на реальный прототип, о нем тоже иногда полезно вспомнить. Предлагаем посмотреть или почитать лекцию Ильи Захарова, выпускника кафедры психофизиологии факультета психологии МГУ. Илья объясняет, как можно анализировать сети в мозге, какие данные для этого нужны, какие подводные камни могут возникать при анализе, а главное — что нового позволили узнать подобные исследования.
Под катом — расшифровка и большинство слайдов.
Комплексная нейронная сеть на основе ряда Фурье от функции многих переменных
2017-02-02 в 22:25, admin, рубрики: .net, C#, математика, машинное обучение, нейронные сети, прогнозирование, Программирование, распознавание образов, ряд фурьеЕсть много задач, для решения которых нейронные сети прямого распространения с сигмоидальной активационной функцией не являются оптимальными. Например — задачи распознавание бинарных изображений, с первичной обработкой с помощью преобразования Фурье. В ходе этих преобразований изображение становится инвариантным к смещениям, масштабированию и поворотам. Пример таких преобразований приведен ниже.[1] На выходе такой метод выдает вектор комплексных чисел. Современные нейронные сети не могут с ними работать т.к. они работают только с вещественными числами.
Читать полностью »
Логика сознания. Часть 10. Задача обобщения
2017-01-31 в 14:18, admin, рубрики: Алгоритмы, биология, искусственный интеллект, математика, машинное обучение, нейрон, нейронные сети, параллельное программирование, Программирование, смысл, сознание В принципе, любая информационная система сталкивается с одними и теми же вопросами. Как собрать информацию? Как ее интерпретировать? В какой форме и как ее запомнить? Как найти закономерности в собранной информации и в какой форме их записать? Как реагировать на поступающую информацию? Каждый из вопросов важен и неразрывно связан с остальными. В этом цикле мы пытаемся описать то, как эти вопросы решаются нашим мозгом. В этой части пойдет разговор о, пожалуй, самой загадочной составляющей мышления — процедуре поиска закономерностей.
Взаимодействие с окружающим миром приводит к накоплению опыта. Если в этом опыте есть какие-либо закономерности, то они могут быть выделены и впоследствии использованы. Наличие закономерностей можно интерпретировать, как присутствие чего-то общего в воспоминаниях, составляющих опыт. Соответственно, выделение таких общих сущностей принято называть обобщением.
Задача обобщения – это ключевая задача во всех дисциплинах, которые хоть как-то связаны с анализом данных. Математическая статистика, машинное обучение, нейронные сети – все это вращается вокруг задачи обобщения. Естественно, что и мозг не остался в стороне и как мы можем иногда наблюдать на собственном опыте, тоже порой неплохо справляется с обобщением.
Читать полностью »
Ищем знакомые лица
2017-01-23 в 8:20, admin, рубрики: cnn, keras, python, tripletloss, математика, машинное обучение, нейронные сети
В статье я хочу познакомить читателя с задачей идентификации: пройтись от основных определений до реализации одной из недавних статей в данной области. Итогом должно стать приложение, способное искать одинаковых людей на фотографиях и, что самое главное, понимание того, как оно работает.
Читать полностью »
Нейронные сети. Часть 2 — Функции активации
2017-01-22 в 14:25, admin, рубрики: java, neural network, Исследования и прогнозы в IT, нейронные сети, Учебный процесс в ITДоброго дня! В этой статье разбираются функции активации нейрона.
Функция активации в нейроне – это такая функция, которая позволяет нормализовать выходные данные в более удобный и правильный формат, для дальнейшего использования.
В прошлой статье я уже рассказывал об одной из них.
1. Функция единого скачка. Когда заряд в нейроне, после суммирования достиг какого-то порога или привесил его – нейрон вместо суммированного заряда выдаст 1. Если же заряд не достиг порога – нейрон выдаст 0.
Так же, есть сигмоидальные функции активации. Читать полностью »
Нейронные сети. Часть 1 — Введение
2017-01-17 в 9:21, admin, рубрики: java, Исследования и прогнозы в IT, нейронные сети, Учебный процесс в ITПривет! В нашем русском обществе о нейронных сетях мало что пишут, мало кто их у нас развивает. Статьи есть, но чаще всего в них написаны математические формулы, к которым не дают пояснений. Из своего личного опыта хочу сказать, что нейронные сети — это один из лучших методов машинного обучения. Самое главное — это просто.
Читать полностью »