Коллеги, хочу поделиться опытом установки IBM Cognos Analytics Software на Power платформу. До сегодняшнего момента это решение функционировало у нас на основе Intel x86 платформы. По ряду причин было принято решение протестировать работоспособность данного программного обеспечения на Power платформе: встроенная аппаратная виртуализация, энергоэффективность, простота обслуживания, возможность снижения ТСО (The total cost of ownership). О преимуществах (или недостатках) Power можно говорить бесконечно долго, но это не является темой данной статьи. Техническое задание состояло в установке всех существующих компонент IBM Cognos Software на Power для получения выгоды от всех преимуществ этой платформы, и как следствие продвижения Power внутри нашей компании.
Рубрика «analytics» - 3
Интеграция IBM Cognos Analytics Software с IBM Power. Полезные советы и методы решения проблем
2017-05-28 в 15:06, admin, рубрики: analytics, Business Intelligence, cognos, cognos bi, db2, ibm power systems, integration, системное администрирование, метки: cognos, ibm power systemsПроблемы современного Data Science
2017-05-15 в 5:30, admin, рубрики: analytics, big data, data mining, data science, machine learning, python, Алгоритмы, аналитика, Блог компании Школа Данных, математика, машинное обучение, модели, ПрограммированиеПривет!
В последнее время все чаще приходится наблюдать, что ожидания работодателей и потенциальных ученых по данными сильно отличаются. Компания, инвестируя в новые разработки в первую очередь ждет возврат на инвестиции, а не очередную модель. Специалист же, окончивший всевозможные курсы ждет на вход чистые и понятные данные, а на выходе хотел бы отдать модель прикрепив к ней метрики качества. А дальше «пусть менеджеры разбираются», как это все будет встроено в процесс и как именно полученная модель будет использоваться. В результате возникает пропасть и непонимание между бизнесом и учеными.
По факту оказывается, что модели сами по себе никому не нужны, а на деле приходится заниматься очень большим количеством рутинных задач.
Хотелось бы на обобщенных примерах (все совпадения с реальной жизнью случайны) показать, какие же на самом деле трудности приходится преодолевать, чтобы принести работодателю деньги. Наверное, после этого в аналитику данных люди будут идти более осознанно, попутно получая нужные для работы навыки, а не изучая очередную статью про алгоритм.
Читать полностью »
Веб-аналитика. Как цифры нам врут
2017-04-23 в 22:58, admin, рубрики: analytics, direct, seo, веб-аналитика, контекстная реклама, метрика, поисковая оптимизацияЛет 15 назад я начал свой путь в сфере разработки сайтов и интернет-рекламы. Главным аргументом в переговорах с клиентом было то, что «в интернете всё можно посчитать». Имелось в виду, конечно, в отличие от ТВ, радио, баннерной рекламы и прочих не связанных с интернетом каналов.
В то время всё казалось понятным и прозрачным. Так оно, по сути, и было. С течением времени технологии стали менять наш мир всё быстрее и быстрее. Приложения, мобильные сайты, рекламные системы, инструменты веб-аналитики…
В итоге это стало настолько сложным, что для меня сейчас главным критерием оценки любой информации стала достоверность.
Предлагаю вам познакомиться с тем, как цифры путают нас. И как правильно интерпретировать данные, которые мы получаем в Я.Метрике, Google Analytics, других сервисах аналитики, блогах.
Естественно, для правильного понимания статьи нужно знать самые основные термины – конверсия, показатель отказов и прочее. Есть вещи очевидные, но уверен, и новенькое вы кое-что узнаете.
Коротко о содержании:
- Изучение статистики при разработке структуры сайта
- Топ-10, будь он неладен
- Использование только одной системы сбора статистики
- Изучение показателей по отдельности, а не в совокупности
- Использование Google Analytics и Яндекс.Метрики, как единственных источников маркетинговых данных
- «Тёмный трафик»
- Несовпадение данных Я.Метрики и Я.Директ
- Пресловутая конверсия
- Чем меньше абсолютный показатель, тем важнее смысл
- О чем ещё стоит помнить
Машинное обучение в Avito. Видеозаписи со встречи кейс-клуба Data Science 14 марта
2017-03-22 в 11:04, admin, рубрики: analytics, data science, machine learning, recomendation, Блог компании Avito, машинное обучениеНа прошлой неделе прошла встреча кейс-клуба Data Science, на которой специалисты Avito рассказали о том, какие бизнес-задачи сервиса решаются с помощью машинного обучения. В частности поговорили про рекомендации, контекстную рекламу и модерацию. Под катом больше подробностей о встрече и видеозаписи докладов.
Обсуждение инструментов аналитики для работы с большими данными в Питере 14 сентября
2016-09-05 в 8:38, admin, рубрики: analytics, big data, data mining, wrike, wriketechclub, Анализ и проектирование систем, Блог компании Wrike14 сентября в 19:00 мы встретимся в офисе компании Wrike, чтобы обсудить инструменты аналитики и работу с большими данными. Главное внимание мы уделим успешным практикам и инструментам, разберем конкретные кейсы, поговорим о построении системы аналитики в компании, попробуем дать конкретные советы и рекомендации. Эксперты с удовольствием ответят на ваши вопросы.
Читать полностью »
Spark Summit 2016: обзор и впечатления
2016-07-04 в 11:34, admin, рубрики: analytics, Apache Spark, big data, data mining, data science, machine learning, spark, wrike, Анализ и проектирование систем, Блог компании Wrike, хранение данныхВ июне прошло одно из самых крупных мероприятий мира в сфере big data и data science — Spark Summit 2016 в Сан-Франциско. Конференция собрала две с половиной тысячи человек, включая представителей крупнейших компаний (IBM, Intel, Apple, Netflix, Amazon, Baidu, Yahoo, Cloudera и так далее). Многие из них используют Apache Spark, включая контрибьюторов в open source и вендоров собственных разработок в big data/data science на базе Apache Spark.
Мы в Wrike активно используем Spark для задач аналитики, поэтому не могли упустить возможности из первых рук узнать, что происходит нового на этом рынке. С удовольствием делимся своими наблюдениями.
Как использовать Parquet и не поскользнуться
2016-03-21 в 22:22, admin, рубрики: analysis data, analytics, Apache, big data, data formats, distributed computing, parquet, spark, Анализ и проектирование систем, Блог компании Wrike, хранение данных, метки: parquet
О хранении данных в Parquet-файлах не так много информации на Хабре, поэтому надеемся, рассказ об опыте Wrike по его внедрению в связке со Spark вам пригодится.
В частности, в этой статье вы узнаете:
— зачем нужен “паркет”;
— как он устроен;
— когда стоит его использовать;
— в каких случаях он не очень удобен.