Рубрика «seo» - 6

Представляем вашему вниманию перевод первой части материала, который посвящён поисковой оптимизации сайтов, построенных с использованием JavaScript. Речь пойдёт об особенностях сканирования, анализа и индексирования таких сайтов поисковыми роботами, о проблемах, сопутствующих этим процессам, и о подходах к решению этих проблем.

В частности, сегодня автор этого материала, Томаш Рудски из компании Elephate, расскажет о том, как сайты, которые используют современные JS-фреймворки, вроде Angular, React, Vue.js и Polymer, выглядят с точки зрения Google. А именно, речь пойдёт о том, как Google обрабатывает сайты, о технологиях, применяемых для анализа страниц, о том, как разработчик может проанализировать сайт для того, чтобы понять, сможет ли Google нормально этот сайт проиндексировать.

image

JavaScript-технологии разработки веб-сайтов в наши дни весьма популярны, поэтому может показаться, что они уже достигли достаточно высокого уровня развития во всех мыслимых направлениях. Однако, в реальности всё не так. В частности, разработчики и SEO-специалисты всё ещё находятся в самом начале пути к тому, чтобы сделать сайты, построенные на JS-фреймворках, успешными в плане их взаимодействия с поисковыми системами. До сих пор множество подобных сайтов, несмотря на их популярность, занимают далеко не самые высокие места в поисковой выдаче Google и других поисковых систем.
Читать полностью »

с совершенствованием поисковых технологий роль каталогов стала отходить на второй план. С запуском нового алгоритма Королёв стало понятно, что поиск по смыслу заменил собой практически все потребности в Каталоге, и более поддерживать его не нужно.

— объявил «Яндекс». Сегодня, некогда востребованный ресурс, посещаютЧитать полностью »

Мне казалось, что поисковики давно победили black hat тактики с помощью машинного обучения и других мощных технологий. Сети дорвеев если и остались, то только где-то на обочине интернета, в маргинальных тематиках типа казино или контента для взрослых.

Но недавно я наткнулся сразу на целую кучу спамных сайтов, которые собирают миллионы посетителей из Яндекса, легко побеждают качественные и авторитетные проекты даже в белых нишах.

image
Читать полностью »

Robots.txt указывает веб-краулерам мира, какие файлы можно или нельзя скачивать с сервера. Он как первый сторож в интернете — не блокирует запросы, а просит не делать их. Интересно, что файлы robots.txt проявляют предположения веб-мастеров, как автоматизированным процессам следует работать с сайтом. Хотя бот легко может их игнорировать, но они указывают идеализированное поведение, как следует действовать краулеру.

По существу, это довольно важные файлы. Так что я решил скачать файл robots.txt с каждого из 1 миллиона самых посещаемых сайтов на планете и посмотреть, какие шаблоны удастся обнаружить.

Я взял список 1 млн крупнейших сайтов от Alexa и написал маленькую программу для скачивания файла robots.txt с каждого домена. После скачивания всех данных я пропустил каждый файл через питоновский пакет urllib.robotparser и начал изучать результаты.

Анализ файлов robots.txt крупнейших сайтов - 1
Найдено в yangteacher.ru/robots.txt
Читать полностью »

Всем привет! В этой статье я расскажу о том, как производитель детского и спортивного оборудования в период с 2014 по 2017 год поднял продажи на 60% и увеличил долю рынка на 3,5% с помощью правильного подхода к интернет-маркетингу.

image

Читать полностью »

Kokoc Group, которая объединяет 14 агентств интернет-маркетинга, привлекла «крупные инвестиции» от скандинавского фонда CapMan. Об этом «Роем!» сообщили представители компании. Сумма сделки неизвестна. Полученные инвестиции направят на покупку новых компаний и расширение продуктовой линейки.

Читать полностью »

Я решил отключить Google AMP на своём сайте - 1

Меня связывает с проектом Google’s Accelerated Mobile Pages (AMP) долгая история, но вчера чаша терпения переполнилась.

Я зашёл в Twitter (в Safari на iPhone 6) и заметил, что кто-то сослался на мой сайт, поставив ссылку AMP. Я ответил и указал настоящую ссылку, но когда нажал на неё, то меня перенаправило обратно на версию AMP моей страницы.
Читать полностью »

«Мы пришли на этот рынок тоже, скажем так, из интернета», — вспоминает про запуск Nethouse Денис Имшенецкий. В 2000 году он открыл хостинг-провайдера «Мажордомо», а через десяток лет стал анализировать, какие ещё потребности есть у его клиентов кроме хостинга. В ноябре 2011 запустилась первая версия Nethouse, который на настоящий момент является самым популярным российским конструктором сайтов Читать полностью »

Для чего мы написали CRM в отдел SEO-шников и к чему это привело?

Рынок интернет-маркетинга год от года показывает уверенный рост: крупные компании постоянно увеличивают бюджеты, все больше и больше активности проявляют малый и микробизнес, для которых реклама в интернете ранее была чем-то непонятным и дорогим. Однако есть проблема: агентства не хотят работать с микробюджетами. Им просто невыгодно. Что с этим делать?
Читать полностью »

Как мы сразились с “Многорукими Бандитами” Яндекса и победили - 1Что такое эти самые “бандиты”, можно прочитать в публикации Яндекса на конференции в Италии Gathering Additional Feedback on Search Results by Multi-Armed Bandits with Respect to Production Ranking (есть перевод).

Зачем этот алгоритм появился? Отсутствие положительного пользовательского опыта для нового сайта означает, что применить для ранжирования ресурса за пределами 10-ки с точки зрения авторов “многоруких бандитов” в отсутствие ссылок просто нечего. В итоге мы имеем «застой», когда рынок и товары меняются вместе с потребностями клиентов, а топ остается неизменным.

В результате качество результатов поиска падает. Алгоритм же, который работает уже больше двух лет, дает шанс новым сайтам и помещает их в топ. Это позволяет собрать пользовательский опыт и изменить ситуацию. Но! Не даёт пока никаких шансов оптимизаторам как-то повлиять на “рандомную” выдачу.

Чтобы не ухудшить в долгосрочной перспективе качество выдачи, поисковик делает это «порционно». Поэтому можно заметить ежедневные изменения результатов поиска, а улучшения проявляются постепенно, не портя основную картину.

Не нужно думать, что Яндекс тут впереди планеты всей. Эксперименты по влиянию на user experience в результатах поиска есть в видео Рэнда Фишкина, где он показывает результаты своего эксперимента с Google.

Я же сегодня поделюсь с вами кейсом, который иллюстрирует уверенную победу в схватке с “многорукими бандитами”. Это не о спаме или накрутке. Это о том, что и как сейчас работает. И очень надеюсь, эта битва, станет прекурсором к появлению новой технологии white hat оптимизации.Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js