Привет!
При продвижении сайтов в Google в среде веб-мастеров возникли и утвердились несколько SEO – мифов и заблуждений.
Причины — отсутствие информации или подтверждений от первоисточника (Google); невнимательное прочтение или неправильное понимание справочной информации.
1. Существование «Песочницы»
Бытует мнение, что Google применяет к молодым сайтам некий алгоритм, влияющий на их ранжирование.
Webeffector в своей Wiki энциклопедии написал:
«Внешне помещение сайта в песочницу выглядит так. С ресурсом, кажется, всё в порядке, он находится в кэше Google, никаких претензий к нему не высказывается. Однако на странице выдачи ресурс не только не появляется при наборе в поисковой строке уникальных для этого сайта ключевых запросов, но даже не стоит в первой строчке выдачи при наборе в поисковой строке сетевого адреса сайта! Ресурса словно не существует для поисковой машины. Если это так, то будьте уверены – сайт в песочнице Google. Срок действия фильтра составляет от 6 месяцев до 1 года».
Что происходит на самом деле?
Нет «песочницы», — рассказывает сотрудник Google Андрей Липатцев, — пару-тройку месяцев мы собираем о сайте все данные, и в этот срок он ранжируется по тем, что есть, а потом может начать ранжироваться как выше, так и ниже.
То же самое, но другими словами, написано в часто задаваемых вопросах Google:
«В первое время страницы нового сайта могут ранжироваться без учёта некоторых факторов [например, гео-зависимость контента — прим.авт.], которые для этого сайта ещё не выяснены. Могут быть не сразу определены полные и нечёткие дубликаты страниц, контент, скопированный с других сайтов, слабо наполненные страницы, некачественные тексты и другие недостатки сайта. Но в дальнейшем они скажутся, и сайт потеряет первоначальные позиции».
2. «Сопли» Google
Наверно, каждый веб-мастер слышал о таком понятии, как supplemental index (дополнительный индекс) или его сленговом названии «сопли». Принято считать, что получить список страниц сайта, которые находятся в основном индексе, можно используя оператор site:yoursite.ua/&. Соответственно, список страниц из дополнительного индекса якобы можно получить используя комбинацию site:yoursite.ua -site:yoursite.ua/&.
Основания считать, что дополнительный индекс Google существовал действительно были. О нём была публикация в Google Webmaster Central Blog от 31 июля 2007 года.
С момента публикации прошло почти 8 лет, и все поменялось.
«Если ввести в адресную строку site:pdapps.ru/ — то весь индекс страниц, а если ввести site:pdapps.ru/& — это основной индекс, который по идее должен быть в поиске. Поправьте, если я ошибаюсь» — спросили Андрея Липатцева на справочном форуме для веб-мастеров.
Действительно, ошибаетесь, — ответил он. — Никакой полезной информации добавление & к запросу Вам не даёт.
Специалист Google, к которому мы обратились за разъяснением ситуации, сообщил, что существование supplemental index – это устаревшая информация.
3. «Фильтры» Google
Фильтр – сленговый термин, используемый веб-мастерами, который подразумевает обработку данных сайта и влияние на ражирование и индексирование.
Google не использует никакие фильтры. Использование подобного сленга приводит к искажению смысла сообщений, поскольку до конца неясно, что именно тот или иной веб-мастер в данный момент времени понимает под словом фильтр.
Если вы обсуждаете или публикуете какую-то информацию, связанную с Google, желательно использовать точную терминологию.
Поисковая система Google представляет в упрощённом виде некое подобие часового механизма, где все «детали» являются постоянно взаимодействующими друг с другом алгоритмами. Поэтому, если вы столкнулись с понижением рейтинга сайта в SERP, исключением из индекса и так далее, лучше использовать термин «алгоритм [название]» или меры, принятые вручную.
Нигде в официальных справках или публикациях Google для веб-мастеров, в том числе в интервью, слово фильтр не используется.
4. Влияние поведенческих факторов на ранжирование
Ещё один SEO – миф состоит в том, что Google учитывает влияние поведенческих факторов для целей ранжирования. На эту тему веб-мастера массово пишут статьи и ведут обсуждения на форумах.
Google не использует поведенческие факторы и социальные сигналы в ранжировании сайтов. Об этом на конференции CyberMarketing-2014 рассказал специалист службы качества поиска Google Андрей Липатцев[1].
После этого заявления почти на всех конференциях его обязательно спрашивают об этом. Ну, не верят веб-мастера в якобы очевидное, и всё тут.
Позже Андрей Липатцев подтвердил ранее высказанную точку зрения:
«Мы не учитываем данные, предоставляемые через Google Analytics при ранжировании. «Накликивание» на ссылки в выдаче через псевдо-сервисы, подобные юзератору и иже с ним, — бесполезная трата ресурсов для веб-мастеров, которые могли бы с большей пользой употребить их другим образом». «Мэтт Катс — такие показатели, как CTR и показатель отказов не принимаются во внимание в алгоритме ранжирования».
Для понимания общего подхода приводим цитаты еще двух сотрудников Google.
John Mueller сказал: «я не предполагаю, что [поведение пользователей] это то, что #Google будет использовать как фактор ранжирования.[2]
Использование кликов напрямую в ранжировании не будет иметь смысла из-за шума,— сказал Gary Illyes[3].
5. До первой звезды нельзя
Помните этот слоган в одной из реклам известного бренда? Среди веб-мастеров бытует мнение, что достаточно добавить в код страниц соответствующую валидную разметку, и в результатах поисковой выдачи появятся расширенные сниппеты.
Суть в том, что сама по себе разметка даже трижды валидная не является гарантией появления расширенного сниппета. Рекомендуем очень внимательно изучить и обдумать ответ Андрея Липатцева.
«…я бы рекомендовал Вам заняться удалением ведущих на сайт покупных ссылок, так как при их наличии показ расширенных описаний может быть отключён автоматически, и простого их отклонения может оказаться недостаточно. После очередной регулярной переоценки сайта он оказался несколько ниже того порога, над которым для страниц сайтов отображаются расширенные описания. Такие переоценки происходят постоянно и для всех сайтов. Учитывая, что показ расширенных описаний ни в коем случае не гарантируется, я бы просто продолжал работать над сайтом, как и раньше, предоставив Google производить свои оценки и принимать соответствующие решения.
Замечу, что по запросу site: расширенные описания могут и отображаться, так как для него действуют особые критерии».
6. Все страницы сайта должны быть в индексе
Можно открыть любой SEO-форум и найти там тему «Почему Google не индексирует страницу...». Миф основан на том, что якобы абсолютно все страницы сайта должны быть в индексе.
Индекс не резиновый, — сказал на одной из конференций инженер Google Ринат Сафин.
Google-бот периодически сканирует сайт и передает соответствующую информацию алгоритмам, которые отвечают за оценку качества сайта, ранжирование и индексирование страниц.
Допустим, на сайте есть две страницы с примерно одинаковым содержанием, но одна из них содержит более качественный контент, чем вторая. Ресурсы Google тоже не безграничны, потому в нашем примере в индекс будет добавлена только одна страница — с более качественным и информативным контентом.
Отдельные страницы сайта могут быть исключены из индекса. Дополнительно читайте нашу статью на Хабрахабр — У вашего сайта проблемы с Google?
Точное количество проиндексированных страниц можно узнать только в Google Search Console.
7. Важность ошибки 404 для SEO
В среде веб-мастеров распространено заблуждение, что наличие на сайте страниц, отдающих 404 ошибку (Error 404 или Not Found стандартный код ответа HTTP), может негативно сказаться на индексировании или ранжировании сайта. Многие веб-мастера считают, что алгоритм Panda учитывает эту информацию при оценке качества сайта.
Webmaster Trends Analyst Google Gary Illyes предельно чётко пояснил позицию Google: «Мнение, что ошибки 404 влекут за собой какие-ли наказания для сайта, в корне неверно».
Веб изменчив, старые ссылки могут вести в никуда. Гуглоботу такие ссылки безразличны [читай, не влияют ни на какие показатели — прим.авт.]. Если вдруг вы найдете битые ссылки, то просто исправьте их, чтобы посетители могли нормально пользоваться сайтом, — говорил на одной из видеоконференций John Mueller. — Я бы не рассматривал эту проблему, как что-то важное с точки зрения SEO. Это просто часть работы по поддержке сайта — следить, чтобы ссылки были в актуальном состоянии.
404 ошибка на неправильном URL не навредит индексации вашего сайта или его ранжированию в любом случае. Даже если таких ошибок 100 или 10 миллионов, они не повредят рейтингу вашего сайта, — пишет John Mueller на своей странице в Google плюс.
Одиннадцатого августа 2015 года в Twitter обсуждался вопрос, влияет ли 404 ошибка на то, как алгоритм Panda воздействует на рейтинг сайта.
На этот вопрос Gary Illyes дал отрицательный ответ.
8. Вернись, я всё прощу
Не секрет, что большинство сайтов использовали или используют для продвижения покупные (неестественные) ссылки.
Google умеет распознавать такие ссылки и, как Виктор Марьяныч из кинофильма «Наша Раша», – жестоко наказывает. Получив меры, принятые вручную, за покупные ссылки, сайт может потерять рейтинг и видимость в результатах поиска.
Добившись отмены мер, веб-мастера зачастую недоумевают и спрашивают, почему не возвращаются позиции сайта. Они забывают, что ранее достигнутые позиции сайт получил обманным путём.
Анализируя один из таких сайтов на Справочном форуме для веб-мастеров, Андрей Липатцев ответил:
«Вы полностью упустили из виду, что для «оптимизации» сайта кто-то занимался покупкой ссылок. Эффект этого допинга рано или поздно должен был прекратиться, что и произошло. На данный момент ваш сайт ранжируется так, как и должен, без учёта покупных ссылок».
9. Я всё отклонил
В продолжение описанного в пункте восемь заблуждения рассмотрим другой миф — «Сайт получил меры за покупные ссылки? Отклоняйте покупные (некачественные) ссылки и будет вам счастье».
Это не совсем так. Действительно, добавление таких ссылок в инструмент disavow tool, — это важная процедура «излечения» пострадавшего сайта. Но этого явно недостаточно.
Согласно официальной документации веб-мастер сначала должен удалить проблемные ссылки. Затем крайне желательно в запросе на повторную проверку разместить ссылку на доказательства осуществления этого процесса. Требование Google о физическом удалении проблемных ссылок отчасти обусловлено тем, что удаление ранее отклонённых ссылок из файла disavow восстанавливает статус этого ссылочного.
Неестественные ссылки, которые не смогли удалить, добавляются в disavow tool.
Читаем документацию:
Добавление всех обратных ссылок в файл отклонения не считается решением проблемы, и вам не удастся пройти проверку.
В нём [в запросе на повторную проверку – прим.авт.] подробно описываются действия, предпринятые для устранения проблем.
В нём [в запросе на повторную проверку – прим.авт.] приведены все результаты ваших действий.
10. Отклонение ссылок и Search Console
Некоторые веб-мастера считают, что отправив в disavow tool ссылку из Google Search Console, она должна через время пропасть из раздела «ссылки на ваш сайт».
Это разные инструменты. На справочном форуме был задан вопрос – «… есть версия, что в панели веб-мастера отображаются только физически размещённые обратные ссылки и инструмент disavow никак не влияет на данный список?». На что Андрей Липатцев (Google) ответил: «Правильная версия».
Ссылки, добавленные в disavow tool, не удалены физически и потому логично, что исчезнуть из Search Consol они не могут.
Мы надеемся, что изложенная в статье информация будет полезна для веб-мастеров.
Примечания
1. searchengines.ru. Поисковые системы. Google не использует в ранжировании социальные и поведенческие сигналы.
2. @SeoTelegraph. Twitter журнал о SEO. Твит от 12 авг. 2015.
3. Блоgгер. Поисковая оптимизация — Как Google определяет качество контента?
Автор: blogopoisk