В прошлый раз мы рассмотрели основные санкции Яндекса, а сегодня расскажем про фильтры Google. Для этого мы снова обратились к интерактивному курсуАртема Яськова.
Panda
Как определить
Panda - это специальный алгоритм Google, нацеленный на борьбу с плохими сайтами. Недавно, кстати, его обновили до четвертой версии (подробно о том, сколько шума наделала последняя версия фильтра, можно почитать здесь).
Почти все фильтры Google характеризуются резким падением органической посещаемости и позиций сайта. Еще Panda можно обнаружить по сокращению, либо резким скачкам количества проиндексированных страниц.
Продвинутые интернет-маркетологи знают, что следить за Google лучше всего с помощью Google Webmaster Tools. В случае с Panda, например, веб-мастерская даст вам знать, когда что-то пойдет не так.
Почему возникает
Дубли страниц в поисковом индексе.Обычно это связано с техническими проблемами сайта, например, попадание в индекс страниц с метками для отслеживания статистики.
Сгенерированный контент.Здесь все понятно - автоматически созданные тексты Google воспринимает как манипулятивную механику.
Недостаточный объем контента.Тут разобраться в причинах поможет анализ контента конкурентов. В каждой тематике есть свои требования к объему контента.
Избыток ключевых вхождений в текстах, метаданных и тайтлах.Если возникает ощущение, что Google находит спам там, где его нет, проведите конкурентную аналитику. Это поможет взглянуть на все под новым углом.
Некачественная внутренняя перелинковка.Алгоритмы отслеживают применение каких-либо спамных паттернов (например, внутренние ссылки, которые используются не как основное меню, а как ссылки в подвале).
План действий
1. Сделайте редиректы с 301-м кодом ответа сервера. Главная задача - не допустить перенаправления с пессимизированных страниц на нормальные. Чтобы определить пессимизированные документы, нужно воспользоваться Barracuda Panguin Tool (про другие сервисы скажем далее).
2. Отредактируйте robots.txt. В нем следует закрыть проблемные страницы - в частности, те, которые Google записал в дубли, - от индексакции. Правда, это полумеры: такие документы, как правило, поисковик оставляет в индексе. В сниппетах будет указано, что файл закрыт от просмотра.
3. Воспользуйтесь Google Webmaster Tools. Он поможет закрыть проблемные документы и запретить поисковику индексировать их. Сделать это можно в разделе "Параметры URL".
4. Найдите и устраните все возможные проблемы с помощью специальных сервисов. Инструменты использовать обязательно: они, например, сообщают о масштабах бедствия, выдавая информацию по апдейтам и показывая конкретный процент потерянного трафика. Чаще всего сервисы сами подскажут причины наложения фильтров (это не говоря про конкретные функции - поиск пострадавших страниц).
5. Внимательно изучите, как все устроено у ваших конкурентов. Нужно смотреть на структуру сайта, плотность ключевых слов и метаданные. В каждой нише действуют свои правила, а конкурентная аналитика часто помогает выявить их.
6. Внести изменения в пострадавшие документы. Удалите дублирующие страницы всеми возможными способами (панель Google Webmaster Tools, редиректы, robots.txt)
Penguin
Как определить
Если Panda борется со спамерскими методами в работе с внутренней оптимизацией, то Penguin нацелен на устранение некачественных внешних ссылок.
Когда санкция применена, сайт ощутимо теряет позиции в выдаче. Соответствующим образом падает органический трафик.
Почему возникает
Некорректное соотношение типов анкоров и переоптимизированная ссылочная масса.Внешние ссылки не стоит перегружать ключевыми сочетаниями. Лучше всегда разбавлять их менее частотными словами.
Продажа ссылок.Актуально, если вы активно монетизируете сайт, размещая на нем внешние исходящие ссылки. Особенно на это следует обратить внимание тем веб-мастерам, которые вставляют ссылки прямо в элементы интерфейса.
Плохая внутренняя перелинковка.Страдают те владельцы сайтов, которые создают слишком много ссылок для перелинковки (с прямыми вхождениями ключей).
Внешние входящие сквозные ссылки.Раньше это часто практиковалось оптимизаторами, которые специализировались на Google. Тем не менее, сегодня в ссылочной массе внешних доноров не должно быть сквозных ссылок.
Каталог ссылок на сайте.Очевидно, что массовая продажа ссылок не приведет ни к чему хорошему. Сюда же записываем тех, кто много обменивается ссылками с нетематическими ресурсами.
Слишком быстрый прирост ссылочной массы.Резкое увеличение количества ссылок с доноров тоже приводит к наложению санкции. Закупать ссылки нужно последовательно и медленно.
План действий
1. Найдите наиболее пострадавшие документы и запросы с помощью специальных инструментов
Обязательно держите в арсенале Ahrefs.com - это мощный инструмент по анализу доноров сайта, который умеет делать множество полезных вещей. К примеру, он выявляет проблемные сайты по типу анкоров, сообщает о количестве уникальных доноров и выдает подробный отчет по каждому партнерскому проекту.
Link Detox - еще один сервис, который анализирует ваши ссылки за вас. Он определяет некачественные доноры, ищет проблемные страницы, делает выгрузки, формирует списки и самостоятельно отключает ссылки (или отправляет их в Disavow Tool).
2. Изучите ссылочную массу конкурентов. Выясните, как устроена их донорская сеть и попытайтесь привлечь к работе наиболее сильных ее представителей.
3. Ищите, изменяйте или удаляйте некачественные внешние ссылки. Если нет возможности связаться с веб-мастерами или ссылок слишком много, то лучшим решением будет созданием списков некачественных ссылок, которые затем следует массово отправлять в панель Disavow Tool.
Чтобы избежать столкновения с Penguin, в целом, нужно всегда следить за качеством внешних ссылок, улучшать структуру сайта и избегать попадания технических дублей в индекс. Ищите собственную стратегию выбора доноров: ориентироваться следует на тех, кто сможет обеспечить достаточный уровень тематического трафика.
P. S. Текст подготовлен по мотивам интерактивного курса "Методы антиспама. Вывод сайта из-под санкций поисковых систем".