Так же, как и у Яндекса, у Google есть свои «подарки» для некачественных сайтов. Фильтры накладываются за различные провинности, о которых пойдёт речь дальше. Они отличаются от фильтров Яндекса, но в целом принципы наложения в обоих поисковиках схожи. Рассмотрим, что за фильтры предусмотрел Гугл, как не попасть под них и как лечить сайт, если наложение уже произошло.
- Panda. Переоптимизация, неуникальные статьи, нетематическая реклама, дубли, одинаковое мета-описание для разных страниц – вот за что можно встретиться с «Пандой». Если вы заметили падение трафика, снижение позиций страниц в выдаче, возможно, что над вашим сайтом потрудился данный зверь. Выйти из-под фильтра нелегко, потому что необходимо искать и устранять факторы, повлиявшие на его наложение.
- Пингвин. Он наказывает за ссылки, как входящие, так и исходящие. Cсылки со спамных площадок, ссылочный обмен, сквозные линки, неравномерность ссылочной массы на страницах, высокая скорость прироста ссылок – всё это карается резким падением сайта в поиске. Решение проблемы – это «уборка» сайта от плохой ссылочной массы. Кстати, для входящих ссылок Гугл придумал инструмент, называемый Disavow links. Он позволяет отклонить некачественные входящие ссылки, чтобы они в дальнейшем не учитывались поисковиком. Найти его можно в инструментах для веб-мастеров от Google.
- Вспомогательные результаты. Фильтр применяется к страницам с дублированным содержимым. Дубли, попавшие под данный фильтр, среди оптимизаторов называются «соплями». Следует почистить от них сайт, сделать перенаправление с них на основные страницы, и Гугл постепенно, в течение нескольких месяцев, уберёт страницы из «соплей», и сайт начнёт развиваться.
- Bombing. Если вы покупаете ссылки с одним и тем же анкором, гугл просто перестаёт учитывать данные ссылки, останавливая рост позиций. Лечение простое: убрать линки с одним и тем же анкором и закупить другие так, чтобы анкоры были разными.
- «Слишком много линков сразу». Это так называемый ссылочный взрыв, за который Яндекс тоже наказывает. В таком случае Гугл игнорирует закупленные ссылки. Выход один: наращивать ссылочную массу как можно более аккуратно и естественно.
- «Песочница». Сюда попадают молодые ресурсы до 3 месяцев. Бороться с «песочницей» можно различными путями. Например, аккуратно закупить ссылок, чтобы они были естественными, качественными и не было ссылочного взрыва. Можно также перелинковать внутренние страницы.
- Domain Name Age. Сайты с доменом до года могут плохо индексироваться. Такой фильтр необходим, чтобы не допустить искусственного поднятия ресурса в выдаче. Чтобы выйти из-под фильтра, пробуйте делать закупку ссылок с трастовых и старых сайтов или купить домен возрастом более 12 месяцев.
- Bowling. Здесь имеет место зависть конкурентов: они начинают воровать контент, делать накрутки, ставят ссылки на сайт с ресурсов под баном и пр. Фильтр особенно коварен, если сайт молодой и имеет низкий уровень доверия у ПС. Чтобы вывести сайт из-под Bowling, придётся общаться с поддержкой Гугла.
- Фильтр за битые ссылки. Когда обнаруживается, что на сайте огромное количество ссылок с ошибкой 404, сайт занижается в выдаче. Для лечения необходимо убрать все бесполезные ссылки, ведущие в пустоту.
- Links. Если сайт – ссылочный донор, и у него на одной и той же странице множество исходящих линков, он понижается в выдаче, и полезное действие всех исходящих ссылок, ведущих на сайты-акцепторы, нивелируется. Если на странице линков больше, чем 25, срочно убирайте такую страницу или закрывайте, чтобы она не индексировалась.
- Page Load Time. Слишком долгая загрузка сайта влияет на падение его в выдаче. Для снятия фильтра нужно облегчить ресурс от сложного кода и элементов, ускорить его другими методами.
- Omitted Results. Множество дублей, некачественная перелинковка, низкая уникальность содержимого – всё это говорит Гуглу о том, что сайт стоит опустить в выдаче. Чтобы избавиться от фильтра, нужно привести ресурс в порядок и нарастить качественных ссылок.
- Минус 30. Сайт падает в поиске на 30 позиций за клоакинг, наличие дорвеев, скрытое перенаправление через java script, ссылочный взрыв, линкопомойка. Чтобы выбраться из-под фильтра, просто уберите все эти негативные факторы.
- Over Optimization. Слишком большое количество ключей вызывает ощутимое падение ресурса в результатах поиска. Решение – снижение плотности ключевиков в текстах сайта.
- Дублированный контент. Хорошо защитите сайт от воровства контента, размещайте только уникальные тексты. Это позволит избежать его пессимизации в выдаче.
Как видите, важно больше обращать внимание на качество сайта, а не количество ссылок и гонку за бессмысленной «чёрной» оптимизацией. Важно нравиться людям, а не поисковым роботам. Поведенческие факторы сейчас в приоритете, и эта тенденция развивается наряду с сильно возрастающей конкуренцией между множеством сайтов.
А есть инфа как сейчас проверять сапплиментал в гугле?
Старые методы типа site:saiteg.ru/& или [site:saiteg.ru] сейчас что-то дают сбой
САмые опасные это животные фильтры) Особенно пингвин
С этими фильтрами уже страшно даже мышкой по сайту водить 🙂 У самого блог в зародыше и как бы его на этой стадии не загубить.
Как много разных фильтров. Наверное невозможно точно определить под фильтром (хотя бы под одним из них) сайт или нет? И еще вопрос: под фильтр попадают отдельные страницы или весь сайт?
Принято считать, что поводом для наложения фильтра афиллиатов для Яндекса являются прямые признаки принадлежности сайтов одному владельцу – одинаковые контакты, одинаковые данные whois, один хостинг, похожий дизайн. Но на самом деле это уже давно не обязательно – фильтр может быть наложен и по косвенным признакам.