Встречайте обещанный в статье о SEO-империи перевод заметки Эли с BlueHatSeo о создании серых сайтов.
—————-
Итак, серое SEO. Давайте для начала разберемся, что это такое. Большинство вебмастеров справедливо считают, что в основе серого SEO лежат сомнительные приемы оптимизации. Т.е. приемы, которые вызывают сомнения, какой перед вами сайт: черный или белый. И эти сомнения есть благо, потому что если вам удастся посеять их в душе рядового пользователя, то и одурачить поискового бота будет не проблема.
На этапе разработки структуры серого сайта лучше всего найти и скопировать структуру другого сайта, который в принципе не может быть забанен поисковиками. Таким сайтом, например, является Digg. Структура Digg такова: у сайта есть несколько основных категорий, которые делятся на подкатегории, в которых размещаются новости. Каждая новость включает заголовок и короткое (до 255 знаков) описание. Каждая новостная запись сопровождается пользовательским контентом (комментариями). Если объективно посмотреть на эту структуру, она выглядит очень сомнительно. Контента совсем мало, он организован совсем не так, как организованы информационные сайты, а пользовательский контент, как правило, скуден и неуникален. Кроме того, никакого контроля качества, кроме, опять же, голосования пользователей, эти «комментарии» не проходят.
Но мы знаем, что Digg, Reddit и другие социалки такого типа ходят в большом авторитете поисковых систем, поэтому антиспамовые алгоритмы последних никак не реагируют на их убогую структуру, тем более не считают ее признаком черного SEO. И это дает нам большое преимущество, на котором и будет строиться наш серый сайт.
Теперь мы должны определиться с источниками контента. На примере Digg мы знаем, что контент крупных социалок большей частью состоит из заголовков и отрывков из новостей (тематика не играет большой роли). И это еще один плюс, потому что Google не считает перепечатку новостей дублированным контентом, так как одни и те же новости одинаковые почти одновременно публикуются на очень многих ресурсах. Такой подход вполне логичен.
Итак, получить контент не проблема. Нужно лишь выдергивать его из RSS-лент популярных сайтов. Кроме того, если мы собираемся копировать структуру Digg, нам не нужны новости целиком — только их название и небольшой отрывок. Еще нам нужны комментарии пользователей.
Где же брать пользовательский контент? В данном конкретном случае, самый лучший источник контента — это тот же самый ресурс, с которого мы содрали структуру, т.е. Digg. Давайте возьмем заголовок типичной дигг-новости и уберем из него общие слова, как-то: why, but, I, a, about, an, are, as, at, be, by, com, de, en, for, from, how, in, is, it, la, of, on, or, that, the, this, to, was, what, when, where, who, will, with, the, www, and, or, if, but и другие ничего не значащие слова.
Теперь мы забьем оставшиеся слова в окно поиска и посмотрим результаты. После этого нам останется лишь выдрать из результатов комментарии, изменить имена пользователей и сделать всю эту красоту более-менее уникальной. Для отдельных комментариев даже можно использовать цепи Маркова. Да, не каждый коммент будет соответствовать тематике новости, но разве это может отменить то, что он написан реальным человеком? И разве может «сомнительность» сайта лишить его позиций в поисковой выдаче? Нет и нет.
Почитайте типичные комментарии на Digg: «О, крутая статья», «Прикольно», «+1» и прочей подобной бессмыслицы там полно. Поисковики уже привыкли к такому контенту и относятся к нему терпимо. Конечно, это противоречит самой сути Интернета, но это то, что принесли с собой социальные сети, и от этого никуда не деться. Поэтому не важно, какой у вас контент. Важно, как вы его используете. Если вы, например, возьмете комментарии к популярному видео на YouTube (комментарии — основное текстовое наполнение этого сайта) и слепите его в один текст, какова вероятность того, что поисковик забанит эту страницу? Правильно, огромна. Однако когда владельцы клонов того же YouTube разбивают этот текст на отдельные куски и оформляют его в виде комментариев, страницы живут долго и счастливо. Имейте это в виду.
Итак, у нас уже есть два элемента успешного серого сайта. Мы даже может создать и прикрутить к сайту простейшую систему голосования и размещения новостей. Она не обязательно должна работать точно и объективно. Главное, чтобы на первый взгляд она выглядела правдоподобно. Сайт будет на 100% автонаполняем, однако нет никакой причины, почему вы не можете одновременно генерить сотни тысяч страниц с содранным контентом и оставаться «белыми и пушистыми».
Этот же подход можно применить к любому трастовому сайту. Давайте опять вернемся к YouTube. YouTube — это не первый и не последний видео-сайт в Интернете. Однако он очень популярен и очень хорошо ранжируется поисковыми системами, настолько хорошо, что может запросто переплюнуть вашу на 100% уникальную и оптимизированную статью в 1000 слов. Вы скажете, что здесь играют роль обратные ссылки. Возможно, в конкретном случае с YouTube это и так, но почему тогда так хорошо себя чувствуют его клоны, страницы которых хоть и не поднимаются высоко в выдаче, но с другой стороны практически не банятся за спам-комментарии?
Теперь перейдем к вопросу обратных ссылок. В плане линкостроения серые сайты имеют преимущество над черными проектами. Они могут пройти проверку человеком, поэтому их ссылки продержатся дольше, чем ссылки с черных сайтов. Что касается ссылок на сами серые сайты, то я начал бы с трекбеков на новостные сайты, откуда вы будете брать новости. Если ссылка на ваш клон появится на авторитетном ресурсе, круто, если на небольшом тематическом блоге, тоже хорошо. Поскольку все это законно, и наш серый сайт выглядит вполне достойно, такая ссылочная кампания может быть достаточно успешной. Если хотите, проспамьте комментарии. Вместе эти две базовые черные тактики могут дать хороший ссылочный вес. Помните, что главное, это заставить посетителя хотя бы на минуту засомневаться в том, что ваш сайт — это не очередной черный проект. Если вам это удастся, считайте, что полдела сделано.
Теперь поговорим о том, как можно сделать такой сайт еще более уникальным и поднять его в выдаче. В первую очередь я изучаю своих конкурентов. Поскольку весь контент на сером сайте является перепечаткой с других (часто авторитетных) ресурсов, он вряд ли сможет подняться в выдаче выше оригинала. Конечно, какой-то трафик с поиска по заголовкам статей все равно приходить будет, но это совсем не те объемы, которые нам нужны. Виной тому одинаковые заголовки. Если я хоть немного изменю их, трафик с поиска вырастет. Например, есть такой заголовок: «Hilton’s Chiwawa Caught Snorting Coke In Background of Sex Video». На этапе импорта заголовков я могу добавить скрипт, который будет заменять одни слова на другие, например, Hilton на Paris Hilton или Congressman Paul на Congressman Ron Paul (огромную базу имен знаменитостей можно найти на сайте IMDb). Кроме того можно прикрутить к скрипту базу синонимов, чтобы он заменял выбранные глаголы или существительные. Здесь, конечно, придется пошевелить извилинами и немного потрудиться, но в будущем такие усовершенствования могут принести хорошую прибыль. Кто знает, может, вам повезет, и вы выскочите в топ по немного искаженному запросу какой-то популярной новости.
Вот, собственно, и все о серых сайтах. Успехов!
Webgid.Studio – разработка сайтов в Украине
Записи по теме:
- Создание SEO-империи — Продолжение
- Захват ниши и топа поисковой выдачи
- И снова об обратных ссылках — WordPress MU и Flickr
- Обратные ссылки, обратные ссылки, обратные ссылки…
текст разбитый на комментарии – это фишка. спасибо за подсказку
Не как не могу понять, а чем же отличается черное SEO и вообще что такое серые сайты и в чем их отличие от доров.
Вот мое предположение поправьте если я не правильно понимаю:
1)черные сайты – это доры
2)серые – это сплоги
3)белые – это нормальные проекты и сателиты (они же тоже восновном для людей)
Если где то ошибся поправьте меня.
Umax, здесь все очень размыто. Много зависит от того, что понимать под фразой “нормальный проект”. Технически некоторые популярные сайты тоже можно отнести в категорию серых, но их вытягивает траст.
А вообще лучше не заморачиваться в этих оттенках и делать то, что по душе и что приносит деньги (и не противоречит законодательству).
В тему статьи – инструмент серого SEO; бесплатный рандомизатор текста – http://xbb.uz/randomizator/text.bb
Дмитрий спасибо! Вот дочитывал статью и думал садиться его писать, а тут твой линк )
И за перевед спасибо!
А как такой сайт монетезировать?
Использовать как трамплин для других?
Действительно а что нельзя с таких сатов ссылочки продавать?
Что-то непонятно со сплогами. Вот, например, блог Молчуна – весь из RSS, и ничего, сидит себе в индексе и деньги зарабатывает. И никакого синонимайзинга. Грамотный копи-паст тоже хорошая вещь. Мне думается, что главное – множество источников, тогда яша не банит
Тема палёная – в нете етого добра полно! Но лишним информация не бывает!
Интересно, на сколько рабочими являются эти методы на данный момент?
немного сомнительно все это, но учтя практичность автора статьи, и его всеобщее “уважение”, думаю это проверено на опыте.
На сколько я понял, самое главное это сделать так, что бы пользователь и поисковик думал, что это белый сайт. А после уже можно и ссылки на основной пустить…
Или я не правильно понял?
Белый сайт ,черный ,красный, зеленый)…какая разница. Порой черные сайты зарабатывают бешеные бабки когда белые попадают в бан…
Если сайт попал в индекс Яндекса это отличный повод продвигать белые ресурсы…ставить ссылки на них…было бы желание и терпение …а остольное прибудит само по себе…
Я только решил стартовать, собираю и анализирую информацию. На сколько актуальна эта информация сегодня? И если я правильно понял, эти сайты для буржунета?
Жалко что многие из этих методов уже не актуальны на данный момент, жду новых методик.
Есть Будда и есть не-Будда. В чем разница между ними? Не – Будда не знает что есть Будда:)