Встречайте обещанный в статье о SEO-империи перевод заметки Эли с BlueHatSeo о создании серых сайтов.
—————-
Итак, серое SEO. Давайте для начала разберемся, что это такое. Большинство вебмастеров справедливо считают, что в основе серого SEO лежат сомнительные приемы оптимизации. Т.е. приемы, которые вызывают сомнения, какой перед вами сайт: черный или белый. И эти сомнения есть благо, потому что если вам удастся посеять их в душе рядового пользователя, то и одурачить поискового бота будет не проблема.
На этапе разработки структуры серого сайта лучше всего найти и скопировать структуру другого сайта, который в принципе не может быть забанен поисковиками. Таким сайтом, например, является Digg. Структура Digg такова: у сайта есть несколько основных категорий, которые делятся на подкатегории, в которых размещаются новости. Каждая новость включает заголовок и короткое (до 255 знаков) описание. Каждая новостная запись сопровождается пользовательским контентом (комментариями). Если объективно посмотреть на эту структуру, она выглядит очень сомнительно. Контента совсем мало, он организован совсем не так, как организованы информационные сайты, а пользовательский контент, как правило, скуден и неуникален. Кроме того, никакого контроля качества, кроме, опять же, голосования пользователей, эти «комментарии» не проходят.
Но мы знаем, что Digg, Reddit и другие социалки такого типа ходят в большом авторитете поисковых систем, поэтому антиспамовые алгоритмы последних никак не реагируют на их убогую структуру, тем более не считают ее признаком черного SEO. И это дает нам большое преимущество, на котором и будет строиться наш серый сайт.
Теперь мы должны определиться с источниками контента. На примере Digg мы знаем, что контент крупных социалок большей частью состоит из заголовков и отрывков из новостей (тематика не играет большой роли). И это еще один плюс, потому что Google не считает перепечатку новостей дублированным контентом, так как одни и те же новости одинаковые почти одновременно публикуются на очень многих ресурсах. Такой подход вполне логичен.
Итак, получить контент не проблема. Нужно лишь выдергивать его из RSS-лент популярных сайтов. Кроме того, если мы собираемся копировать структуру Digg, нам не нужны новости целиком — только их название и небольшой отрывок. Еще нам нужны комментарии пользователей.
Где же брать пользовательский контент? В данном конкретном случае, самый лучший источник контента — это тот же самый ресурс, с которого мы содрали структуру, т.е. Digg. Давайте возьмем заголовок типичной дигг-новости и уберем из него общие слова, как-то: why, but, I, a, about, an, are, as, at, be, by, com, de, en, for, from, how, in, is, it, la, of, on, or, that, the, this, to, was, what, when, where, who, will, with, the, www, and, or, if, but и другие ничего не значащие слова.
Теперь мы забьем оставшиеся слова в окно поиска и посмотрим результаты. После этого нам останется лишь выдрать из результатов комментарии, изменить имена пользователей и сделать всю эту красоту более-менее уникальной. Для отдельных комментариев даже можно использовать цепи Маркова. Да, не каждый коммент будет соответствовать тематике новости, но разве это может отменить то, что он написан реальным человеком? И разве может «сомнительность» сайта лишить его позиций в поисковой выдаче? Нет и нет.
Почитайте типичные комментарии на Digg: «О, крутая статья», «Прикольно», «+1» и прочей подобной бессмыслицы там полно. Поисковики уже привыкли к такому контенту и относятся к нему терпимо. Конечно, это противоречит самой сути Интернета, но это то, что принесли с собой социальные сети, и от этого никуда не деться. Поэтому не важно, какой у вас контент. Важно, как вы его используете. Если вы, например, возьмете комментарии к популярному видео на YouTube (комментарии — основное текстовое наполнение этого сайта) и слепите его в один текст, какова вероятность того, что поисковик забанит эту страницу? Правильно, огромна. Однако когда владельцы клонов того же YouTube разбивают этот текст на отдельные куски и оформляют его в виде комментариев, страницы живут долго и счастливо. Имейте это в виду.
Итак, у нас уже есть два элемента успешного серого сайта. Мы даже может создать и прикрутить к сайту простейшую систему голосования и размещения новостей. Она не обязательно должна работать точно и объективно. Главное, чтобы на первый взгляд она выглядела правдоподобно. Сайт будет на 100% автонаполняем, однако нет никакой причины, почему вы не можете одновременно генерить сотни тысяч страниц с содранным контентом и оставаться «белыми и пушистыми».
Этот же подход можно применить к любому трастовому сайту. Давайте опять вернемся к YouTube. YouTube — это не первый и не последний видео-сайт в Интернете. Однако он очень популярен и очень хорошо ранжируется поисковыми системами, настолько хорошо, что может запросто переплюнуть вашу на 100% уникальную и оптимизированную статью в 1000 слов. Вы скажете, что здесь играют роль обратные ссылки. Возможно, в конкретном случае с YouTube это и так, но почему тогда так хорошо себя чувствуют его клоны, страницы которых хоть и не поднимаются высоко в выдаче, но с другой стороны практически не банятся за спам-комментарии?
Теперь перейдем к вопросу обратных ссылок. В плане линкостроения серые сайты имеют преимущество над черными проектами. Они могут пройти проверку человеком, поэтому их ссылки продержатся дольше, чем ссылки с черных сайтов. Что касается ссылок на сами серые сайты, то я начал бы с трекбеков на новостные сайты, откуда вы будете брать новости. Если ссылка на ваш клон появится на авторитетном ресурсе, круто, если на небольшом тематическом блоге, тоже хорошо. Поскольку все это законно, и наш серый сайт выглядит вполне достойно, такая ссылочная кампания может быть достаточно успешной. Если хотите, проспамьте комментарии. Вместе эти две базовые черные тактики могут дать хороший ссылочный вес. Помните, что главное, это заставить посетителя хотя бы на минуту засомневаться в том, что ваш сайт — это не очередной черный проект. Если вам это удастся, считайте, что полдела сделано.
Теперь поговорим о том, как можно сделать такой сайт еще более уникальным и поднять его в выдаче. В первую очередь я изучаю своих конкурентов. Поскольку весь контент на сером сайте является перепечаткой с других (часто авторитетных) ресурсов, он вряд ли сможет подняться в выдаче выше оригинала. Конечно, какой-то трафик с поиска по заголовкам статей все равно приходить будет, но это совсем не те объемы, которые нам нужны. Виной тому одинаковые заголовки. Если я хоть немного изменю их, трафик с поиска вырастет. Например, есть такой заголовок: «Hilton’s Chiwawa Caught Snorting Coke In Background of Sex Video». На этапе импорта заголовков я могу добавить скрипт, который будет заменять одни слова на другие, например, Hilton на Paris Hilton или Congressman Paul на Congressman Ron Paul (огромную базу имен знаменитостей можно найти на сайте IMDb). Кроме того можно прикрутить к скрипту базу синонимов, чтобы он заменял выбранные глаголы или существительные. Здесь, конечно, придется пошевелить извилинами и немного потрудиться, но в будущем такие усовершенствования могут принести хорошую прибыль. Кто знает, может, вам повезет, и вы выскочите в топ по немного искаженному запросу какой-то популярной новости.
Вот, собственно, и все о серых сайтах. Успехов!
Webgid.Studio – разработка сайтов в Украине
Записи по теме:
- Создание SEO-империи — Продолжение
- Захват ниши и топа поисковой выдачи
- И снова об обратных ссылках — WordPress MU и Flickr
- Обратные ссылки, обратные ссылки, обратные ссылки…
немного сомнительно все это, но учтя практичность автора статьи, и его всеобщее “уважение”, думаю это проверено на опыте.
PS У меня пока с дорами в виде блогов и форумов как-то не очень 🙂
Все так красиво и безоблачно.
>> И это еще один плюс, потому что Google не считает перепечатку >> новостей дублированным контентом
Неужели Google одинаковые новости на каждом сайте считает уникальным контентом? Так зачем тогда эти все пляски с бубном, берем какой-нить rss и тянем себе. И как Google определяет вообще, новость это, или так, на заборе нацарапано?
Спасибо за внимание.
Прочел. Самое интересное то, что я уже сам догнал до всего этого на интуитивном уровне 🙂 Работает. Особенно в Гугле 🙂 А танцы с бубном не помешают. Например, спамить в собственный серый ресурс камменты на цепях маркова. Ссылку в имени оставлять на свои же ресурсы (страницы), с которыми надо перелинковать. Получается новость тянется из RSS, а камменты – голимый дорвей. Надо проверить на досуге – думаю, сработает.
Так вроде все понятно.
Вот только один вопрос, что за цепи Маркова?
Эли, конечно, толковый чел. Ведает интересными практиками. Есть о чем подзадуматься. Сэнкс!
За базу имен знаменитостей вобще респект
А можно как то преобразовать на примере пэрис хлстон
ЧТоб по поиску к нам вело даже по слову Hilton or paris
Было бы оченть хорошо сразу бы вело не только русских IP но и буржуи валили бы к нам полным ходом
А че лишний траф на дороге не валяется!
имхо несколько устарело
и не стоит сравнивать себя с диггом или ютубом
для гугля сайты не равны, “старичкам” больше позволено
Думаю, под Гугл неплохо будет. С Яндексом такое (в плане контента и синонимов) слабо прокатывает. Самое смешное, что в сети очень распространено мнение, что в рунете с поиска Гугла трафа больше, чем с родного Яндекса.
Сергей, да, Google относится к новостям по-особенному. Самое интересное, что о создании заточенных под контекстную рекламу сайтов на основе новостных RRS-лент пишут даже белые буржуйские пнтернет-предприниматели. Как Google это все разбирает? Может, у него есть список основных новостных ресурсов или еще что-то в этом роде.
Программ, цепи Маркова применяются при создании страниц для дорвеев. Подробнее здесь:
http://blog.promosite.ru/comments.php?336
Vlad, извини, не совсем понял, что ты имеешь в виду.
Спасибо. Примерно понял что за цепи.
Спасибо за базу имен. Очень полезная штука.
Полезная статья. Кстати, на моих сайтах траф с Гугла давно превысил траф с Яндекса.
Спасибо за рекомендации.
А как Вы думаете можно ли это применять по частям? Т.е. есть некий сайт для которого надо сделать обновляемый контент. Соответственно структуру того же Дигга я распространяю не на весь сайт, а только на часть (содержащую обновляемый контент) ну и т.д. А остальная часть сайта может и не подвергаться изменениям.
mentat, конечно, можно.
Давно работает и есть готовые решения ссылка в имени.
Блин, говноресурсы это конечно хорошо, но всему нужно знать меру.
Я так посмотрю у каждого второго в голове крутиться одна мысль: тянуть чужие rss и спамить собственный сплог комментами.
Что нас ждет в обозримом будущем ?
tvsm22, ничего не ждет. Все будет так же, как и сейчас. Это ж ресурсы не для людей, а для ссылок.
Я хоть и сторонник белых сайтов, но ничего плохого в сплогах не вижу, потому что реально я самих сплогов почти не вижу. Может, у меня выдача особенная? 🙂
Все оно так конечно, но все-равно, чтобы запустить такой механизм надо иметь уже какие-то наработки. Поиграться с ЯхуПайпс, блогораму поковырять а потом уже браться за то, что описано в статье. Мне так кажется.
Информация довольно обопщена, но есть много инетересных моментов , спасибо за статью