Реклама на сайте Advertise with us
Новости
Статьи
Поисковые системы
Дизайн и Юзабилити
Законы / Финансы
Маркетинг
Порно контент
Ниши и психология
Партнерские Программы
Траффик-Менеджмент
Сервисы
Программинг
Софт и Скрипты
Хостинг / Железо
Интервью
Веб камеры
Путешествия
История секса
Форум
FAQ
Каталог
Опросы
Участники

CТАТЬИ Статьи

Раздел: Поисковые системы

Версия для печати

SEO-дайджест: июль 2006 г.

Крупный сайт против нескольких нишевых доменов: кто сильнее?

По мере того, как граждане Сети осваивают азы функционирования вебсайтов и ранжирования в поисковых системах, у них зачастую возникает желание обойти утомительный процесс поисковой оптимизации и добиться успеха более легкими способами. И ничего плохого в этом нет, потому что подобные мысли помогают развитию инноваций. На форумах, посвященных поисковой оптимизации, время от времени появляются топики, объединенные темой «как обмануть поисковые системы».

Данная идея (которая, признаюсь, приходила и мне в голову, когда я начинал освоение предмета) состоит в создании нескольких сайтов в надежде получить высокие ранкинги по нужным поисковым запросам. Проблема в том, что данная идея попросту не работает, если вы не имеете дело с абсолютно новым продуктом или услугой. Допустим, вы создали первый в мире «Booglabangly». Вы можете создать несколько сайтов, посвященных этому новому кейворду, и скорее всего вскоре займете лидирующие позиции. Соревнования по SEO регулярно проводятся именно по такому принципу.

Недавняя ветка на Cre8asite Forums посвящена обсуждению этой темы. Стартовый вопрос заключался в создании нескольких вебсайтов для получения высоких ранкингов по нужному кейворду.

Суть стратегии – найти нишу и доминировать в ней, с помощью множества вебсайтов. Создаем максимально возможное количество сайтов, которые под разными углами освещают нишу. В результате, когда кто-то делает поиск по этой нише, большинство вебсайтов появляется на страницах с результатами запроса.

Тут же топикстартер приводит цитату из ветки на SitePoint Forums.

Первый же ответ в этом топике получился продуманным и взвешенным. Отвечающий поделился собственным опытом, исходя из которого, один цельный вебсайт со множеством тем получит высокие ранкинги по новому кейворду быстрее, чем новый сайт – ведь большой сайт уже заслужил определенную степень доверия.

Затем Bragadocchio отметил, что успеха с новыми сайтами можно достичь, если сфокусировать эти сайты на различные маркетинговые сегменты – как, собственно, и предлагал топикстартер.

Изначальный вопрос предлагал использование этих сайтов для создания взаимных ссылок, но Bill довольно резонно заметил

Я бы не увлекался чрезмерной взаимной залинковкой сайтов. Это может насторожить поисковые системы.


Слишком сложно однозначно ответить на поднятые вопросы, поскольку трафик, созданный подобными CJ-системами, не всегда бывает законным, качественным или платежеспособным. Лично я считаю, что времена создания множества сайтов на популярный кейворд уже давно прошли – по крайней мере, если говорить о естественных результатах поиска. С другой стороны, подобный поисковый маркетинг с использованием приемов SEO и платных поисковых объявлений, или при продвижении локальных продуктов, может быть вполне успешным и завоевать достойные позиции во многих поисковых системах.

Дискуссия на Cre8asite Forums и Sitepoint Forums.



Вебмастер пострадал от 301-редиректов с не-WWW на WWW версию

Душещипательная история была рассказана на WebmasterWorld. Год назад, один Вебмастер преуспевал в результатах поиска Google. Затем он решил последовать совету Google и сделал редирект с не-WWW версии сайта на WWW версию (то есть http://seroundtable.com а http://www.sseroundtable.com ) После этого, Google исключил страницы его сайта из своих результатов. Он ждал в течение 10 месяцев! 10 месяцев давалось Google, чтобы понять, что нужно индексировать www-версию – безрезультатно. Тогда Вебмастер решил отказаться от 301 редиректа – и через две недели его сайт снова появился в результатах поиска, на тех же позициях, что и раньше. Вот это да.

Участники WebmasterWorld, админы и модераторы устроили Вебмастеру перекрестный допрос, чтобы понять – что же было сделано неправильно. Однако вроде бы все делалось «по учебнику».

Что это, еще один отголосок проблем Google с каноническими URL?

Обсуждение на WebmasterWorld



31.07.06
Источник: SEroundTable.
Автор: SEroundTable. Перевод: Seva.

Спонсор раздела Стань спонсором этого раздела!

Реклама на сайте Advertise with us