Реклама на сайте Advertise with us
Новости
Статьи
Поисковые системы
Дизайн и Юзабилити
Законы / Финансы
Маркетинг
Порно контент
Ниши и психология
Партнерские Программы
Траффик-Менеджмент
Сервисы
Программинг
Софт и Скрипты
Хостинг / Железо
Интервью
Веб камеры
Путешествия
История секса
Форум
FAQ
Каталог
Опросы
Участники

CТАТЬИ Статьи

Раздел: Поисковые системы

Версия для печати

SEO-дайджест: декабрь - январь 2012-13 гг.

Клоакинг: скрытие рекламы от GoogleBot

На WebmasterWorld писал вебмастер, который хотел спрятать рекламу от Google и в связи с этим заинтересовался, насколько это противоречит правилам поисковой системы.

Действительно ли Google примет это за «скрытие контента»? Ответ на этот вопрос есть в службе поддержки Google:
Клоакинг заключается в том, что пользователи и поисковые системы видят разный контент или разные URLs. Клоакинг считается нарушением правил, прописанных в Руководстве для вебмастеров, потому что пользователи получают не те результаты, которые они ожидают увидеть.

Некоторые примеры клоакинга включают:
  • Использование текстовой HTML-страницы для поисковых систем, в то время как пользователи видят страницу с картинками или Flash;
  • Включение текста или ключевых слов в страницу только когда user-agent, а не "живой" посетитель запрашивает страницу.

В данном случае вебмастер хочет показывать рекламу только зарегистрированным пользователям. Так как GoogleBot не может зарегистрироваться, он увидит то, что видит незарегистрированный пользователь, т.е. контент без рекламы.
Таким образом, если GoogleBot и незарегистрированный пользователь видят одно и то же, – это не считается клоакингом.

Обсуждение на WebmasterWorld.


Пенальти внутренней перелинковки?

На WebmasterWorld писал один вебмастер, который управляет 150 сайтами, 3 из которых упали примерно в одно и то же время. Единственный объединяющий фактор – это текст анкора, который использовался на домашней странице для ссылки на нее же.
Вебмастер уверен, что сайты были наказаны именно из-за стандартного текста, указывающего на тему сайта. Он пишет:

Из 150 сайтов, которые я вел, 3 упали пару месяцев назад. И единственное, что их объединяет, как мне кажется, - все ссылки на домашнюю страницу включают главное ключевое слово.
"Коты" – один анкор на домашнюю страницу.
"Мойка окон" – другой анкор.


Обсуждение на WebmasterWorld.


Когда Google не индексирует контент

На Google Webmaster Help один вебмастер жалуется по поводу того, что количество проиндексированных Google страниц, которые содержатся в файле Sitemap, значительно сократилось.
Лучший способ узнать, сколько страниц сайта было проиндексировано, - загрузить XML Sitemap файл и сравнить количество добавленных в документ URLs и количество проиндексированных. Если число примерно совпадает – замечательно. Если количество проиндексированных страниц увеличивается – еще лучше. Если же их число падает – стоит задуматься.

Гуглер Gary Illyes пишет по этому поводу:

Мы улучшили алгоритмы таким образом, что они не будут повторно индексировать страницы, которые не содержат полезной для пользователей информации. Я взглянул на страницы, которые ранее были проиндексированы, а теперь не индексируются. Их немного, и причина заключается в отсутствии «живого» контента.

Gary показал примеры страниц, которые выдают «мягкую» 404 ошибку (вместо «не найдено» возвращается стандартная страница с кодом «200 OK»). Также он привел примеры пустыx страниц, которые были проиндексированы, и примеры URLs в Sitemap, которые ссылаются на неканонические URLs.
«Здоровым» сайтам нужны качественные ссылки, контент, редиректы и правильные заголовки ответа HTTP. В противном случае Google перестанет индексировать или даже сканировать эти URLs.
Обсуждение на Google Webmaster Help.

21.02.13
Источник: SERoundTable.
Автор: SERoundTable. Перевод: Erzhi.

Спонсор раздела Стань спонсором этого раздела!

Реклама на сайте Advertise with us