Реклама на сайте Advertise with us
Новости
Статьи
Поисковые системы
Дизайн и Юзабилити
Законы / Финансы
Маркетинг
Порно контент
Ниши и психология
Партнерские Программы
Траффик-Менеджмент
Сервисы
Программинг
Софт и Скрипты
Хостинг / Железо
Интервью
Веб камеры
Путешествия
История секса
Форум
FAQ
Каталог
Опросы
Участники

CТАТЬИ Статьи

Раздел: Поисковые системы

Версия для печати

Уязвимость по прозвищу Googlejacking



Каким образом вебмастер может определить, подверглась ли его или ее страница воздействию Googlejack? Для начала наберите "allinurl:yourdomail.com" в поисковой форме Google и посмотрите на результаты. Упомянутый домен должен возглавлять листинг. Если листинг содержит другие результаты с правильными заголовками и выдержками, а в некоторых случаях и кешированными данными, но с некорректными URL, шансы весьма велики, что страница была подвергнута действию Googlejack, случайно или преднамеренно.

Устранить проблему не так просто, как обнаружить. Вебмастера не могут забанить 302-реферралов и большинство из скриптов редиректа, поскольку серверы не получают эту информацию во время коннект-запросов. Клики со страницы, содержащей редирект-скрипт, забанить можно, однако это окажет влияние только на серферов, но не на поисковых спайдеров - в которых, собственно, вся проблема. Вебмастеры могут запросить Google на удаление страниц, но это процесс длительный и утомительный, да и работает он только в пределах определенных параметров.

Schmidt предлагает вебмастерам предпринять несколько шагов, чтобы свести к минимуму вероятность грабежа их страниц:

  • всегда назначайте редирект "не-www" доменов (yourdomain.com) на www-версию (www.yourdomain.com) или наоборот, и делайте это при помощи 301 кода, вместо 302 кода.
  • всегда используйте абсолютную внутреннюю залинковку на вебсайте (включайте полное доменное имя в ссылки, ведущие с одной страницы на другую внутри одного сайта).
  • включайте элементы постоянно обновляемого контента во все страницы - значение времени, случайную цитату или счетчик посещений.
  • используйте мета-тэг на всех страницах.
  • заставьте все страницы "искусственно" подтверждать их URL, включая 302 редирект с любого URL на тот же самый URL с последующей генерацией статуса "200 ОК".

    Schmidt также предлагает вебмастерам принять меры, чтобы не стать случайными грабителями:

  • всегда используйте 301 редиректы вместо 302 редиректов, или запрещайте использование редирект-скриптов в файле "robots.txt", или используйте оба эти приема в комплексе
  • запрашивайте удаление всех редирект-скриптов из индекса Google. Простое включение URL в файл robots.txt не удалит его из Google. Эти действия дадут гарантию, что URL не будет посещаться спайдерами Google.
  • если вы обнаружите, что одна из ваших страниц случайно грабит чью-то другую в индексе Google, заставьте скрипт на этой странице возвращать 404 ошибку (страница не найдена), и затем запросите Google на удаление этого скрипта из его индекса.
  • 16.05.05
    Источник: AVN.
    Автор: Kathee Brewer. Перевод: Seva.

    Спонсор раздела Стань спонсором этого раздела!

    Реклама на сайте Advertise with us