Реклама на сайте Advertise with us
Новости
Статьи
Поисковые системы
Дизайн и Юзабилити
Законы / Финансы
Маркетинг
Порно контент
Ниши и психология
Партнерские Программы
Траффик-Менеджмент
Сервисы
Программинг
Софт и Скрипты
Хостинг / Железо
Интервью
Веб камеры
Путешествия
История секса
Форум
FAQ
Каталог
Опросы
Участники

CТАТЬИ Статьи

Раздел: Поисковые системы

Версия для печати

SEO-дайджест: май 2013 г.

Как вы обнаруживаете ссылки, содержащие спам?


На WebmasterWorld высказывается вебмастер, который, видимо, стал жертвой Penguin 2.0 update. Он интересуется, что ему следует делать, чтобы определить, что ссылка является спамом. Вебмастер пишет:

Единственное, что я думаю по этому поводу, - то, что на сайте есть бэклинки, содержащие спам. Всего обратных ссылок около 1500, но не все из них – бэклинки с сайтов, которые ссылаются на меня. Как можно выяснить, не являются ли они спамом и не нанесут ли вред сайту?


Также он в подробностях описал, каким образом получил эти ссылки, и, стоит сказать, что некоторые способы заслуживают пенальти. Что же теперь? Некоторые рекомендации по поводу того, как распознать плохие ссылки, включают отчет Google Webmaster Tools. Придется скачать все ссылки и перебрать вручную одну за другой. Другие советуют воспользоваться такими сторонними сервисами, как Majestic SEO, Raven Tools, SEOmoz (теперь просто Moz) и проч., чтобы получить более полную картину. Также можете воспользоваться Bing Webmaster Tools. Так или иначе, в случае с 1500 ссылками я бы потратил время, проверил вручную каждую из них и «отклонил» сомнительные. В итоге вебмастер был слегка ошарашен результатами проверки:

У меня появилось время, чтобы более внимательно просмотреть бэклинки. Значительная часть из них оказалась полным хламом: начиная с русских #*$! сайтов и заканчивая множеством сайтов, содержащих статьи, где я никогда ничего не размещал.


Обсуждение на WebmasterWorld.


Google поделился информацией по поводу удаления контента: подтверждение 404-й ошибки и другие подробности


На Google Webmaster Help опубликована информация от Джона Мюллера касательно удаления контента из индекса или результатов поиска Google.
Некоторые пункты – общеизвестные факты, но отдельные моменты заслуживают внимания.
  • Инструмент отклонения ссылок не предназначен для сайтов, которые нормально функционируют. Именно поэтому мы выставили определенные ограничения пользования.
  • Инструмент отклонения ссылок не удаляет URLs из индекса, он исключает их из результатов поиска Google. Разница с трудом уловима, но, тем не менее, это одна из причин, которая влияет на общее количество проиндексированных URLs.
  • Файл robots.txt не удаляет контент из индекса, но с того момента, как мы не смогли повторно просканировать и просмотреть содержимое ссылок, они становятся невидимыми в поиске.
  • Чтобы удалить контент из индекса, нужно, чтобы мы смогли просканировать его и обнаружить тег «noindex» или 404/410 код состояния HTTP (или, к примеру, редирект и т.п.). Чтобы просканировать ссылку, она не должна быть запрещена ("not disallowed") через robots.txt file.
  • Как правило, мы обрабатываем 404 код состояния так же, как и 410 с крошечной разницей в том, что 410-ссылки обычно не нуждаются в подтверждении повторным сканированием. Таким образом, они окажутся исключенными из индекса чуть быстрее. Как показывает практика, разница не критична, но если вы имеете возможность использовать 410 код состояния для содержимого, которое удалено, то стоит этим воспользоваться.

Сопоставление 404 vs. 410 показалось мне интересным. В случае 404 кода состояния, Google обычно производит повторное сканирование, чтобы удостовериться, что страница не найдена. Но если поисковая система обнаруживает 410, повторного сканирования не произойдет. Вебмастера должны это знать. Более безопасно использовать 404, для более быстрого результата - 410. Второй момент - то, что the URL removal tool не удаляет ссылки из индекса, а исключает их из результатов поиска Google. Для большинства это не секрет, но лишний раз стоит напомнить.

Обсуждение на Google Webmaster Help.


Google AdSense позволит издателям модифицировать код рекламных объявлений для адаптивного дизайна


Одно из главных желаний издателей Google AdSense – это возможность использовать свои объявления применительно к сайтам «восприимчивого» дизайна.
Несмотря на то, что Google не собирается делать процесс автоматизированным, теперь вы можете видоизменять свой AdSense код, чтобы поддерживать сайты с адаптивным дизайном.
Google объявил о том, что они внесли коррективы касательно изменения кода рекламных объявлений, чтобы сделать исключение ради адаптивного дизайна. Теперь Google разрешает издателям модифицировать код, только если это не будет искусственно повышать эффективность объявлений и вредить рекламодателям.
Особенно эта функция полезна в следующих случаях:
  • Адаптивный дизайн: Предоставление издателям возможность создавать отдельную веб-страницу, которая будет «приспосабливаться» к устройству, на котором она отображается, будь то ноутбук, смартфон или планшетник.
  • A/B тестирование: Проведение тестирований путем создания нескольких версий страницы, сравнивая поведение пользователей для выявления страницы, которая является наиболее эффективной.
  • Динамика пользовательских каналов: Работа по отслеживанию определенных категорий пользователей, разделов сайта и т.д.
  • Уменьшение рекламных объявлений: Увеличение скорости загрузки страниц путем сокращения количества передаваемых данных.


Обсуждение на Google+ и WebmasterWorld.


17.06.13
Источник: SERoundTable.
Автор: SERoundTable. Перевод: Erzhi.

Спонсор раздела Стань спонсором этого раздела!

Реклама на сайте Advertise with us