Реклама на сайте Advertise with us
Новости
Статьи
Поисковые системы
Дизайн и Юзабилити
Законы / Финансы
Маркетинг
Порно контент
Ниши и психология
Партнерские Программы
Траффик-Менеджмент
Сервисы
Программинг
Софт и Скрипты
Хостинг / Железо
Интервью
Веб камеры
Путешествия
История секса
Форум
FAQ
Каталог
Опросы
Участники

CТАТЬИ Статьи

Раздел: Поисковые системы

Версия для печати

SEO-дайджест: июнь 2008 г.

Могут ли меня наказать, если на моей домашней странице много ссылок?

Участник Google Groups опасается, что его PageRank понизился из-за большого количества ссылок на его главной странице.

Прежде чем предаваться размышлениям о возможных пенальти, подумайте сначала о практичности этих ссылок. Помогают ли они посетителю Вашего сайта или, наоборот, только запутывают его? PageRank тут совсем не причем, важно – насколько они полезны для пользователя. Даже если ссылки распределены по категориям, при их огромном количестве они по-прежнему не совсем удобны в использовании.

Что касается этого конкретного случая, то PageRank не зависит от количества ссылок на главной странице. Например, на него могли повлиять входящие ссылки. В принципе PageRank меняется не из-за действий самого вебмастера, а из-за изменений качества и количества входящих ссылок, которые он не в силах контролировать.

Обсуждение на Google Groups.

Google Trends for Websites: стоит ли им пользоваться?

Google Trends for Websites (GTfW) – сервис, который показывает посещаемость по уникальным посетителям сразу по нескольким сайтам, отображает информацию по поисковым запросам пользователей и находит «похожие» сайты.

Google Trends for Websites позволяет сравнивать показатели нескольких сайтов. Например, можно узнать, как различные сайты соотносятся друг с другом. К сожалению, для поддоменов эта функция пока не доступна.

Находить «похожие» сайты тоже очень важно при поиске ресурсов, каким-либо образом связанных с тематикой Вашего сайта. Таким способом можно также находить партнеров по обмену ссылками и рекламодателей.

Забавно, но какой бы полезный сервис Google ни придумал, всегда найдутся недовольные. Так, например, на различных форумах можно встретить заголовки обсуждений: Google Trends пополнил список неточных сервисов по подсчету трафика, Google Trends for Websites? Не круто, Google и Двухуровневый мир интернета Google опустился еще на уровень ниже. Запуск этого сервиса вызвал множество негативных постов на блогах. Некоторые заявляют, что этот инструмент неудачный, поскольку работает не со всеми сайтами; другие, потому что он не работает с google.com, в частности.

Насколько полезен этот инструмент и пользоваться им или нет, решать именно Вам.

Обсуждение на Sphinn, Search Engine Watch Forums, DigitalPoint Forums и также на Matt Cutt's Blog.

Порнография продолжает проникать в Google Web Search через Universal Search

В продолжение темы про порнографию на Google и борьбу, которую он ведет с ней. На сегодняшний день это действительно проблема. Например, если ребенок сделает запрос в Google «new bathroom» (новая ванная комната), то результат может оказаться весьма неоднозначным и содержать изображения адалтной тематики.

К изображениям в результатах поиска Google также добавил ссылку «Report images», которая позволяет сообщать об иллюстрациях оскорбительного характера. Для этого нужно нажать на саму ссылку и подтвердить наличие подобного изображения, а в ответ получите благодарность от Google:)

Обсуждение на DigitalPoint Forums.

Негативный SEO еще возможен?

В прошлом году мы рассматривали возможные варианты негативного влияния SEO на сайты. Толчком этому разговору послужила дискуссия на Forbes article on the saboteurs of search. Год спустя мы по-прежнему обсуждаем этот вопрос. Из форума WebmasterWorld мы узнали, что до сих пор существуют способы понижения чужих сайтов и их позиций, начиная с захвата контроля DNS конкурента и заканчивая удалением страниц с Вашего сайта вручную. К сожалению, с каждым днем появляются все новые способы саботажа: от клоакинга и нанесения ущерба репутации до размещения скрытых ссылок и паразитирования хостинга (прим.ред. возможно, имеется ввиду несанкционированное размещение страниц на сайте конкурента, используя дыры в скриптах).

Правильно заметил один из вебмастеров, нужно самому защищать свой сайт, поскольку Google не всегда способен помочь. К сожалению, не многие знают, как это можно сделать. Tedster перечисляет несколько возможных приемов: изменение UserAgent, отключение Cookies и Meta Refresh и так далее.

Обсуждение на WebmasterWorld.

Что делать при появлении 404 ошибки?

На Search Engine Land Рей Хоффман (Rae Hoffman) написал что нужно делать, когда одна из Ваших ссылок выводит 404 ошибку. Вы можете сделать релевантный 301-ый редирект, создать дружественную 404 страницу или специальную не-404 страницу для выявления битых ссылок. Рей также говорит о плюсах и минуса этих вариантов.

Очень важно исправлять битые ссылки. На форуме Sphinn Ванесса Фокс (Vanessa Fox) говорит о том, что 404 ошибки можно проверить с помощью Google Webmaster Tools. Внутренние ссылки можно исправить самому, но для исправления внешних нужно связываться с партнерами.

По словам Ванессы и Рея, главное это избежать индексирования страниц 404 ошибки:

Единственная проблема с редиректами, начиная от 301-го и заканчивая 200-м, состоит в том, что поисковые роботы могут подумать, что все несуществующие страницы – реальные страницы. Это, в свою очередь, может повлечь за собой печальные последствия. Как правильно отметил Рей, страницы 404 ошибки будут обязательно проиндексированы .

Наверное, стоит быть повнимательнее при выборе этих способов.

Обсуждение на Sphinn.

31.07.08
Источник: SERoundTable.
Автор: SERoundTable. Перевод: Mia.

Спонсор раздела Стань спонсором этого раздела!

Реклама на сайте Advertise with us