Реклама на сайте Advertise with us
Новости
Статьи
Поисковые системы
Дизайн и Юзабилити
Законы / Финансы
Маркетинг
Порно контент
Ниши и психология
Партнерские Программы
Траффик-Менеджмент
Сервисы
Программинг
Софт и Скрипты
Хостинг / Железо
Интервью
Веб камеры
Путешествия
История секса
Форум
FAQ
Каталог
Опросы
Участники

CТАТЬИ Статьи

Раздел: Маркетинг

Версия для печати

SES NY 2010: и снова про SEO

Сегодняшняя статья представляет собой обзор конференции SES NY 2010. На этой нью-йоркской встрече SEO-оптимизаторов обсуждались вопросы, касающиеся работы поисковых систем, истории формирования рынка онлайн-маркетинга, прогнозов на будущее в этой области. Также профессионалы индустрии обсудили лучшие инструменты и то, как следует пользоваться данными, полученными с их помощью.


Прошлое и будущее информационного поиска

Для того чтобы успешно конкурировать на рынке онлайн-поиска, важно понимать, как поисковик, в частности, Google, сканирует большое количество информации и индексирует ее. Также стоит знать, как работает алгоритм ранжирования, основанный на гиперссылках, например PageRank. Эксперты данной сессии поделились своими знаниями, чтобы помочь SEO-оптимизаторам в создании надежной стратегии линк-билдинга. По этой причине основатель компании Beyond Ink Энн Кеннеди (Anne F. Kennedy) предлагает «разложить все по полочкам». Перед тем, как приступать к созданию успешной маркетинговой стратегии, она считает нужным выяснить:
  • как работают поисковые боты,
  • как индексируются ключевые слова и измеряется их вес,
  • как поведение конечного пользователя влияет на ранжирование ресурса,
  • какая маркетинговая стратегия будет эффективной в грядущем десятилетии поискового рынка.
Майк Грэн (Mike Grehan), вице-президент IncisiveMedia.com и издатель Search Engine Watch и ClickZ, сделал краткий обзор истории поиска и выдачи информации. В 1997 году Интернет не был связан с маркетингом, а скорее относился к сфере дизайна. Люди не задумывались о том, что сайты можно продвигать, их больше волновала привлекательность ресурсов. Хотя уже тогда поиск информации был главным предназначением Интернета, что и подтолкнуло к возникновению поисковых систем. Появление поисковиков во многом обязано американскому разработчику Вэнивару Бушу (Vannevar Bush), создавшему в 1945 году прообраз гипертекста. Его книга «Как мы можем мыслить» (As We May Think) стала в этом отношении фундаментальной.

Затем британский ученый и изобретатель сэр Тим Бернерс-Ли (Tim Berners Lee) придумал в 1989 году всемирную паутину. Сейчас Интернет и WWW для большинства являются синонимичными понятиями, хотя в действительности это не так. Всемирная паутина существует внутри пространства Интернета. Именно с тех самых пор мы считаем само собой разумеющимся использование браузера для навигации по сети.

В 1998 году Сергей Брин и Лэрри Пейдж (Lawrence Edward Page) основали Google. Новая поисковая система начала использовать различные способы поиска и выдачи информации, с чем она успешно справляется и по сей день.

Так постепенно складывался известный механизм работы поисковых систем, который схематично можно описать следующим образом:

Всемирная паутина -> поисковые роботы -> информационный архив -> анализ -> индексирование -> запрос -> ранжирование

Несомненно, считает Майк, поисковые боты – очень важный компонент в этой структуре, но подчас им придают слишком большое значение. В действительности, они практически не влияют на ранжирование, ведь их задача заключается лишь в том, чтобы проходить по ссылкам и собирать отрывки текстов. Затем они создают «инвертированный индекс» («inverted index»), с помощью которого определяется роль слов в тексте. Из этого можно сделать вывод, что вес страницам создают не боты, а размещенные на ресурсах тексты.

В отличие от современных «умных» алгоритмов, сначала ранжирование зависело только от текста на странице. Это означало, что оптимизатору было достаточно переполнить ключевыми словами все страницы сайта, его заголовки, тэги Alt, тексты ссылок и Sitemaps. Одним словом, SEO-копирайтинг строился на понятиях количества, а не качества. Ведь ресурсы ранжировались по тому, как часто то или иное ключевое слово появлялось на странице. Например, поисковик Alta Vista плохо ранжировал авторитетные и официальные сайты по определенным запросам из-за того, что в них было мало использовано ключевых слов. Именно тогда на поисковом рынке назрели перемены, в результате которых алгоритм ранжирования был усложнен. На ранкинг ресурсов начали оказывать влияние другие параметры:
  • HITS (использовался поисковой системой Teoma)
  • PageRank
  • Индекс цитирования
  • Онлайн-коммьюнити, хабы и авторитетные сайты
  • Ссылки: их вес, авторитетность, возраст и так далее
01.09.10
Источник: SERoundTable.
Автор: SERoundTable. Перевод: gravion.

Спонсор раздела Стань спонсором этого раздела!

Реклама на сайте Advertise with us