Реклама на сайте Advertise with us
Новости
Статьи
Поисковые системы
Дизайн и Юзабилити
Законы / Финансы
Маркетинг
Порно контент
Ниши и психология
Партнерские Программы
Траффик-Менеджмент
Сервисы
Программинг
Софт и Скрипты
Хостинг / Железо
Интервью
Веб камеры
Путешествия
История секса
Форум
FAQ
Каталог
Опросы
Участники

CТАТЬИ Статьи

Раздел: Поисковые системы

Версия для печати

Нужно ли гоняться за изменчивыми SE алгоритмами?



Оптимизированный должным образом веб-сайт может добиться высоких позиций в результатах поисковых запросов. Однако если алгоритмы поисковых систем меняются, нужно ли вносить соответствующие поправки? В этом вопросе даже у специалистов единого мнения нет.

Далее приводится отчет с конференции по стратегиям оптимизации в поисковых системах, который проходил в Сан-Хосе, США, 8-11 августа 2005 года.

Маркетинг в поисковых системах основан на алгоритмах – тех формулах, которые нигде не публикуются, но которыми поисковые системы пользуются при ранжировании веб-сайтов. Большинство маркетологов в области поисковых систем тратят массу времени на то, чтобы понять алгоритмы - как они работают, что для них требуется, как они могут измениться, - и постоянно задают один и тот же вопрос: «Можно ли их победить в затеянной ими же игре?»

Некоторые из экспертов в области оптимизации в поисковых системах (SEO) фокусируются на декодировании и преодолении этих сложных, постоянно изменяющихся формул. Они находят изощренные пути для получения выгоды от особенностей алгоритмов. Другие профессионалы в области поисковых систем предпочитают уделять основное внимание общему улучшению эффективности и заметности вебсайта, не ставя перед собой непременной задачи победить алгоритмы.

Какой же подход является наилучшим?

Этот вопрос горячо обсуждался на недавней Конференции по стратегиям поисковых систем в Сан-Хосе. В непринужденной обстановке обмена мнениями и активного обсуждения, участники конференции, которые обладали радикально различными мнениями по этому ключевому вопросу, сумели сотворить насыщенную, полезную и живую дискуссию.

Мнения экспертов разошлись

Джеф Ваттс (Jeff Watts), менеджер по поисковым системам в National Instruments, объяснил, что его компания придерживается долгосрочного подхода к оптимизации в поисковых системах. Главным образом, внимание фокусируется на предоставлении пользователям качественного контента. И, хотя он признал тот факт, что иногда они проигрывают конкурентам, использующим приемы «обратной алгоритмизации» своих сайтов для получения преимущества за счет алгоритмов, в долгосрочной перспективе сайты National Instruments показывают стабильно высокие значения ранкингов.

Давид Нейлор (David Naylor), эксперт по SEO из Йоркшира, Англия, обрисовал иную перспективу. Он описал проекты, в которых единственной целью его усилий было получение высоких ранкингов. Каким образом он этого добивался? Давид планомерно и настойчиво пытается найти «бреши» в алгоритмах, и использует эти слабости для получения высших позиций и заработка денег для своих клиентов и себя самого.

Шари Зуров (Shari Thurow), вебмастер и директор по маркетингу в компании Grantastic Designs, возразила, что она никогда не считала нужным прибегать к спорным приемам и методикам, направленным на использование слабостей поисковых алгоритмов. Напротив, она смогла добиться прекрасных позиций и высокого ранкинга для своих клиентов, обращая основное внимание на нужды пользователей, качество контента, и использование здравого подхода к юзабилити сайта. Шари не без иронии назвала «АЛГОголиками» тех маркетологов, которые одержимы идеей победы над алгоритмами для получения высокого ранкинга. Стоит заметить, что некоторые участники конференции с готовностью признали свою алго-зависимость!

Многие маркетологи прочувствовали на себе, что процесс оптимизации стал более сложным. Миккель Свендсен (Mikkel Svendsen) из Red Zone Global, уверен в том, что «задачи стали намного сложнее, чем раньше». Он настаивает, что маркетологи в поисковых системах должны сейчас подходить индивидуально к каждому случаю оптимизации, изучать конкурентов, и пытаться понять, какой из стратегических подходов будет работать лучше всего для данного вебсайта.

Грег Босер ( Greg Boser) из Web Guerilla разделяет это мнение. «Задачи были проще, когда больше внимания уделялось факторам самой страницы. Теперь все намного сложнее». Несмотря на это, возможности для достижения успеха существуют. Грег аллегорически отметил: «зияющие дыры настолько велики, что вы можете проехать сквозь них на большегрузном автомобиле». Эти узкие места в алгоритмах могут стать источником хороших заработков, и не только в краткосрочной перспективе. Многие никак не могут понять, что «охотники за алгоритмами» ЗАБОТЯТСЯ о конвертации, а не только о высоких ранкингах. «Это происходит потому, что большинство из нас получают доход на основании партнерской модели. Если наши клиенты не зарабатывают деньги, мы тоже ничего не получаем».

Джил Вален (Jill Whalen) из High Rankings, уверена, что многие маркетологи одержимы поиском «философского камня» – универсального рецепта успеха – который принесет им золотые горы. «К сожалению, процесс поисковой оптимизации не поддается описанию простыми цифрами», - предостерегает Джил. Ее совет: «Не стоит сходить с ума и наблюдать за ежедневными небольшими изменениями. Позиция изменится. Это неизбежно. Маркетологи должны научиться мыслить в долгосрочной перспективе».
19.09.05
Источник: searchenginewatch.
Автор: Patricia Hursh. Перевод: Seva.

Спонсор раздела Стань спонсором этого раздела!

Реклама на сайте Advertise with us