как заработать в интернете | полезные скрипты | технические вопросы

вопросы хостинга | продвижение сайтов | поисковые системы

Алгоритм Google
под названием Florida — что же это?

Автор: Атул Гулпа
Источник: Seorank
Перевод: Webprojects, 10.11.2004

15 ноября 2003 года, возможно, войдет в анналы истории поисковых технологий Интернета. Именно в этот день поисковик Google осуществил значительное обновление своего алгоритма ранжирования страниц (новый алгоритм получил название Google «Florida»), что привело к тому, что тысячи важных сайтов потеряли свои лидирующие позиции. Все сообщество оптимизаторов было возмущено, и даже напугано случившимся.

Шумиха еще не утихла, но ясно одно — Google взбудоражил многих. Хотя Google обычно обновляет свой алгоритм примерно раз в два месяца (хотя более незначительные обновления иногда происходили и каждый месяц), изменения оказались намного значительней, чем ожидали web-мастера и оптимизаторы. Эти изменения значительно снизили популярность многих известных коммерческих сайтов, которые держали лидирующие позиции по профильным запросам своей тематики.

Некоторые фирмы, занимающиеся поисковой оптимизацией сейчас находятся на грани закрытия — им грозит разорение, если они не смогут понять, как действует этот алгоритм и как можно снова привлечь клиентов. Принимая во внимание то, что Google владеет почти 80% акций рынка поисковых систем, смена специализации на работу с другими поисковыми системами не выглядела для таких компаний выходом.

На этот раз изменения алгоритма были действительно очень значительными. Пока шумиха еще не утихла, как впрочем, и споры о том, каков же этот новый алгоритм. Согласно политике фирмы Google не дает комментариев по поводу того, как действуют их обновления. На сайте для web-мастеров нет никаких новых указаний, кроме старого рассказа о том, как «очень хорошее содержание» будет вознаграждено, а за «неэтические технические приемы» будут налагаться штрафы. Алгоритмы — это всегда строго охраняемые тайны поисковых машин, так как любая утечка информации будет означать нарушением правил, ведущим к ухудшению результатов поиска. Молчание — золото. Любые комментарии, согласие или отрицание каких-либо вопросов о новом алгоритме всегда является разглашением информации об этом алгоритме.

Учитывая отсутствие любых официальных директив или комментариев от Google, наш анализ основывался на проверке различных предположений, актуальных исследованиях, нашем опыте, знаниях особенностей функционирования поисковых машин и тенденций в их развитии.

Некоторые из этих исследований и их результатов изложены в этой статье. Но так как глобальный анализ и выводы из такого анализа не могут быть приведены в рамках одной статьи, я намереваюсь изложить все важные аспекты в серии статей, описывающих произошедшие изменения, наши предположения, а также мифы и факты о новом алгоритме ранжирования Google. Эта статья является обзором некоторых важных аспектов, к более подробному изучению которых, мы вернемся в последующих статьях.

Ниже приведены некоторые предвариетльные выводы, представляющие интерес:

Многие аналитики SEO считают, что Google проводит фильтрацию сайтов при помощи тайного списка фильтров. Я так не считаю. Ниже будут приведены объяснения этому.

 

Google проводит фильтрацию сайтов, если поисковые слова содержат «ключевой денежный запрос»?

Так как сильнее всего пострадали коммерческие сайты, многие аналитики SEO считают, что Google фильтрует сайты, которые характеризуются поисковыми словами, содержащими «ключевые денежные запросы» (их также называют «коммерческие ключевые слова» или «горячие слова»). И на самом деле, первоначальные тесты, проведенные аналитиками, могут послужить обоснованием этой теории.

 

Что побудило Google на это?

Если это так, то зачем Google делать это? Причина того, что эта идея становится все более популярной, заключается в том, что время изменения алгоритма совпало с сезоном покупки подарков, как впрочем, и с приближавшимся первичным выпуском акций Google на рынок. Аналитики считают, что Google хочет заставить коммерческие сайты вкладывать деньги в предоплаченный листинг используя сервис AdWords, если они хотят получить прибыль во время сезона Рождественских покупок в декабре 2003 года. Кажется, что время «халявы» прошло. Другие считают, что Google хочет немного приукрасить ситуацию, чтобы впечатлить будущих инвесторов.

 

Тогда что же заменит коммерческие сайты в классификации?

Кажется, что первые 20 результатов поиска содержат много государственных (.gov), образовательных (.edu), некоммерческих сайтов (.org), каталогов и не-американских сайтов. Так как эти типы сайтов не размещают рекламу в Google, аналитики считают, что высокоприоритетная оценка этих сайтов не снизит доходы Google, но заставит коммерческие сайты выбрать сервис AdWords.

 

Каким образом Google отберет список «денежных запросов»?

Google обладает доступом к большой базе данных «денежных запросов» благодаря своему сервису AdWords. Интересно то, что рекламодатели и владельцы коммерческих сайтов сами предоставили Google информацию о «хороших» денежных запросах. Так как запросы по каждой ключевой фразе отличаются, Google также знает насколько «ценно» каждое слово.

 

Так что же произошло на самом деле? Неужели Google проводит фильтрацию коммерческих сайтов, используя фильтр-список «денежных запросов»?

Я считаю, что эта точка зрения довольно далека от истины. Я думаю, что Google не проводит фильтрацию сайтов, как считают аналитики, и что не существует списка «денежных запросов». Эта довольно распространенная теория появилась как результат присутствия некоторых признаков вроде бы подтверждающих данную теорию, которые находят аналитики, но на самом деле эти признаки возникли совсем по другим причинам, что будет ясно из моих последующих статей.

На самом деле, можно заметить эффект фильтра, но есть и причины считать, что он является лишь побочным эффектом нового алгоритма, а не его целью. Новый алгоритм оказывает больше влияния на коммерческие сайты, чем на некоммерческие. В последующих статьях Вы найдете мои рассуждения на эту тему и объяснения причин.

Некоторое время назад Google Hate Group (Объединение недоброжелателей Googlee) создала сайт, предлагавший проверить Ваши «старые» нефильтрованные результаты выдачи Google, ловким способом добывая информацию из самой поисковой системы. Этот сайт (www.scroogle.org) уже не может предложить это услугу, так как Google усовершенствовал свой алгоритм, чтобы предотвратить возможность подобных сравнений. Тем не менее, на сайте все еще можно найти так называемый «хит-лист фильтра», созданный с помощью нескольких поисков проведенных этим сайтом. Я изучил этот список, и если он что-то и может доказать, так только тот факт, что Goggle не использует подобных списков. Как тогда можно объяснить то, что поисковый термин «адвокат по разводам в Калифорнии», расположенный в начале списка, почти в 20 раз важнее для Google, чем, например, термины «книги» или «adult», расположенный в конце списка.

Любая попытка Google провести фильтрацию коммерческих сайтов нанесет серьезный урон торговой марке Google и вере в беспристрастности результатов поиска. Подобная попытка была бы очень недальновидной, и не стоящей того, чтобы рисковать такой популярной торговой маркой и услугами, которые были созданы Google. В этом случае заметно снизятся количество проданных акций и прибыль. К тому же Google утверждает, что над поиском и AdWords работают различные группы специалистов, причем одна группа не может повлиять на другую. Я этому верю.

 

Сейчас Google использует морфологический поиск.

Google на самом деле использует морфологический поиск ключевых слов в результатах поиска. Ранее поиск по ключевым словам в единственном числе (например, домашний сад) не включал результаты со словами во множественном числе (домашние сады) и наоборот. В настоящее время Google предлагает несколько вариантов ключевых слов для сайтов в своей базе данных (сад, сады, садоводство). Кажется довольно незначительным, не так ли? На самом деле, это имеет далеко-идущие последствия для конкуренции по ключевым словам и классификациям. Внезапно, область для конкуренции по ключевым словам расширилась. Но для пользователей Google эта функция довольно полезна, так как теперь результаты поиска стали намного шире. С точки зрения оптимизации поисковых машин, теперь при классификации придется конкурировать с гораздо большим количеством web-страниц. Конкуренция в сфере ключевых слов тоже усилилась.

 

Google использует исправление ошибок в результатах поиска.

В некоторых критериях поиска Google использует функцию исправления ошибок в результатах поиска. Я узнал об этом, когда я осуществлял поиск по ключевым словам «Search Engine Optimisation» так, как эти слова пишут в Азии. Ранее я получал результаты только с «s» в слове «optimisation». Тем не менее, я получаю результаты с «z» в слове «optimization». Поиск «e-mail solution» также принесет результаты с «email solution», а «e-commerce» — «ecommerce». Конкуренция данных усилилась.

 

Google начал использовать алгоритм Hilltop чтобы более точно рассчитывать Page Pank.

Многие знают, что Сергей Брин и Лари Пейдж создали алгоритм Page Rank (названного в честь Лари Пейджа), чтобы усовершенствовать классификацию сайтов в результатах поиска. Это было одним из важных факторов способствовавших успеху Google с 1998 года. Более подробная информация — www.google.com/technology

Тем не менее, в системе PR есть один существенный изъян. PR назначает абсолютную «величину значимости» web-странице. Эта величина основывается на количестве сайтов, ссылающихся на эту станицу. Также устанавливается PR ссылающихся страниц. Чем выше PR страницы, содержащей ссылку, тем выше значение PR, переданное искомой странице. Тем не менее, PR не ограничивается только поиском и, следовательно, web-страница с высоким PR, которая содержит ссылку c нетематической ключевой фразой, часто имеет более высокий PR для этой фразы. Кришна Бхарат из Калифорнии обнаружил этот изъян в основанной на PR системе классификации и в 2000 году предложил алгоритм, который он назвал Hilltop. Он зарегистрировался в Google как кандидат на получение патента Hilltop в январе 2001 года. Не приходится и говорить, что Google осознал преимущество, которое может принести этот новый алгоритм их системе классификации, если его сочетать с их собственной системой PR.

Я считаю, что Google на самом деле использовал алгоритм Hilltop в последнем обновлении своего механизма ранжирования в сочетании с собственным алгоритмом Google, основанном на PR и релевантности.

 

Что такое алгоритм Hilltop?

Для тех сумасшедших, которые хотят дойти до сути, подробная информация доступна здесь — работа о Hilltop и патент Hilltop

Для остальных из нас я предлагаю просто объяснение:

Бхарат установил, что вместо простого использования значения PR для нахождения «авторитетных» web-страниц, использование тематической релевантности значения была бы более целесообразной. По существу, подсчет ссылок от тематически релевантных документов к web-странице был бы более целесообразным. Эти «тематически релевантные» документы он назвал «экспертными документами», а количество ссылок от этих экспертных документов к целевым документам считается «оценкой (уровнем) авторитетности».

Алгоритм Hilltop вычисляет «уровень авторитетности» web-страниц (упрощённо) следующим образом:

Проведите обычный поиск по ключевой фразе, чтобы определить «ядро» экспертных документов. Квалификационные правила «экспертных документов» являются строгими, поэтому «ядро» — это поддающееся управлению количество web-страниц. Проведите фильтрацию дочерних сайтов* и сайтов-копий из экспертного списка.

Страницам присваивается локальная оценка «авторитетности», основанная на количестве и качестве голосов, которые они получают от этих экспертных документов. Затем, страницы классифицируются согласно их локальной оценке.

Комбинация алгоритма Hilltop, Google PR и постраничных факторов релевантности кажется высоко эффективной, ее очень сложно превзойти. Эта новая комбинация имеет далеко идущие последствия в том, как популярность ссылок и PageRank повлияет на ранг Вашего сайта. Хотя эта система довольно успешна, у нее также есть ряд недостатков. Анализу этих недостатков я посвящу отдельную статью.

Одно ясно с этим основным обновлением алгоритма Google. Не существует легкого способа попасть в начало списка. Сайты, использующие простые методы мета-оптимизации или даже постраничную оптимизацию, не смогут добиться хороших положений в классификации. Существует почти 100 вариантов алгоритма, которые необходимо оценить и адресовать, и это не просто мета-теги. Оптимизация должная стать высоко специализированной. Старые трюки уже не пройдут, они перестали быть эффективными.

Необходимо выработать и обеспечить выполнение комплексных стратегий оптимизации. Оптимизаторам теперь потребуется больше интеллекта, таланта, исследований, анализа, планирования и больше трудозатрат в человеко-часах для достижения хороших результатов. Следовательно, затраты SEO-компаний увеличатся.

Также увеличатся расходы на PPC (pay per click) рекламу. PPC реклама должна будет стать неотъемлемой частью вашей стратегии интернет маркетинга, при этом PPC реклама должна быть тщательным образом сбалансирована с внутренним трафиком поисковой машины. Обмен ссылками и PR имеют большое значение, влияют на классификацию, и, следовательно, их нельзя игнорировать или рассматривать по отдельности. Обмен ссылками является неотъемлемой частью поискового продвижения, и должен комбинироваться с другими способами поискового продвижения для формирования общей стратегии, так как комплексное воздействие означает всесторонние усилия по продвижению ресурса.

Обновления алгоритмов будут происходить все чаще, к тому же они будут более значительными. Постоянная поддержка достигнутых результатов является чрезвычайно важной в сложившихся условиях. Долгосрочное сотрудничество с SEO компаниями становится обязательным и именно оно может быть эффективным.

Несколько тысяч имеющих большое значение сайтов потеряли свои позиции. SEO компании становятся все более востребованными. Несколько тысяч оптимизаторов пока не в состоянии работать с новым алгоритмом. Они не могут найти решение. Ненадежные, непрофессиональные оптимизаторы такими и останутся, список же «реальных» оптимизаторских компаний значительно сократился. Работы по анализу и самой поисковой оптимизации стали более сложными и более значимыми.


* Дочерние сайты — это сайты, которые происходят из одного домена, или одного и того же домена, но с разными суффиксами (ibm.com, ibm.co.uk, ibm.co.jp и т.д.) или соседних IP (3 первые общие октады в IP номере, например, 64.129.220.xxx)

 

как заработать в интернете | полезные скрипты | технические вопросы

вопросы хостинга | продвижение сайтов | поисковые системы