Новые алгоритмы поисковой системы Google часть 1

Новые алгоритмы поисковой системы Google (Panda и Penguin) часть 1

Недавно Google выкатил новую Панду 3.5 (19 апреля 2012 года) и новый алгоритм Пингвин (24 апреля), нацеленный на борьбу с поисковым спамом.

Гугл сказал, что будет наказывать за:

  • за переспам сайта ключевыми словами;
  • скрытие редиректа;
  • дублирование контента;
  • за неестественные ссылки.

Я провел небольшой анализ своих 25 просевших/выпавших сайтов и несколько топов по ВЧ и СЧ запросам. По факту, появилось 2 новых фильтра в Google.ru. Первый фильтр, скорее всего Пингвин, понижает позапросно/постранично, а второй фильтр, скорее всего Панда, понижает сразу весь сайт.

Как работает алгоритм Google Penguin?

Алгоритм понижает все запросы на странице (довольно часто) или часть запросов на странице где-то на 5-50 позиций. При этом, если зайти в топ по этим запросам, то можно увидеть, в большинстве случаев, что половина конкурентов также вылетела из топа. Алгоритм, по словам Google, запускается ежедневно и через несколько дней начинает повторную проверку. Наверно по этой причине некоторые сайты у меня просели немного, а потом улетели еще на 10-20 позиций.

Проанализировав пострадавшие от Пингвина сайты и сайты, которые не сдвинулись с места, хотя перетряхивало несколько раз весь топ я пришел к следующим выводам:

Очень важно отношение точных анкоров к разбавленным. У меня вылетали сайты, где отношение было 30% точных/70% разбавки и выше. А сайты, у которых отношение было 10%к90% практически не затронуло. Я считаю этот пункт основной причиной.

«Трастовые» анкоры. Заметил на 14 из 20 проверяемых сайтов, которые не выпали из топов, что на них присутствует большое количество ссылок с анкором вида http://www.site.ru/ и названия фирмы, тут, здесь и т.д. Думаю, что это может быть одним из параметров вполне.

Переспамленность ключевыми словами. Заметил несколько интересных моментов – на странице стоит таблица, где «ключевое слово1» встречается раз 20 и одновременно страница продвигается по «ключевому слову2», которое встречается 2 раза в тексте и 1 раз в тайтле. Ссылки на эти запросы закупаются приблизительно одинаково. Так вот первый запрос просел на 30 позиций, второй только на 3 позиции. Сейчас поставил на эту тему эксперимент, жду результатов, но думаю, что это тоже важный параметр.

Тематичность доноров. На форуме SearchEngines.ru разговаривал с несколькими людьми и они уверены, что тематичность сейчас стала важна. По факту, я проверил несколько ссылок с точным вхождением запроса на каждом сайте и нашел только 7 тематических ссылок из где-то 60. Так что думаю, что тематичность пока никак не влияет.

Как выйти из под алгоритма Google Penguin?

Вероятно, достаточно будет разбавить все запросы большим количеством разбавки и добавить «трастовых» анкоров, подправить переспамленный текст. Скорее всего, время выхода из этого фильтра не будет слишком большим, так как он запускается ежедневно и перепроверяет сайты довольно шустро (у меня некоторые сайты понижали 3 раза уже).

 

comments powered by HyperComments

Оставьте мне собщение