Алгоритмы поисковой системы Google

Алгоритмы поисковой системы Google (Панда и Пингвин) (Часть 2)

Во второй части речь пойдет про алгоритм Google Панда, который прошелся по моим проектам в Google.ru где-то 24 апреля и добил еще 1-2 мая.

Основное отличие от Google Penguin в том, что страдает сразу весь сайт или его большая часть. Вылетают практические все запросы, остаются из 50-100 запросов буквально 2-3 штуки. Если проверять зафильтрованную страницу на точное вхождение длинного куска текста в результатах поиска, то обычно страница выдается в самом конце, либо в дополнительных результатах (соплях).

Какие сайты у меня пострадали:

1) У которых практически все ссылки вели на одну-две страницы (около 1000-3000 ссылок) в среднем.

2) Различные сайты, целью которых был переход посетителя на другой сайт (сайты, рекламирующие какую-либо партнерку). То есть, посетитель, заходя на сайт, просматривал 2-3 странички и в 20% случаев переходил на другой сайт, либо кликал по контекстной рекламе.

3) Сайты с большим количеством дублей страниц. Почему-то 24 апреля заметил, что на нескольких сайтах в индекс попало большое количество страниц, причем часть из них была закрыта в robots.txt.

4) С одинаковыми тайтлами, кейвордс и дескриптион. Так получилось, что был один сайт, у которого все страницы имели одинаковый title и мета теги и который долгие годы (с 2004 года) стоял в топе по своим низкочастотным. Он тоже пострадал, несмотря на то, что там 20 страниц уникального контента, за все время проставлено где-то 10 ссылок и других нарушений выявлено не было.

Что нужно делать?

Просмотрев выпавшие сайты, для себя я выделил следующие факторы, которые влияют (могут влиять) на наложение Панды (в порядке уменьшения важности):

1) Большое количество ссылок на страницу/домен. Сильно неравномерное распределение ссылок по страницам, т.е., например, на главную идет 1000 ссылок, а на все внутренние ссылки 100 ссылок.

2) Наличие дублей страниц внутри сайта. Нужно устранить дубли на сайте, пустые страницы и битые ссылки.

3) Низкое качество ссылочной массы. Основной параметр тут, как мне кажется, слишком большое число ссылок со страницы (3 и более).

4) Большое количество неуникального контента на сайте. Это могут быть как материалы, взятые с других ресурсов, так и блоки контента, которые повторяются на нескольких страницах внутри сайта.

5) Уход большого количества пользователей на сайты партнерок. Надо сделать так, чтобы пользователь как можно дольше находился на вашем сайте, как можно больше просмотрел страниц, прежде чем перейти на сайт партнерки.

6) Одинаковые мета теги, title и другая информация на многих страницах сайта. Нужно прописать всем страницам разные title и мета теги. Если разные мета теги прописывать лень, то лучше оставить их пустыми.

7) Большое количество продажных ссылок на сайте. Думаю, что в текущих условиях не стоит продавать больше чем 2 внешних ссылки на страницу, так как это может негативно повлиять на гугл

8) Переспам в тексте страниц. Большое количество тегов <b>, <strong> и других тегов выделения, излишняя перелинковка.

Скорее всего, фильтр накладывается за совокупность нарушений, а не за одно конкретное нарушение. Время выхода из Панды неизвестно, т.к. пока ни один проект не вышел из под фильтра, наложенного с 25 апреля – 2 мая. Прочитав иностранные форумы, я нашел информацию, что после исправления всех недочетов нужно написать письмо и ждать 1-2 месяца.

Недавно поставил несколько экспериментов. Если результаты будут интересными, то обязательно выложу.

comments powered by HyperComments

Оставьте мне собщение