Google Panda – это поисковый алгоритм, внедренный компанией Google 24 февраля 2011 года для фильтрации сайтов в поисковой выдаче. Он создан с целью сортировки сайтов и отсеивания низкокачественных страниц, наполненных неуникальными текстами с обилием орфографических и стилистических ошибок, дублирующейся и недостоверной информацией. Благодаря работе фильтра пользователю предлагаются сайты с наиболее релевантным содержанием, исключая страницы, созданные с целью агрессивного SEO-продвижения.
Разработка фильтра
Изначально фильтр заработал для пользователей из США. По отчетам SEO-специалистов, нововведение привело к существенному сокращению трафика из поисковой системы Google: на 12 % для крупных сайтов и почти на 50 % для небольших ресурсов. Около 10 % сайтов с маленькой и средней посещаемостью попали под фильтр и были забанены в системе. После тестирования алгоритм «Панда» Гугл заработал в других странах. В России фильтрация сайтов началась с 24 апреля 2012 года и привела к схожим результатам – падение некоторых сайтов в поисковой выдаче достигало 50 позиций.
Разработка алгоритма «Панда» Гугл, как и других алгоритмов для поисковых систем, велась в атмосфере закрытости. Для рядовых пользователей и для веб-мастеров подробности не раскрывались. На данный момент известно только о двух разработчиках – Мэтте Катсе и Амите Сингале. Другие детали не раскрываются по официальной политике компании Google.
До 2016 года вывести сайт из-под блокировки удавалось только после очередного апдейта для фильтра. Они выходили с периодичностью примерно раз в 2 месяца. В общей сложности с момента запуска их накопилось около 30. С января 2016 года фильтр Google Panda внедрен в алгоритм ранжирования поисковой системы (Core Ranking Algorithm). Для веб-мастеров это нововведение принесло выгоду, потому что блокирование и вывод сайта из-под бана происходит на лету, очередного обновления дожидаться не нужно.
Что учитывает алгоритм
Новые алгоритмы фильтрации призваны улучшить качество SERP для конечного пользователя. Сайты с некачественным содержимым попадают в топ-10 намного реже. Основной критерий – достоверность и полезность информации на странице. Если сайт полезен, то он имеет гораздо больше шансов выйти в топ по определенным ключевым словам.
На данный момент достоверно выявлено несколько аспектов Google Panda, на которые фильтр реагирует в первую очередь:
- уникальность контента;
- качество ссылочного профиля;
- поведенческие факторы (поведение пользователей).
Чтобы исключить попадание под фильтр Гугл «Панда», необходимо размещать на страницах сайта только уникальные, структурированные тексты с минимальным количеством орфографических и стилистических ошибок. Размещенные ссылки не должны вести на блокированные или малопосещаемые сайты.
Особенностью работы поисковой системы Google является учет поведенческих факторов. По некоторым косвенным признакам специалисты делают вывод о том, что этот фактор становится более существенным. В данном случае учитывается количество переходов, время, проведенное на сайте, цитирование и т. д.
Как вывести сайт из-под фильтра
Ограничения, накладываемые фильтром «Панда», призваны заставить веб-мастеров внимательнее относиться к наполнению страниц.
Для этого необходимо:
- размещать уникальный контент – тексты, изображения и видео;
- регулярно обновлять контент;
- сокращать часть ссылочной массы;
- удалять нерелевантное содержимое, рекламу, ссылки;
- оптимизировать интерфейс и структуру сайта для удобства пользователя;
- улучшать поведенческие факторы.
Ресурсы, размещающие ссылки на источники заимствований, могут исправно работать без попадания под фильтр. Представители Google не раскрывают точный процент критической массы ссылок, но веб-мастерам стоит работать над созданием уникального контента. По некоторым субъективным оценкам, точность фильтрации составляет около 90–95 %, поэтому попадаются ресурсы, необоснованно пониженные в поисковой выдаче. В этом случае стоит проконсультироваться с представителями технической поддержки, а при необходимости принять соответствующие меры.