Google Panda- це пошуковий алгоритм, впроваджений компанією Google 24 лютого 2011 року для фільтрації сайтів в пошуковій видачі. Він створений з метою сортування сайтів і відсіювання низькоякісних сторінок, наповнених неунікальними текстами з великою кількістю орфографічних і стилістичних помилок, дублюючою і недостовірною інформацією. Завдяки роботі фільтра користувачеві пропонуються сайти з найбільш релевантним вмістом, включаючи сторінок, створені з метою агресивного SEO-просування.
Розробка фільтра
Спочатку фільтр заробив для користувачів із США. За звітами SEO-фахівців, нововведення призвело до істотного скорочення трафіку з пошукової системи Google: на 12% для великих сайтів і майже на 50% для невеликих ресурсів. Близько 10% сайтів з маленькою і середньою відвідуваністю потрапили під фільтр і були забанені в системі. Після тестування алгоритм «Панда» Гугл заробив в інших країнах. В Україні фільтрація сайтів почалася з 24 квітня 2012 року і призвела до схожих результатів – падіння деяких сайтів в пошуковій видачі досягало 50 позицій.
Розробка алгоритму «Панда» Гугл, як і інших алгоритмів для пошукових систем, велася в атмосфері закритості. Для рядових користувачів і для веб-майстрів подробиці не розкривалися. На даний момент відомо тільки про двох розробників – Мете Катсе і Аміте Сінгале. Інші деталі не розкриваються по офіційній політиці компанії Google.
До 2016 року вивести сайт з-під блокування вдавалося тільки після чергового апдейта для фільтра. Вони виходили з періодичністю приблизно раз в 2 місяці. В цілому з моменту запуску їх накопичилося близько 30. З січня 2016 року фільтр Google Panda впроваджений в алгоритм ранжування пошукової системи (Core Ranking Algorithm). Для веб-майстрів це нововведення принесло вигоду, тому що блокування і висновок сайту з-під бана відбувається на льоту, чергового оновлення чекати не потрібно.
Що враховує алгоритм
Нові алгоритми фільтрації покликані поліпшити якість SERP для кінцевого користувача. Сайти з неякісним вмістом потрапляють в топ-10 набагато рідше. Основний критерій – достовірність і корисність інформації на сторінці. Якщо сайт корисний, то він має набагато більше шансів вийти в топ за певними ключовими словами.
На даний момент достовірно виявлено кілька аспектів Google Panda, на які фільтр реагує в першу чергу:
- унікальність контенту;
- якість довідкового профілю;
- поведінкові фактори (поведінка користувачів).
Щоб виключити потрапляння під фільтр Гугл «Панда», необхідно розміщувати на сторінках сайту тільки унікальні, структуровані тексти з мінімальною кількістю орфографічних і стилістичних помилок. Розміщені посилання не повинні вести на блоковані або маловідвідувані сайти.
Особливістю роботи пошукової системи Google є облік поведінкових факторів. За деякими непрямими ознаками фахівці роблять висновок про те, що цей фактор стає більш істотним. В даному випадку враховується кількість переходів, час, проведений на сайті, цитування і т. д.
Як вивести сайт з-під фільтра
Дізнатися про обмеження фільтром «Панда», покликані змусити веб-майстрів уважніше ставитися до наповнення сторінок.
Для цього необхідно:
- розміщувати унікальний контент – тексти, зображення і відео;
- регулярно оновлювати контент;
- скорочувати частину посилальної маси;
- видаляти нерелевантні вміст, рекламу, посилання;
- оптимізувати інтерфейс і структуру сайту для зручності користувача;
- покращувати поведінкові чинники.
Ресурси, що розміщують посилання на джерела запозичень, можуть справно працювати без попадання під фільтр. Представники Google не розкривають точний відсоток критичної маси посилань, але веб-майстрам варто працювати над створенням унікального контенту. За деякими суб’єктивними оцінками, точність фільтрації становить близько 90-95%, тому трапляються ресурси, необгрунтовано знижені в пошуковій видачі. У цьому випадку варто проконсультуватися з представниками технічної підтримки, а при необхідності вжити відповідних заходів.