- 1 Сторінка випала з індексу – що це означає
- 2 Випадання сторінки з індексу через неякісний контент
- 3 Основні причини випадання сторінки з індексу Яндекса
- 4 Інші 10 поширених причин випадання сторінки з індексу пошукових систем
- 5 7 неявних причин випадання сторінки з індексу
- 6 Фічі, що призводять до випадання сторінки з індексу
- 7 4 способи повернути статті в індексацію Google та Яндекс
Сторінка випала з індексу пошукових систем – часте явище, від якого не застраховано жодного сайту. Причин може бути безліч: від банальних технічних помилок у коді до зловмисних дій конкурентів.
Щоб зрозуміти, чому сторінка більше не індексується, необхідно скористатися вбудованим інструментом пошукових систем. Про те, чому сторінки випадають з індексу, і як знову повернути «довіру» Гугла та Яндекса, ви дізнаєтесь із нашого матеріалу.
Сторінка випала з індексу – що це означає
Одним із найважливіших етапів просування сайту є моніторинг процесу індексації. Регулярне відстеження дозволить вчасно помітити, що сторінки перестали індексуватися, і після виявлення причин випадання з індексу запобігти падінню органічного трафіку.
Спочатку розберемося, як влаштовані пошукові системи. Ми звикли вводити запит та отримувати миттєвий результат. Чи означає це, що пошукова система за частки секунди обшаривает всі ресурси мережі, щоб знайти релевантну відповідь? Звичайно, ні, він підбирає відповідні сторінки зі своїх баз даних – індексів. За їхнє регулярне оновлення відповідають пошукові роботи – спеціальні комп’ютерні алгоритми, що відстежують появу в мережі нових матеріалів.
Якщо сайт недоступний для сканування через пікове навантаження на сервер або з інших причин , Пошуковий алгоритм може зробити висновок, що ресурс більше не існує, і повідомити про це головний сервер пошуковика. Щоб дані про нібито непрацюючий сайт не займали місце, їх видаляють із індексу.
Уявіть, які збитки очікують на інтернет-магазин, якщо робот вважає, що ресурс припинив своє існування. За час простою покупці підуть до конкурентів і переконати їх повернутися буде дуже непросто.
Для некомерційних сайтів сторінки, що випали з ресурсу, тягнуть за собою такі неприємні наслідки, як зменшення кількості відвідувачів і просідання ресурсу в пошуковій видачі. Якщо врахувати, що на розкрутку сайту витрачається чимало сил і коштів, скотитися вниз завжди прикро, сходження до топових позицій доведеться починати з нуля.
Випадання сторінки з індексу через неякісний контент
Найчастіше причиною припинення індексації стає контент низької якості. Такі сторінки потрапляють під фільтри АГС Яндекса та Panda Google.
Санкції застосовуються до змісту сайту, який не відрізняється високою унікальністю або порушує авторські права.
- Навіть якщо ви створюєте матеріали для свого ресурсу самостійно, ви не застраховані від випадання індексу за неунікальний контент. Справа в тому, що ваші статті та ролики можуть бути вкрадені та розміщені на сайтах, що мають більший траст, внаслідок чого пошуковий робот помилково вважає такий ресурс першоджерелом, а ваш видаляє з індексу за плагіат.
- Використання матеріалів, захищених авторським правом, – ще один привід для пошукової системи перестати індексувати сторінки у відповідь на скаргу законних власників прав.
- Іноді ви є винуватцем появи неунікального контенту. Наприклад, WordPress генерує дублікати сторінок із різними адресами. Для заборони їх індексації застосовують robots.txt або додають до розділу head сторінки тег link з атрибутом rel=”canonical”, вказавши адресу оригіналу.
- Неунікальність сторінок та подальше видалення з індексу можуть стати результатом використання ідентичної структури та змісту віджетів у сайдбарах на всіх сторінках, якщо при цьому змістового контенту на них дуже мало. Для пошукового алгоритму це привід забрати такий сайт із бази даних.
Пошукова система бачить своє призначення у максимально точній та швидкій відповіді на запит користувача. Наявність в індексі кількох сторінок з ідентичним змістом ускладнює цей процес, тому зайві безжально видаляються. Якщо під час створення контенту ви користувалися джерелами з мережі, ви перебуваєте в зоні ризику: робот може припинити індексацію сайту із запозиченими статтями.
Перевірка унікальності текстів перед їх розміщенням на ресурсі є обов’язковим кроком, який дозволить уникнути неприємних наслідків. Скористайтеся будь-яким із доступних кожному:
- сервісівtext.ru
- content-watch.ruadvego.ru
- ruПоказники
- унікальності
в діапазоні від 75 до 90% мінімізують ризик потрапляння сторінки до фільтра пошукової системи. Є й інші прийоми авторів контенту, за які можна випасти з індексу:
- штучна генерація текстів за допомогою синонімайзерів;
- розміщення матеріалів із великою кількістю помилок;
- невидимий користувачам фрагмент тексту.
Рерайт статей, вже розміщених на інших ресурсів, не заборонено, якщо в процесі роботи над власним варіантом не лише дотримано вимог до високої унікальності, а й серйозно змінено структуру вихідного тексту.
Основні причини випадання сторінки з індексу Яндекса
Пошукова система Яндекса може виключити сайт зі своєї бази даних через різні фактори. Визначити причини у кожному конкретному випадку допоможе перехід у Вебмайстер, де на сторінці Індексування → Сторінки у пошуку треба вибрати Виключені сторінки.
Причина виключення сторінки | Рішення |
Визнання сторінки малоцінної або малозатребуваної | Пошуковий робот вважав, що така сторінка не буде цікавою для користувачів, оскільки на ній немає контенту або вона є дублем сторінки, включеною до індексу раніше.
Рішення алгоритму не є остаточним: при наступному автоматичному скануванні він може змінити свою думку. |
Помилка при завантаженні або обробці сторінки роботом — якщо відповідь сервера містила HTTP-статус 3XX, 4XX або 5XX | Для виявлення такої помилки застосовується інструмент Перевірка відповіді сервера.
Переконавшись, що сторінка доступна для робота, перевірте: чи є інформація про сторінки у файлі Sitemap; чи закривають забороняючі директиви Disallow, noindex та HTML-елемент noindex від індексування лише службові та дублюючі сторінки у файлі robots.txt. |
Індексування сторінки заборонено у файлі robots.txt або за допомогою метатегу з директивою noindex | Забороняючі директиви необхідно видалити. Якщо заборона файлу robots.txt виконана не вами, для з’ясування обставин доведеться звернутися до хостинг-провайдера або реєстратора доменного імені.
Крім того, переконайтеся, що не закінчився термін реєстрації доменного імені, наслідком чого є блокування. |
Робот перенаправляється на інші сторінки | Перевірте, чи вимкнена сторінка має перенаправляти користувачів за допомогою інструмента Перевірка відповіді сервера. |
Сторінка дублює вміст іншої сторінки | При помилковому присвоенні сторінці статусу дубля виконайте вказівки в розділі Дублювання сторінок. |
Сторінка не канонічна | Переконайтеся, що сторінка дійсно повинна перенаправляти робота на URL, вказаний в атрибуті rel=”canonical”. |
Сайт визнаний неголовним дзеркалом | Якщо сайти об’єднані в групу помилково, дотримуйтесь рекомендацій у розділі Розклеювання дзеркал сайту. |
На сайті виявлені порушення | Щоб виправити їх, перейдіть до Вебмайстра на сторінку Діагностика → Безпека та порушення. |
Як і інші пошукові системи, Яндекс час від часу вносить зміни у роботу своїх алгоритмів. В результаті видача по тому самому запиту може стати принципово інший, ніж до оновлення. Звичайно, на повне впровадження змін знадобиться час.
Різке просідання сайту у видачі – не привід для паніки. Цілком можливо, що Яндекс покращує алгоритм пошуку, тому відбувається переоцінка рейтингу ресурсів. Інформацію про це можна знайти на спеціалізованих форумах для вебмайстрів, наприклад, Searchengines та MFC.
Якщо сторінка випала з індексу Яндекса через перебудову пошукового робота, допоможуть такі дії:
- Визначити, у чому полягає зміна алгоритму;
- Зрозуміти, що саме йому не сподобалося на вашому сайті;
- Подивитися, які ресурси виходять у топі видачі за вашими основними ключовими словами;
- Вивчити сайти з топ-списку та підкоригувати свій контент.
Сповіщати веб-майстрів про те, що в роботу алгоритму внесено зміни, Яндекс не вважає за потрібне. Ви можете зробити відповідні висновки, спираючись на непрямі ознаки або почерпнувши інформацію на спеціалізованих форумах.
Виключені з пошуку сторінки регулярно скануються роботом, і перед кожним оновленням бази спеціальний алгоритм оцінює можливість їх повернення в індекс. Встановивши причину, через яку ваш сайт перестав індексуватися, відправте сторінки на переобхід, тим самим проінформувавши робота про внесення змін.
Інші 10 поширених причин випадання сторінки з індексу пошукових систем
-
Дублі сторінок
Конструкція site:vashsite.com дозволить вам перевірити, скільки ваших ідентичних сторінок, розташованих за різними адресами, бачить Яндекс.
Причин появи дублів може бути кілька. Наприклад, кілька варіантів сайту:
- http://vashsite.com/url-stranitsy/ та https://vashsite.com/url-stranitsy/;
- http://vashsite.com/url-stranitsy/ та http://vashsite.com/url-stranitsy (без слеша в кінці);
- http://vashsite.com/url-stranitsy/ та http://www.vashsite.com/url-stranitsy/.
Друга причина – зміна URL сторінки за збереженого попереднього, з якого не проставили 301 редирект. Іноді додається, змінюється або видаляється префікс категорій, внаслідок чого в індексі фіксуються варіанти адреси:
- http://vashsite.com/kak-sdelat-krovlyu та http://vashsite.com/kak-sdelat-kryshu;
- http://vashsite.com/remont/kak-sdelat-krovlyu та http://vashsite.com/kak-sdelat-krovlyu.
Найбільш поширені причини дублювання сторінок ми назвали, але іноді доводиться стикатися з складнішими випадками.
Дублі можуть з’явитися у процесі використання CMS (системи керування вмістом сайту). Для позбавлення від них рекомендується:
- Налаштувати CMS так, щоб унеможливити подальше генерування дублів.
- Налаштувати 301 редирект із сторінки-дубля на основну сторінку.
- Додати дублю метатег (в блок <head>), що веде на основну сторінку: <link rel=”canonical” href=”https://URL сайту/1.html”/>.
Процес накопичення дубльованих сторінок може бути досить тривалим, і поки їх небагато, Яндекс не надає великого значення. Однак в один прекрасний момент ви можете відзначити сильне просідання свого сайту через велику кількість дублів.
-
Використання неунікальних сніпетів
Часта помилка веб-майстрів – відсутність унікального сніпета. Проблема особливо актуальна для інтернет-магазинів, агрегаторів та автонаповнюваних сайтів, де замість дескрипшну та унікального тайтлу підтягується Title або Description головної сторінки.
Спочатку Яндекс може це ігнорувати, але зі збільшенням кількості таких сторінок зростає ризик того, що сайт потрапить під фільтр або просить у видачі. Вирішується проблема забороною підтягування мета-даних головної сторінки.
Головною ознакою того, що сторінка випала з індексу з цієї причини, є втрата позицій на основні запити. Після заміни поточного опису унікальним можна сподіватися на виправлення ситуації.
За відсутності можливості прописати унікальний тайтл або дескрипшн, їх можна підтягувати: Title – із заголовка H1, а Description – з початку статті або опису товару. Для SEO це не найкращий варіант, але таке рішення позбавить вас ризику потрапити під фільтр.
-
Пере оптимізація
Просування сайту вимагає якісної SEO-оптимізації, проте дуже часто в прагненні наростити трафік творці ресурсу забувають про користувачів – головних споживачів контенту. Якщо тексти мають явний перекіс у бік орієнтації під інтереси пошукових систем, сайту загрожують санкції від фільтрів Баден-Баден Яндекса і Panda Google. Щоб звести ймовірність припинення індексування з цієї причини, ключові слова використовують тільки в тілі статті, по можливості уникаючи їх потрапляння до метатегів.
Якщо сторінка випала з індексу через переоптимізацію, перевірте контент, щоб виявити переспам, і внесіть корективи в ті місця, де ключі вписані грубо, з порушенням логіки пропозиції або абзацу.
Звичайно, запити користувачів іноді виглядають дуже кострубато, і вжити їх у статті так, щоб вони повністю розчинилися в тканині тексту, під силу тільки дуже хорошим копірайтерам.
-
Неякісні зворотні посилання
Користь деяких зворотних посилань є досить сумнівною, і нерідко саме неякісний профіль посилання є причиною того, що сторінки випадають з індексу. Не секрет, що кількість і якість зворотних посилань для пошукової системи є одним з параметрів для визначення авторитетності сайту. Щоб покращити показники, SEO-фахівці нерідко накручують посилання, але Яндекс та Google давно розробили засоби боротьби з цим явищем – фільтри Мінусинськ та Penguin.
Частішим наслідком зловживання зворотними посиланнями стає погіршення позицій сайту в пошуковій видачі. Тим не менш, робота з лінкбілдінгом вимагає акуратності та помірності.
-
Помилки в robots.txt
Основна функція файлу – показати пошуковому краулеру, які директорії чи сторінки слід індексувати, а які ні. Помилки веб-майстрів robots.txt призводять до випадання ресурсу з бази даних. Щоб зрозуміти, де є недоліки, зайдіть в Яндекс.Вебмастер: Індексування => Структура в пошуку => Виключені сторінки. Текст «При зверненні до сторінки роботу не вдалося отримати її вміст» підтверджує, що сторінку виключено з індексу через помилки у файлі robots.txt.
Не зайвим буде перевірити метатеги. Причина видалення сайту з бази може бути в HTML-тегах. Наприклад, тег Meta Refresh погано відбивається на індексуванні сторінок у Google.
-
Зміна URL
При зміні URL-адреси сторінка перестає індексуватися за старою адресою. Якщо ніша висококонкурентна, на повернення сторінок на колишню позицію може знадобитися багато часу, тому, змінюючи URL, подбайте про налаштування 301 редирект зі старої адреси на новий.
-
Афілійованість
Ще однією причиною випадання з індексу може бути визнання сайту афіліатом. Пошукові системи дотримуються принципу різноманітності видачі і не допускають присутності в ній двох сайтів однієї і тієї ж компанії, які просуваються за ідентичними ключовими словами. Ознакою афілірованості є зокрема однакові контактні дані.
-
Продаж посилань
Накрутка SEO-параметрів у будь-якій формі жорстко припиняється всіма пошуковими системами.
Часто сторінки випадають з індексу через агресивний продаж посилань, яким зловживають новачки. Початківці веб-майстри прагнуть заробити на свіжому сайті, і мимоволі створюють загрозу його знищення.
Безконтрольне розміщення посилань на сторонні ресурси може призвести до санкцій пошукових систем, аж до видалення сторінок з бази даних.
Продаж посилань на молодих сайтах, створених не більше 6 місяців тому, призводить до того, що такі ресурси швидко потрапляють під фільтр Яндекса АГС.
Від ризику залишитися з єдиною сторінкою в індексі не застраховані і «старі» сайти, на які посилаються багато авторитетних ресурсів. Агресивним продажем вважається поява за тиждень хоча б за одним зовнішнім посиланням на 50% сторінок ресурсу.
Для виходу з-під цього фільтра знадобиться багато часу, при цьому не можна бути впевненим у 100-відсотковому результаті. Вихід один – не розміщувати на веб-сайті платні посилання. Якщо це необхідно, закрийте її атрибутом nofollow.
Сторінка може повернутися до індексу лише після повного очищення від продажних посилань.
-
Шкідливий код на сайті
Пошуковик не розуміє, як саме з’явився на сайті шкідливий код, внаслідок злому або з волі веб-майстра. Санкції будуть накладені у будь-якому разі.
-
Неякісний хостинг
Приводом для видалення сайту з видачі може стати часта поява помилки 404. Найчастіше в цьому винні хостинг-провайдери, що надають неякісні послуги. Слідкуйте за швидкістю завантаження сторінок та доступністю для сканування пошуковим роботом.
7 неявних причин випадання сторінки з індексу
-
Зловмисні причини
Неунікальний контент, переспам, купівля та продаж посилань – все це може стати приводом для санкцій пошукових систем, але належить до вирішуваних проблем. Набагато гірше, коли проти вашого сайту виступили конкуренти. Їх підступи здатні довести до повного бана, коли ресурс буде назавжди вилучений з бази даних.
Наприклад, суперники звертаються за допомогою до хакера, щоб той зламав сайт та встановив однопіксельні посилання на його сторінках, непомітні для відвідувачів, ані для власника ресурсу. При цьому пошукова система виявляє, що на сайті ведеться активна торгівля посиланнями і видаляє його з індексу.
Об’єктом атак хакерів може стати і сервер хостинг-провайдера, внаслідок чого на ресурс не можуть потрапити ні роботи, ні відвідувачі.
-
Сайт не оновлюється
Сторінки випадають із індексу, якщо на них рідко заходять користувачі або якщо контент давно не оновлювався. Такий ресурс вважається занедбаним, тому пошуковик вважає за недоцільне витрачати на нього дороге місце в базі даних.
-
Глюки пошукових систем
Пошукові машини постійно вдосконалюються, що не заважає появі серйозних збоїв у роботі мінімум раз на півроку. Помітивши проблеми з індексацією сайту, завітайте до спеціалізованих форумів, де такі ситуації зазвичай активно обговорюються. Як правило, через кілька днів все приходить у норму.
У службі підтримки Яндекса та Google можна дізнатися, чому випала сторінка з індексу, проте звертатися до них занадто часто не варто.
Є спеціальні пінг-сервіси, завдяки яким власник сайту міг своєчасно дізнатися про припинення індексації. Ці служби регулярно моніторять стан ресурсу та сповіщають власника за допомогою електронної пошти або SMS.
-
Накрутка поведінкових факторів з боку
Починаючи з березня 2020 року, власники багатьох ресурсів стали фіксувати зростання переходів із соціальних мереж та з інших сайтів. Особливість трафіку полягає в тому, що користувачі приходять зі сторінок, що належать:
- банкам;
- державним організаціям;
- великим ЗМІ;
- навчальним закладам.
При цьому жодних посилань на ваш сайт там не міститься, йдеться про накрутку поведінкових факторів. Методи боротьби з цим явищем поки що не визначені, кожен власник ресурсу шукає власні шляхи виходу із ситуації. Накрутку сайту можна визначити, вивчивши переходи за посиланнями та із соцмереж.
Вибухове зростання трафіку не з пошукових систем свідчить про те, що ваші сторінки атаковані недоброзичливцями. Результатом накрутки поведінкових факторів (ПФ) може стати різке зниження позицій сайту, зокрема виліт із топ-10. Яндекс вживає таких заходів, запідозривши ваш ресурс у:
- штучній накрутці ПФ;
- у скуповуванні посилань;
- падіння показників ПФ (високий відсоток відмов, невеликий час та глибина перегляду).
Якщо самостійно розібратися у причинах просідання у видачі Яндекса чи Google, варто звернутися по допомогу до фахівців.
-
Неправильне SEO-просування
Користуючись сленгом фахівців, SEO-просування сайтів буває білим, сірим та чорним. Зрозуміло, що рекомендується застосовувати виключно білі методи, хіба з невеликим сірим відтінком.
- Біле SEO (White Hat SEO) – просування сайту, за якого не використовуються жодні заборонені технології;
- Сіре SEO – методики, що допускають маніпуляції з видачею, але не спричиняють накладання санкцій з боку пошуковика;
- Чорне SEO (Black Hat SEO) – способи, що дають короткочасний результат, але несуть відправку вашого сайту в довгий бан.
Від використання сірих методик краще теж відмовитись: цілком можливо, що чергове оновлення алгоритмів або вдосконалення фільтрів Баден-Баден та Мінусинськ переведе їх у чорну категорію.
Чорне SEO – улюблений варіант веб-майстрів, які не налаштовані на тривале та успішне просування, а прагнуть до максимуму трафіку за обмежений період. Цими методами грішать SEO-агентства другого ешелону, які хочуть продемонструвати замовникам швидкий результат.
-
Порно посилання
Якщо сторінка випала з індексу, і це супроводжується появою великої кількості зовнішніх посилань, в першу чергу визначить джерела переходів. Ваші конкуренти могли розмістити посилання на ваш сайт на порнографічних ресурсах. Модератори на таких майданчиках не турбують себе роботою, тому в коментарях можна писати що завгодно.
Радимо звернутися на підтримку Яндекса, до Платона Щукіна, з проханням зняти санкції з вашого сайту вручну. Можливо, на це буде потрібен час, але результат гарантований.
-
Маніпуляція капчею
Капча повсюдно застосовується при введенні даних, проте можна зустрітися і з її використанням для накрутки поведінкових факторів. Бажаєте побачити зображення або перейти на наступну сторінку – вводьте капчу.
Справа в тому, що пошукові системи вище оцінюють ресурси, на яких користувачі здійснюють будь-які дії. Captcha – найменш витратний для веб-майстрів спосіб змусити відвідувача сайту взаємодіяти зі сторінкою.
Миттєві санкції застосування капчі не наступлять, але з часом ресурс може серйозно просісти у видачі. Для реального, а не фіктивного покращення поведінкових факторів варто попрацювати над контентом, щоб викликати у користувачів бажання контактувати з сайтом без примусу.
Фічі, що призводять до випадання сторінки з індексу
-
Push-сповіщення
Реклама за допомогою пуш-повідомлень вже не така ефективна, як кілька років тому, але деякі власники сайту не відмовляються від цього способу отримати додатковий дохід. Яндекс відноситься до push нейтрально, але при окремих порушеннях ресурсу можуть бути застосовані санкції. Це відбувається в таких випадках:
- Згода на отримання повідомлень отримана не цілком законно;
- Користувач втрачає доступ до сайту, доки не оформить підписку на пуш;
- Власник ресурсу виявляє зайву наполегливість, багаторазово спрямовуючи пропозицію про передплату.
Якщо ви виявили, що на вашому сайті включена система push-повідомлень, причому зроблено це без вашого відома, швидше за все, йдеться про зло. Це один із найпоширеніших способів впровадити шкідливий код. Для його пошуку та видалення скористайтесь одним із плагінів захисту від вірусів та шкідливого ПЗ. Не вдається вирішити цю проблему самостійно – зверніться до спеціалістів.
-
Неправильна реклама
Загалом Яндекс нічого не має проти реклами, хоча серед сеошників існує думка, що її надлишок негативно позначається на ранжируванні сайту. Частка правди в цьому є, але якщо рекламні блоки розміщені правильно, їхня велика кількість не стає причиною зниження позицій у видачі.
Це не означає, що можна сміливо вставляти рекламний банер після кожного абзацу. Така нав’язливість не сподобається користувачам, вони залишатимуть сторінки, тим самим погіршуючи поведінкові фактори ресурсу.
Можна виділити кілька рекламних форматів, через активне використання яких сайт може втратити топові позиції. Це:
- PopUnder – коли одночасно зі сторінкою відкривається окреме вікно з рекламою, розташоване поза вікном браузера;
- ClickUnder – реклама або сайт відкриваються у новій вкладці браузера, після кліка користувача у поточній вкладці;
- PopUp – вікно з рекламою, що спливає в тій же вкладці.
Зловживання такими рекламними форматами може спричинити випадання сторінки з індексу. При тому, що формальної заборони на їхнє застосування немає, алгоритм Яндекса відносить PopUnder, ClickUnder або PopUp до настирливих способів просування товарів та послуг. Крім того, заборона на індексацію сайту може бути накладена вручну асесорами.
Власники ресурсів, розміщуючи рекламу у таких форматах, мають бути готові до раптового обвалу позицій у видачі. Це може статися через кілька місяців безкарного застосування PopUnder, ClickUnder або PopUp внаслідок потрапляння під фільтр алгоритму або поганого настрою одного з асессорів.
-
Майнінг криптовалюти
Ідея використати потужності відвідувачів для видобутку криптовалюти з’явилася кілька років тому й у свій час була дуже популярною. Багато хто почав встановлювати на сайтах криптомайнери – спеціальні програми, що дозволяють заробити на генеруванні криптомонет.
Надійним та високоприбутковим такий вид заробітку назвати складно, однак окремі портали досі не відмовляються від використання криптомайнерів. Google ставиться до них нейтрально, а ось позиція Яндекса однозначна: майнінг криптовалюти – це брехня відвідувачів сайту, і за це треба карати.
Встановити скрипт на ваш сайт можна без вашого відома. Часті варіанти:
- вбудовування майнера адміністратора сайту;
- використання через обнулений та сумнівні плагіни;
- шляхом злому сайту.
-
Клікджекінг
Ще одна шахрайська технологія, завдяки якій від користувача вимагають здійснення дій без його відома. Йдеться про вступ до спільноти та групи соцмереж, про передачу персональних даних, оформлення підписок та здійснення покупок.
Боротьба з клікджекінгом проводиться Яндексом з 2016 року. Якщо ваш сайт запідозрений у використанні цієї технології, ви отримаєте відповідне повідомлення у Вебмайстрі, а позиції ресурсу різко впадуть. Це особливо неприємно, якщо ви не маєте жодного відношення до обману, а просто отримали скрипт одним із можливих способів:
- через заражені теми та плагіни;
- разом із скриптами сторонніх розробників;
- від вірусів та шкідливого ПЗ;
- внаслідок прямої установки на FTP-сервер.
-
Віруси та малвер
Жоден сайт не застрахований від ризику підхопити вірус. Крім того, недоброзичливці можуть впровадити шкідливі файли та скрипти. Для Яндекса будь-яке зараження – сигнал зниження позицій такого ресурсу.
Спіймати вірус можна одним із трьох способів:
- через комп’ютер адміністратора;
- внаслідок хакерської атаки;
- через вразливість у темах, плагінах, ядрі WordPress.
Плагіни безпеки серйозно знижують ризик зараження, тому їхнє використання обов’язково.
-
Хибна тривога
Яндекс може прийняти за вірус або шкідливу програму абсолютно безпечний код, який застосовується в деяких плагінах. Для робота це металевий привід застосувати фільтр і прибрати сторінку з індексу. Наприклад, таке трапляється із плагіном показу зображень.
Щоб виявити плагін, що спричинив санкції, скачайте сайт на свій комп’ютер і проскануйте Aibolit (https://revisium.com/ai/). Аналіз покаже місце знаходження потенційно заражених файлів, і навіть їх приналежність до певного плагіну чи темі.
Далі вибираєте одну з можливих дій:
- відмова від плагіна;
- його відкочування до попередньої безпечної версії;
- очікування на оновлення плагіна.
-
Інформація та комерція
Для пошукової системи Яндекс усі ресурси поділяються на два типи – інформаційні та комерційні. При формуванні стрічки видачі алгоритм враховує специфіку запиту. Якщо ви на своєму інформаційному сайті розмістили статтю під ключ типу «купити цеглу в Саратові», ранжуватися вона буде нижче, ніж такі ж матеріали з комерційних сайтів.
Іноді Яндекс самостійно приймає рішення про переведення ресурсів з інформаційних до комерційних та навпаки. Наприклад, ви відкрили інтернет-магазин товарів для саду та одночасно ведете блог, в якому даєте рекомендації щодо ландшафтного дизайну. Алгоритми Яндекса можуть визначити як основний інформаційний напрямок вашого ресурсу та ранжувати його виходячи з цього рішення.
З визначенням таких змін виникають проблеми. Прийде ретельно моніторити позиції сайту окремо за комерційними та інформаційними запитами. В результаті можна виявити, що ресурс краще ранжується як інформаційна платформа, хоча ваша головна мета – продавати. Отже, необхідно приділити більше уваги комерційній спрямованості сайту, щоб Яндекс змінив своє рішення.
4 способи повернути статті в індексацію Google та Яндекс
Отже, ви зіткнулися з різким падінням позицій та виявили, що сторінка випала з індексу. Для початку важливо усвідомити, що:
- Присутність в індексі аналогічної статті автоматично призведе до того, що алгоритм пошукача саме її вважатиме першоджерелом, а вашу копію, що вилетіла з бази.
Насправді авторство закріплюється за сайтом, який вперше опублікував спірний контент. Але чи буде робот розбиратися, який із ідентичних матеріалів варто розміщувати вище за інше у видачі, – велике питання.
- Статті доведеться проходити індексацію та ранжування наново. Ніхто не гарантує, що вона повернеться до тих самих позицій, які займала до санкцій.
Тепер поговоримо про безпосереднє повернення сторінок до індексу.
- Зміна адреси
Не секрет, що пошукові системи краще індексують свіжий контент. Найпростіший спосіб, треба повернути в індекс одиничну сторінку, – присвоєння їй нової адреси та встановлення редирект 301 зі старої адреси, щоб зберегти нормальну роботу посилань та передачі ваги із зовнішніх ресурсів. - Коригування змісту
Повністю переписувати статтю не треба, достатньо додати одну пропозицію, щоб двигуни змінили значення оператора modified, а пошукові системи отримали сигнал до повторної перевірки матеріалу. Для робота це буде зовсім інша стаття, яку він проіндексує ранжує.
Далі розповімо про те, як повернути статтю в Яндексі та Гуглі окремо. Справа в тому, що сторінки дуже рідко випадають відразу з обох пошукових систем. З іншого боку, методи повернення серйозно відрізняються. - Повернення сторінки в індекс Яндекса
Беремо сервіс GetBot і надсилаємо швидкість Яндекса на сайт. Через 10 хвилин стаття з’явиться в індексі від швидкості, а через пару тижнів – в основному індексі. Інших варіантів немає. Щоправда, можна купити посилання на супертрастовому ресурсі та організувати по ньому кілька переходів (з гарною активністю). - Повернення сторінки до індексу Google
Якщо фід налаштований, жодних заходів не потрібно. В іншому випадку займемося налаштуванням фіда. Стаття з новою адресою буде автоматично відправлена куди треба і через 2–3 дні з’явиться в основній видачі.
Насамкінець кілька слів про те, як захистити свій ресурс від випадання сторінки з індексу пошукових систем:
- Посилання повинні бути суто тематичними. Пишете про рибалку – не розміщуйте посилання б’юті-тематики, як би добре за них не платили. Це може призвести до зниження трасту і може спровокувати видалення сторінок з індексу.
- Додайте посилання до статей обсягом не менше 2 тисяч символів. При цьому дуже важливо, щоб її текст був релевант анкору посилання. Неприпустимо писати про будівництво будинку своїми руками, а посилатися при цьому на «як схуднути за тиждень без дієт».
- Позбавтеся дублів, використовуючи robots.txt. Пам’ятайте, що статті з посиланнями не дуже добре сприймаються пошуковими системами, а наявність дублів ще більше псує ситуацію.
- Не забувайте про перелінкування сторінок. Це допомагає завжди тримати їх у полі зору робота, про які не занурюватимуться в нижні рівні вкладеності.
- Чергуйте статті з посиланнями і без них. Це позитивно позначиться на трасті.
Щоб вам не довелося констатувати, що ваші сторінки випадають з індексу, приділяйте достатньо уваги технічній стороні роботи над сайтом і вчасно усувайте виявлені недоліки. Інформаційним ресурсам можна порадити з обережністю використовувати рекламні блоки, а платформ для електронної комерції краще взагалі обійтися без них. Забудьте про такі методи, як клоакінг, дорвеї та клікджекінг – рано чи пізно пошуковик застосує санкції. Єдино вірний шлях – наповнювати сайт якісним затребуваним контентом, орієнтованим на людей.