Фильтры и иные санкции накладываются на сайты, владельцы которых вольно или невольно нарушают правила поисковых систем. В некоторых случаях даже качественный и безупречный сайт может стать жертвой фильтров. Не всегда в Яндекс.Вебмастере или Google Search Console отображается уведомление, есть ли санкции и за что. Разберем, какие есть способы, чтобы проверить свой сайт на фильтры или бан.
Если вы работаете с трафиком и хотите понимать, как защитить свои проекты и оптимизировать сайты для арбитража, подписывайтесь на наш Telegram-канал по арбитражу трафика. Там мы делимся практическими схемами, инструментами и кейсами по проверке сайтов и работе с источниками трафика.

Фильтры поисковых систем (ПС) выполняют защитную функцию. Это алгоритмы, которые охраняют пользователей от некачественного контента, мошенничества, обмана, бесполезных ресурсов. Цель фильтров — сделать пользовательский опыт более положительным и ценным.
Фильтры подразумевают под собой снижение позиций в выдаче. Например, сайт показывается на 10-30 позиций ниже, чем показывался бы без фильтров.
Если на сайт или его страницы наложен фильтр — это не повод для паники. Ситуация не такая патовая, как в случае бана, и выйти из-под фильтров всегда можно. Бан или безвозвратная блокировка ресурса бывает в исключительно редких случаях. Например когда используется «черное» SEO, злостный обман пользователей, поисковых систем вроде фишинговых сайтов, ворующих личные данные и деньги. Когда наложен бан, сайт полностью исключают из поиска и рекламной сети.
Чтобы снизить риск попадания под фильтры и быстрее находить проблемные места, полезно регулярно анализировать контент до публикации. В этом помогают сервисы для SEO-анализа текста — они показывают переспам, слабую структуру, проблемы с релевантностью и другими факторами, которые могут триггерить алгоритмы Яндекса и Google.

Фильтры могут налагаться на:
Малополезные страницы и страницы, которые не индексирует ПС — это те страницы, не представляют ценности. Например, с товарами, у которых нет статей, обзоров.

По времени появления фильтры могут быть:

По способу наложения фильтры могут быть:
Когда фильтры затрагивают отдельные разделы или сотни страниц, без системной проверки обойтись сложно. В таких случаях выручают сервисы мониторинга доступности и состояния сайтов — они помогают отследить, какие страницы выпали из индекса, перестали отвечать или начали отдавать ошибки, что часто совпадает с наложением фильтров.
Основные фильтры, которым может подвергаться сайт у Яндекса:


Распространенные фильтры в Google:
Ранее у Google выделялись фильтры понижения позиций -5, -30, -950 и другие виды пенальти. Сейчас эти санкции — часть общего алгоритма ранжирования.
Чтобы снизить риски реагирования фильтров за неуникальный или слабый контент, важно проверять тексты еще до публикации. Для этого удобно использовать сервисы проверки уникальности текста — они помогают выявить заимствования, дубли и проблемные фрагменты, которые поисковики считают бесполезными.
Причины, по которым сайт может попасть под фильтры и бан:
Споткнуться о фильтры можно даже на мелочах — например, из-за неаккуратного текста с ошибками, «кривыми» формулировками и мусорными фразами, которые снижают общее качество страницы. В таких случаях помогают сервисы проверки орфографии, грамматики и пунктуации — они позволяют быстро привести контент в порядок и убрать сигналы низкого качества ещё до индексации.

Пример плохой адаптации под мобильное устройство, Google такое не любит (источник):

От фильтров не застрахован ни один сайт. 100% защиты от фильтров нет. Это такие риски, к которым по умолчанию должен готовиться любой владелец ресурса. Подобно тому, когда мы покупаем автомобиль — мы почти всегда покупаем вероятность хотя бы одной маленькой аварии на дороге.
Фильтры могут накладываться даже на качественный сайт, который ничего не нарушает, если вебмастер — жертва конкурентов. Другие вебмастера накручивают ботов и поведенческие факторы на своих сайтах.
Бери в работу по высоким стартовым ставкам BY, KZ, RU, IT, ES, PL, AT, DE, CH, IN, CA. Будь первым и зарабатывай с Fonbet Partners!
ПродолжитьЧтобы бот давал ощутимый эффект, его нужно «нагулять». Нагул происходит посредством посещения разных сайтов в схожей тематике. В результате ПС видит на сайте-жертве всплеск подозрительной активности (пришли погулять чужие боты) и думает, что виноват именно сайт-жертва, подвергая его фильтру.
Страницы и разделы сайта могут попасть под фильтр на в среднем на срок 8-12 месяцев.
Яндекс и Google периодически придумывают новые фильтры, их нейросети совершенствуются. Может случиться, что когда на сайте проседает трафик — это совпадает с датами появления нового фильтра, под который сайт как раз попал. Чтобы это проверить, важно следить за новостями обновлений алгоритмов:

Многие фильтры не отображаются в Вебмастере, Яндекс.Метрике или Google Search Console. Владелец сайта видит нормальные показатели, но по факту фильтры присутствуют. Если он пишет письмо в техподдержку с запросом, не наложили ли на него фильтры, ответ приходит всегда один. Он выглядит примерно так: «Никаких фильтров нет, все в порядке, продолжайте развивать и улучшать ваш сайт, и все будет хорошо».
Ситуация усложняется, потому что Яндекс активно борется с различными способами диагностики. Не в интересах ПС, чтобы люди знали, как работают алгоритмы, накладывающие фильтры — иначе все будут уметь их обходить.
Однако, обнаружить фильтры все же можно. Для этого применяются следующие способы:

Этот фильтр не признается представителями ПС. Проекты аффилированы, если сайты никогда не находятся в топ-10 одновременно. Ранее второй сайт совсем скрывался из выдачи. Сейчас порой даже аффилированные сайты можно встретить одновременно в Топ-10, но по довольно специфическим запросам — навигационным, с топонимом. Способы проверить сайт на этот фильтр:


Для обнаружения разных типов фильтров лучше применять комбинацию методов и способов. Если ориентироваться на что-то одно, легко ошибиться. Пример: падение трафика и посещаемости может быть связано с сезонностью, когда у людей отпуска, праздники, и они в это время не заходят на сайты определенных тематик.
Чтобы отследить дубли и страницы, которые явно вышли из индексации, нужно перейти в раздел Вебмастера Индексирование — Страницы в поиске — Новые и удаленные. Если количество удаленных страниц растет, нужно проанализировать, что это за страницы. Исключенные страницы разделены по видам. Там можно посмотреть дубли и недостаточно качественные страницы. Если их большое количество — за это накладывают фильтры.
Примеры некоторых сторонних инструментов:


SEO-эксперты и опытные вебмастеры предлагают несколько способов, как действовать, если сайт попал под фильтры:
Сайт может попасть под фильтр вследствие изначально неверно выбранной маркетинговой стратегии. Иногда бывает легче и дешевле поменять подход к маркетингу и продвижению, чем постоянно бороться с фильтрами. Как замечают SEO-эксперты, некоторые сайты и вовсе лучше переделать с нуля.

Если сайт не показывается, причина тому не всегда фильтры или бан. Страницы могут быть исключены из индекса, потому что:
При появлении проблем SEO-специалисты советуют первым делом пробежаться по этому списку, а уже потом «грешить» на фильтры. Вполне возможно, что ситуацию исправить гораздо легче, чем ждать выхода из-под санкций. Если же вы не можете это решить самостоятельно, то воспользуйтесь помощью SEO-специалистов.
Первым делом нужно провести глубокий аудит сайта. Многие проблемы можно выявить и решить сразу. Например, если замечена явная переоптимизация или не уникальность текстов, нужно переписать или обновить статьи, добавить в них видео, убрать лишние ключевые слова и ссылки.
Если выявлено, что присутствует много малополезных страниц, дублей, важно бороться с дублицированностью. Могут помочь уникализация и увеличение количества полезного текста до 4 абзацев, добавление новых блоков, выборок, мета-тегов, видео, качественной перелинковки, расширить количество характеристик товаров.

Может выявиться проблема с технической оптимизацией. Например, если по Яндекс.Метрике виден большой процент отказов (более 16-20%) — это может быть сигналом проверить скорость загрузки сайтов. Максимальное время загрузки должно быть не более 2,5 секунд. Также нужно убедиться, что редиректы не индексируются, поменять 301 на 404.
Чтобы повысить ранжирование, может быть полезным удалить так называемые «зомби-страницы» или страницы, не которые нет спроса, которые висят мертвым грузом. Они показывают ПС, что сайт не очень качественный в целом.
Для защиты от фильтра за качество бизнеса нужно регулярно парсить и мониторить отзывы о себе, как можно быстрее отвечать на них. Если отзыв негативный — показывать, что по проблеме работают, либо доказывать, что обвинения не обоснованы в случае «наезда» конкурента.
Чтобы избавиться от фильтра аффилированности для снятия алгоритмического фильтра требуется устранить факторы пересечения и дождаться их учета. Факторы аффилированности и чек-лист по их учету представил SEO-эксперт Дмитрий Севальнев, на инфографике (источник) ниже:

Вывод
Вычислить явные и «скрытые» фильтры Яндекса и Google поможет регулярная аналитика показателей по трафику, индексации. Также полезно проводить аудит сайта раз в несколько месяцев. Многие фильтры можно снять с помощью исправления ошибок и нарушений, запросив повторную проверку у ПС. Если владельцу сайта важно любыми путями, в том числе черными, получить продвижение, следует быть готовым к постоянным фильтрам и банам.