Михаил Шакин на своем YouTube-канале провел вебинар по бюджетам сканирования поисковых систем и определении точек роста сайта. Кроме самого Михаила, в вебинаре приняли участие его коллеги-seoшники: Михаил Пивоваров и DrMax, которые обсудили, как определить и оптимизировать бюджет сканирования Google, а также ответили на вопросы зрителей прямой трансляции.
В начале вебинара DrMax объяснил, что бюджет сканирования (краулинга) — это объем запросов, которые выделяет Google для того, чтобы пересканировать страницы сайта. При этом надо четко различать то, что сканирование — это не индексация страниц, и тот факт, что страницы, которые были просканированы, могут и не попасть потом в индекс.
Краулинговый бюджет можно узнать разными способами, одним из которых является соответствующий отчет в Google Search Console (Настройки > Сканирование > Ссылка «Открыть отчет»).
После открытия, вам будет доступно несколько обработанных поисковой системой параметров вашего сайта, напрямую связанных с бюджетом сканирования. На скриншоте ниже видна часть такого отчета:
«Вот, в данном случае всего 86% 200-х ответов. Соответственно, 14% бюджета сканирования у вас прожирается совершенно бесполезно», — прокомментировал DrMax:
По мнению DrMax, особое внимание в этом отчете стоит обратить на количество ошибок 5хх, ведь чем таких ошибок больше, тем автоматически меньше становится бюджет сканирования.
Сводный отчет о статусе хоста можно увидеть по адресу Статистика сканирования > Статус хоста. Выглядит он так:
Кроме ответов сервера, на бюджет сканирования также влияет и оптимизация мобильной версии сайта. Google учитывает качество версии для смартфонов и если там есть ошибки в верстке и кодинге, делающие ее неюзабельной, он обязательно порежет ваш бюджет сканирования.
Еще один инструмент для получения отчетов о показателях сканирования вашего сайта — это широкоизвестная в seoшных кругах программа «Screaming Frog».
С ее помощью можно узнать, сколько страниц вашего сайта проиндексировано, просканировано, и о каком их количестве Google просто в курсе. Также она покажет, через какое количество дней «паук» поисковой системы наведывается на каждую группу страниц. Как пример, DrMax привел отчет из этой программы для одного сайта:
ВАЖНО! Этот способ работает только при подключении к Screaming Frog API из Search Console.
По опыту DrMax, те сайты-миллионники, которые он анализировал, очень медленно переиндексируются — доходит до того, что на это требуется полтора года. Таким образом, чтобы переиндексация проходила быстрее, надо что-то делать с бюджетом сканирования, а что именно, мы расскажем ниже.
Google на днях обновил документацию, в которой есть простые и понятные советы, как улучшить показатель бюджета сканирования вашего сайта. Ниже мы по пунктам расскажем про каждый из них:
Подводя итоги, DrMax выделил несколько важных пунктов для увеличения бюджета сканирования:
Во второй части вебинара Максим Пивоваров и DrMax согласились на предложение Михаила ответить на несколько вопросов, которые появились в чате во время трансляции.
Этот бот сканирует скрипты, файлы css и встроенные картинки в формате svg.
Все технические ошибки, а также ошибки в разметках и несоответствие требованиям mobile friendly (как правило, речь идет про горизонтальную прокрутку и маленький размер кнопок и ссылок).
Самый простой способ — это закрытие через robots.txt.
Чтобы сократить число 404 страниц, надо удалить на них все внутренние ссылки и перенаправить все внешние ссылки, которые ведут на 404-е страницы, по другим адресам внутри сайта. Как вариант, да, делать 410-е страницы.
Есть такая фишка — на некоторое время сделать 301-й редирект со старого домена на все страницы нового, при этом оставив на старом домене xml-карту сайта со старыми ссылками. Плюс после переезда следует заняться прокачкой ссылочного профиля, закупая как можно больше ссылок на страницы сайта.
Для Google вполне подойдет Indexing API.
Если нет потребности в других поисковиках, то вполне можно такое делать.
Лучше всего — это «приклеить» такой домен к разделу на русском языке.
Если речь про бюджет сканирования, то эти теги не сыграют никакой роли. Даже если их прописать в коде, боты поисковых систем все равно приходят на такие страницы.
Можно попробовать достать все запросы через API. Что касается сбора семантического ядра, то одним из лучших инструментов можно считать SemRush, если речь про проект под западную аудиторию. Если проект под русскоязычную аудиторию, то KeyCollector (платное решение) или Wordstat и Google Trends (бесплатно).
Стоит попробовать выполнить минификацию, объединение (есть риск «поломки» Elementor'a), сжатие и браузерное кэширование Javascript-файлов. Все это можно сделать в платной версии плагина WPRocket. Также проверьте, закрыты ли ваши ява-скрипты в файле robots.txt. Если да, то, наоборот, откройте их.
Подписывайтесь на наш Telegram-канал про классический манимейкинг, в котором мы пишем про SEO-оптимизацию сайтов и заработок на этом, а также про соцсети, YouTube и другие способы манимейкинга.