11 апреля 2023 0 2237

Полезные фишки по работе в Google Search Console

На YouTube-канале Михаила Шакина недавно прошел вебинар о том, как с использованием Google Search Console увеличить трафик сайта. Спикерами были Макс Пивоваров и Dr.Max. Ребята поговорили на такие темы:

  • Индексирование страниц в Google Search Console;
  • Импорт данных из Google Search Console в Screaming Frog SEO Spider;
  • Проблемные ссылки с редиректами.

Инструмент «Индексирование страниц»
Индексирование страниц является самым важным инструментом, считает Dr.Max, поскольку без индекса не будет показов, а, соответственно, и трафика. В Google Search Console можно посмотреть распределение страниц по тем, которые вошли и не вошли в индекс. Кроме этого, график показывает динамику. Важно, чтобы на сайте постоянно росло количество проиндексированных страниц, а не проиндексированных — падало.

Под не проиндексированными страницами понимается следующее. Предположим, на сайте есть страница, на которую не ведет ни одна ссылка. Поисковик ее может пропустить либо обнаружить и просканировать, то есть запустить поискового бота. Он соберет какие-то данные, но в индекс, который формирует ранжирование, страница может не попасть. Данные, которые представлены ниже, на скриншоте из Google Search Console, показывают общее состояние сайта и позволяют оценить объем необходимой работы по вводу страницы в индекс.

Чтобы определить, какие именно страницы находятся, например, с ошибкой 404, необходимо воспользоваться соответствующими инструментами в Screaming Frog SEO Spider или SiteAnalyzer. После выявления всех битых ссылок их нужно поправить либо удалить.

На вышеприведенном скриншоте одной из причин не индексации страниц является «Индексирование страницы запрещено тегом noindex». Такой тег используется для того, чтобы скрыть служебные страницы от пользователя. Dr.Max призвал аккуратно пользоваться данным тегом, поскольку страницы, на которых он размещен, спустя 1 год попадают под запрет на прохождение через них ссылок. То есть Google отмечает их меткой «no index, no follow».

«Страница является копией. Канонический вариант не выбран пользователем».  Здесь причина отсутствия страниц в индексе в том, что на них не прописаны canonical. Google определяет такие страницы, как входящие в пул дублей и «наказывает». В каждом конкретном случае необходимо индивидуально разобраться с причиной, прописать canonical либо удалить страницы.

Атрибут canonical должен быть на 99% самореферентным, то есть быть прописан сам на себя. Канонизировать страницы с одной на другую или копировать спикер не рекомендует. Это является недоработкой структуры сайта и воспринимается Google очень негативно.

«Обнаружена, не проиндексирована» — это говорит о том, что поисковик заметил ссылку на какую-то страницу, но бота туда не отправил. Как правило, это связано с тем, что на странице очень мало внутренних ссылок. Чаще всего это бывает именно из-за соотношения их количества. Например, на не проиндексированной странице стоит 5-6 ссылок, в то время как на других несколько десятков, а то и сотен.

«Страница просканирована, но пока не проиндексирована» может встречаться в тех случаях, когда на ней нет контента либо он есть, но частично скрыт от пользователя. Но, помимо этой, может быть и ряд других причин. Точно определить, почему бот просканировал страницу, но не взял в индекс, можно путем ее анализа. Другими словами, нужно открыть каждую такую страницу и посмотреть, чем она отличается от проиндексированных. Обратить внимание нужно на такие параметры, как:

  • Контент;
  • Title;
  • H1;
  • Количество рекламы на страницах.

Импорт данных из Google Search Console в Screaming Frog SEO Spider
Как уже было сказано выше, для анализа страниц можно использовать несколько SEO сервисов. Dr.Max показал, как это делать на примере Screaming Frog SEO Spider.

Первым делом необходимо настроить сервис на полное сканирование сайта. Затем через настройки конфигурации и API Access зайти в Google Search Console. В последней вкладке открывшегося окна нужно выбрать все 3 галочки. Бесплатная версия сервиса позволит сканировать до 2 000 страниц в день.

После того, как сайт просканирован, необходимо перейти во вкладку Internal, выбрать закладку HTML и нажать клавишу Export.

Все данные будут выгружены в виде Excel-таблицы. Столбец Coverage таблицы показывает, в том числе, те страницы, которые не проиндексированы, они выделены коричневой заливкой на скриншоте ниже. Страницы, которые вошли в индекс имеют позиции, клики, CTR и другие данные в соответствующих столбцах.

В столбцах, которые не попали в область экрана предыдущего скриншота показаны title, description и другие подробные данные страниц. Все это позволяет найти общие закономерности попавших в индекс страниц и не проиндексированных поисковиком. Можно построить какие-то средние значения обоих типов страниц. Например, скриншот ниже демонстрирует закономерность того, что чем меньше ссылок, тем хуже индексируется страница.

Столбец Word count можно отсортировать по возрастанию количества слов. Как правило, страницы с малым количеством слов являются служебными. Если они находятся в индексе, их необходимо убрать оттуда. Также страницы, в которых мало слов, могут быть заброшенными. Их также необходимо вывести из индекса и удалить с сайта. Спикер порекомендовал отфильтровать страницы и пройтись по каждой из тех, где количество слов меньше 200.

Стремные ссылки
На скриншоте ниже показан пример ссылки, которые нужно находить и удалять со своего сайта. Они формируются при помощи XRumer и других подобных сервисов и наполняют сайт мусорными ссылающимися доменами, которые вредят ранжированию страниц.

Кроме того, если ссылка сформирована подобным образом, с продвигаемого сайта происходит 301 редирект на ресурсы серой тематики — порно, гемблинг и так далее. Соответственно, если таких ссылок много, это означает, что продвигаемый сайт ссылается, например, на сотни порно-сайтов.

Для того чтобы избавиться от таких входящих ссылок, необходимо:

  1. Удалить плагин, который формирует URL;
  2. Сделать 301 редиректы на авторитетные тематические ресурсы.

Указанные шаги помогут:

  • Во-первых, удалить свой сайт из базы спамеров, поскольку их ссылки не будут на нем приживаться;
  • Во-вторых, передать вес на авторитетный ресурс, чем показать Google противодействие нехорошим ссылкам.

Раздел проиндексированных страниц
Алгоритм действий, представленный на скриншоте ниже, позволяет увидеть, какие страницы попали в индекс. На этом примере показано, что вместо основной туда попали страницы с фильтрами.

Когда страницы с фильтром конкурируют с нужными страницами без фильтра — это плохо для сайта. Проще всего их выявить именно путем анализа проиндексированных страниц.

«Необходимо прошерстить проиндексированные страницы и избавиться от тех, которых там не должно быть», — дал совет Dr.Max.

Инструмент «Ссылки»
В начале этой части своего доклада спикер подчеркнул, что Google учитывает не все ссылки. 80% ссылок, которые продаются на биржах — откровенный шлак. Для продвигаемого сайта они не могут принести пользы, но вред от них он получит точно. В этом контексте хорошо, что Google их не учитывает.

Данный инструмент Google Search Console показывает общее количество ссылок на сайте.

Самые высокие ставки по RU, BY, KZ от прямого рекламодателя FONBET PARTNERS! К заливам!

Переход на вкладку «Сайты, ссылающиеся чаще всего» отображает количество ссылающихся доменов.

При помощи  Ahrefs, Semrush, PowerSuite и прочих подобных сервисов нужно собрать с сайта все внешние ссылки. Как видно на картинке ниже,

PowerSuite показал, что на сайт ссылается 154 домена. На предыдущем скриншоте видно, что Google Search Console насчитал 61 домен. Соответственно, Google показывает только треть от общего объема ссылающихся доменов.

Если говорить о бюджете на покупку ссылок, в данном случае он отработал только на 1/3 часть, остальные деньги потрачены зря. Вполне вероятно, что это соотношение еще меньше из-за того, что стоимость упущенных Google-ссылок, могла быть выше учтенных.

Чтобы проверить, какие ссылки были учтены, нужно вытянуть их в Excel из URL по приведенной ниже формуле. Все выгруженные ссылки помечены зеленой заливкой.

Вторая часть ссылок выгружена из PowerSuite, она помечена красной заливкой.

Следующим шагом необходимо найти и удалить дубли в таблице. Все оставшиеся строки, выделенные красной заливкой — это ссылки, которые не учитывает Google.

Поверхностный анализ «красных» ссылок позволяет сделать вывод о том, что Google не учитывает:

  • Ссылки различных анализаторов сайтов;
  • Ссылки с «мертвых» форумов и тому подобные менее трастовые ресурсы.

Исследования и расчеты, которые провел Dr.Max, показали, что ни одна из пузомерок не показывает точно качество домена. Свои выводы он представил на нижеприведенных графиках. Их суть в том, что только комплексный анализ несколькими сервисами может показать более-менее релевантный средний результат. При этом спикер подчеркнул, что графики показывают только качество домена, а не ссылок с этого сайта. На графиках по оси «x» находятся номера доменов в таблице, «y» — порядковый номер пузомерки.

Ответы на вопросы
Вторая часть вебинара была посвящена ответам на вопросы слушателей. Самые интересные из них читайте в завершении данной статьи.

Иногда страница с твоей ссылкой находится в индексе Google, а в Google Search Console ее нет. Отсюда вопрос, учитывается ли такая ссылка или нет?

К сожалению, Google Search Console иногда также глючит, как и Вебмастер Яндекса, поэтому я бы не ориентировался на эти инструменты. Сторонние какие-то ресурсы тоже не всегда корректны, но если они зафиксировали появление такой ссылки, значит она индексируется.

К тому же стоит сказать, что наличие ссылки в индексе Google еще не означает, что она будет работать. Равно и отсутствие ссылки в Google Search Console не говорит о том, что она не работает.

Как добавить товары, чтобы они показывались во вкладке «Покупки» Google поиска?

Нужно использовать продуктовую микроразметку, прописав в ней код товара. Подробная инструкция, как это сделать есть на сайте Google.

Имеет ли смысл заполнять title картинки?

Джон Мюллер в недавнем своем выступлении сделал акцент на том, что заполнение описания картинок учитывается Google. Я бы хотел отметить, что важно не просто заполнять этот тег, а делать это качественно. Не просто забить его ключевыми словами, а сделать нормальное описание. То есть под это дело как минимум необходимо выделять человеческие ресурсы, поскольку процесс трудоемкий.

Еще расскажу о такой фишке: у картинок есть внутренние поля, так называемые, EXIF. Там указаны дата, место съемки и камера, на которую сделана фотография. Эти параметры Google не учитывает.

Другой вид разметки картинок, а именно IPTC, учитывается Google, и его необходимо заполнять. В частности, необходимо указать, кто автор картинки и кейворды. Также в этой разметке стоит указать URL своего сайта, чтобы закрепить ее за собой, чтобы никто не спарсил.

Какие еще можете дать рекомендации к заполнению тега title картинок?

Указать в описании все то, что видит глаз на картинке. Засовывать туда ключи совсем не обязательно.

Должны ли отзывы на сайте быть уникальными?

Я советую сделать отдельную страницу на сайте, назвать ее, например, «СМИ о нас» и размещать на ней все внешние отзывы. Туда можно закидывать отзывы с отзовиков, карт, публикаций и так далее.

TON Society, ELama и Magnetto на одном ивенте: ради чего стоит посетить TelemetrConf, если вы — аффилейт-маркетолог

Где еще можно задать вопрос представителям поисковика, кроме форума Центра Google поиска?

В Telegram-каналах авторитетных SEOшников часто сидят представители поддержки Google. Можно писать вопросы там и получить исчерпывающие развернутые ответы.

Как повысить трафик с поддоменов?

Самое лучшее решение — это вырубить поддомены. Из-за того, что на них одинаковый контент, поддомены каннибализируют друг друга, поэтому и не растет трафик. Кроме того, обслуживать много поддоменов — дело очень трудозатратное. Вместо них лучше вывести все в подпапки и объединить их под конкретное гео.

Нужно ли закрывать страницы готовых объектов сайта строительной тематики от индекса?

Не вижу смысла их закрывать. Если на этих страницах есть картинки и качественное описание с ключами, то, находясь в индексе, они будут собирать трафик по низкочастотным запросам.

Чем отличаются ответы «Не найдено 404» от «Ошибка 404»?

«Не найдено 404» — это ответ по внешним ссылкам. То есть имеется какая-то внешняя ссылка, но под нее нет страницы. «Ошибка 404» — это внутренняя ошибка на сайте.

Стоит ли использовать ChatGPT для SEO?

Наши коллеги из буржа активно используют ChatGPT для сбора ключей. По их словам, около 30% собранных нейросетями запросов являются шлаком, но остальная часть вполне приемлемая.

Как быстро узнать, какие страницы сайта не проиндексированы Google?

Все проиндексированные страницы можно увидеть в Google Search Console. В карте сайта видно, какие страницы проиндексированы, а какие нет. Если их необходимо выгрузить, это можно сделать через API.

Что делать, если упал трафик после последнего апдейта Google?

Нужно поработать с текстом, скорее всего падение связано именно с этим. Затем нужно смотреть на ссылки, поскольку в E-E-A-T Google включает все, в том числе и page rank. Поэтому начинаем с текста и идем дальше по другим параметрам — ссылки, микроразметка и так далее.

Что важнее, количество ссылок или ссылающихся доменов?

Важнее количество доменов, в идеале на 1 домен 1 ссылка. Есть такой лайфхак: с одного старого домена 1 раз в год можно ставить новую ссылку.

Что лучше, «лягушка» (Screaming Frog SEO Spider) или SiteAnalyzer?

У этих двух сервисов разные задачи. «Лягушка» на сегодняшний день обладает большим функционалом, но SiteAnalyzer постоянно дорабатывается и внедряет новые функции. Если стоит вопрос выбора, Screaming Frog SEO Spider — это must have для SEOшника, а SiteAnalyzer — прекрасное дополнение либо альтернатива, но исключительно для небольших проектов.

У меня сайт услуг под Санкт-Петербург. Если я на него поставлю ссылки из Европы, это как это повлияет на позиции?

Будет влиять, но незначительно. Гео — это не самое важное, на что нужно обращать внимание в ссылке. Гораздо больший вес имеет авторитетность ресурса. Например, если вы продвигаете сайт туристических услуг в Питере, ссылка с какого-то трастового финского сайта повлияет на него только положительным образом.

Статья опубликована один месяц назад, находится в топе Яндекса. Google Search Console показывает прирост трафика 2 300%, но статья в Google находится на третьей странице выдачи. Вопрос: зайдет ли статья в топ Google?

То, что страница стоит в топе Яндекса — это не показатель. Обновления в Google происходят в разы чаще, поэтому через время статья в Яндексе может улететь также на третью страницу выдачи.

Я бы рекомендовал поработать над статьей, усилить ее разными параметрами, например, контентной разметкой. Также не стоит забывать, что Google любит ссылки на странице.

Конференция партнерской сети «Т-Партнеры» в Москве

Еще имеет смысл посмотреть в эффективности страницы, по каким ключам идет трафик. Вероятно, статья подхватила какие-то низкочастотные запросы, а по основному не ранжируется. Если бы статья соответствовала основному запросу, то, скорее всего, уже выскочила в топ Google.

Как вам статья?
#seo #продвижение сайтов #Screaming Frog SEO Spider #Google Search Console
ПОЛУЧИТЬ АКТУАЛЬНУЮ ПОДБОРКУ КЕЙСОВ

Прямо сейчас бесплатно отправим подборку обучающих кейсов с прибылью от 14 730 до 536 900 ₽.

Партнеркин рекомендует
Партнерки
1win Partners
Топовая беттинг и гемблинг партнерка
TRAFORCE
Дейтинговая СPA-сеть
Affiliate Top
Надежная партнерка по бинарным опционам
Сервисы
Dolphin{anty}
Лучший антидетект браузер
PARTNERKIN
20%
FlexСard
Виртуальные карты для арбитража трафика
PARTNERKIN
Карты free
AdPlexity
Мониторинг мобильной, десктоп и нативной рекламы
partnerkin_m
25%


Trust RDP: аренда FB-акков