17 января 2023 0 261

Как вернуть трафик из Google? Практические советы от DrMax

Многие SEO-специалисты и владельцы сайтов рано или поздно сталкиваются с такими вопросами:

  • Как восстановить посещаемость сайта в Google;
  • Что нужно проверить, чтобы узнать причины падения трафика;
  • Какие SEOшные инструменты и методы использовать для возвращения стабильного трафика из Google и тому подобные.

Ответы на эти вопросы получили слушатели вебинара Михаила Шакина, который он недавно провел на своем YouTube-канале с участием DrMax и Макса Пивоварова.

Недавние нововведения Google
Макс рассказал о том, что Google обновил правила, касающиеся контентных проектов. Он указал, какие метатеги влияют на продвижение, дал разъяснение по заголовкам и так далее. Спикер порекомендовал всем SEOшникам внимательно изучить их и в целом не пренебрегать внимательным анализом всех публикуемых обновлений.

SEO-эксперт убежден в том, что все обновления также стоит просматривать через призму комментариев авторитетных представителей комьюнити. Например, сотрудник Google Джон Мюллер, разъясняя обновления, заявил, что авторство текстов и их даты изменять нельзя. Пивоваров на своем опыте убедился, что корректировка даты и содержания статьи в большинстве случаев положительно сказывается на ее ранжировании. Отсюда Макс сделал вывод, что все запреты и ограничения стоит проверять опытным путем. Естественно, это утверждение актуально для специалистов с большим бэкграундом.

DrMax отметил, что нововведения привели к массовому падению сайтов в поисковой выдаче. Более всего пострадали коммерческие сайты, в частности обзорщики. Михаил добавил, что в результате последнего апдейта Google пострадали также «полудорвейщики» — сайты, продвигающиеся посредством XRumer и подобными серыми способами. Это в основном ресурсы, продвигающие реплики популярных брендов.

XRumer — программа для массовой рассылки сообщений, работающая в ОС Windows. Предназначена для автоматической рассылки ссылочного спама на сайты в целях серого и черного SEO. При размещении спама может обходить методы, используемые для защиты от его автоматизированных рассылок.

Все участники вебинара сошлись во мнении, что последнее обновление Google принесло ряд аномалий. В выдачу стали попадать откровенно мусорные страницы, заменяя собой топовые, которые держались там на протяжении долгого времени. Еще Google стал уделять большое внимание оформлению сниппетов.

Михаил привел такой пример: сейчас можно сниппетами отобразить падение цены товара. Это положительно влияет на кликабельность, но при этом выводит в топ те страницы, которые раньше туда никогда не попадали. То есть сегодня можно заморочиться со сниппетами, не особо уделяя внимание контенту и оформлению страницы, и иметь шанс оказаться в выдаче. Шакин подчеркнул, что это не руководство к действию, а вероятно временный баг Google.

Захват поисковой выдачи
Другая сторона аномального поведения поисковика Google после обновления — это выведение в поиске одного топа ниши сразу на нескольких строчках. Например, по запросу «обменник биткоин» сайт bestchange.ru занимает сразу 7 верхних строчек. Аналогичная ситуация наблюдается с сайтами по продвижению гэмблинга.

Макс высказал мнение, что в командах, которые продвигают игровые и криптосайты сильное SEO-подразделение. Однако DrMax ему парировал тем, что в продвижении указанных ресурсов все решают их огромные бюджеты на серое SEO.

Говоря конкретно о факторах захвата поисковой выдачи сайтом bestchange.ru, участники вебинара высказали такие предположения:

  • Большое количество естественных ссылок на сайт. На bestchange.ru ссылаются многие сервисы и ресурсы в сети;
  • Огромное количество ежедневного органического трафика;
  • Очень много отзывов на каждый из обменников, представленных на агрегаторе;
  • Ближайшие конкуренты проигрывают сайту по всем параметрам, причем с большим отрывом.

В целом ребята сошлись во мнении, что занятие сразу семи строк выдачи — это глюк Google. Менеджмент компании неоднократно заявлял, что борьба с монополизмом в интернете — это одна из их приоритетных задач.

Как вернуть трафик из Google. Рекомендации DrMax

«Сразу после падения трафика не нужно ничего делать и никуда бежать. Необходимо подождать некоторое время. Вполне вероятно, что он сам восстановится», — дал первую рекомендацию спикер вебинара.

Если трафик продолжает падать или не восстанавливается длительное время, первое, что нужно сделать — это собрать данные. Алгоритм описан на скриншоте ниже.

Данные должны быть отсортированы по пользователю в порядке уменьшения трафика. Затем их необходимо экспортировать в Excel-таблицу. Этих данных уже достаточно, чтобы предварительно понять, какие страницы упали и по каким показателям.

Данные в Excel-таблице отображаются в столбике, что неудобно для их анализа.

DrMax порекомендовал растянуть данные построчно и добавить три новых столбца. Они выделены красным шрифтом на скриншоте ниже.

Далее все данные загоняются в «лягушку», где происходит их сравнение по заданным параметрам. Также Screaming Frog позволяет привязать много аналитических данных к заранее спаренному сайту, связывая по столбцу каждую страницу, и провести таким образом анализ.

«Лягушка» или Screaming Frog SEO Spider — десктопная программа для сканирования сайта, инструмент, необходимый при проведении технического аудита. Ключевые функции программы: поиск битых страниц и страниц с редиректами.

Алгоритм анализа сайта следующий:

1. Разбиваем по структуре блог, магазин, разделы сайта и так далее;

2. Разделяем страницы на:

  • Упавшие топ-100 антирейтинга;
  • Другие упавшие;
  • Без изменения. Тут имеется в виду, что изменения не составили более 5% от начала выбранного периода;
  • Выросшие;
  • Выросшие топ-100 рейтинга.

3. Парсим данные, используя Screaming Frog SEO Spider;

Самые высокие ставки по RU, BY, KZ от прямого рекламодателя FONBET PARTNERS! К заливам!

4. Связываем страницы с данными, используя =ВПР();

5. Рассчитываем средние показатели по всем группам.

Также в таблице нужно обращать внимание на дублированные страницы.

Пример проблемных дублей страниц
Информация, которая есть на сайте — это не всегда то, что видит Google. Схематично это выглядит таким образом.

Соответственно, данные, собранные «лягушкой», скорее всего будут совпадать с данными сайта и не будут совпадать с тем, что видит Google.

На слайде ниже пример сайта, который упал исключительно из-за дублирования AMP-страниц.

AMP-страницы — это формат веб-страниц, которые быстро загружаются и удобны для просмотра на мобильных устройствах.

В данном примере показан такой парадокс: Google вначале проиндексировал обе страницы, дал на них трафик, а потом забрал его.

«То, каким Google видит ваш сайт, не совпадает с тем, какой он есть на самом деле», — заключил DrMax.

Настройка «лягушки»
Данные Screaming Frog SEO Spider, равно как и любого другого софта, не могут быть достоверны на 100%. Данное утверждение подтверждается примером с дублями страниц, о котором рассказано выше. Чтобы получить максимально точные данные, DrMax рекомендует настраивать парсер так, как это указано ниже.

Расчет и анализ средних значений
Расчет производится с использованием Excel-формул «СЧЕТЕСЛИМН», которая позволяет проверить два разных значения, и «СУМЕСЛИ».

В результате будут получены данные в таком виде, как на скриншоте ниже. Они позволяют проанализировать страницы в цифрах, максимально приближенных к тому, как видит их Google.

Просканированные Google-страницы имеют четкую структуру. Например, наличие заголовков H2 говорит о том, что страница попала в индекс. Если такого заголовка у страницы нет, то, соответственно, она не проиндексирована.

Отдельные значения можно рассчитать для каждой категории страниц из раздела, посвященного анализу данных. Другие упавшие, без изменения и так далее.

Полученная таблица позволяет узнать причину падения страниц. Например, из-за багов с генератором заголовки могли зайти криво, либо возникли проблемы с description и так далее.

По количеству слов (см. скриншот ниже) можно найти ненужные, например, теговые страницы, на которых совсем нет контента, но они находятся в индексе. К таким страницам относятся, например, подтверждение регистрации на сайте, которой совершенно не место в индексе, и тому подобные. При первичном анализе таких страниц можно найти несколько десятков, а то и сотен, в зависимости от размера сайта. Все найденные теговые страницы нужно уплотнить, а ненужные удалить.

«Описанным образом мы можем проанализировать, чем отличаются упавшие страницы от выросших, а самое главное, найти и локализовать проблему падения трафика», — заключил спикер вебинара.

Установив причины падения трафика, необходимо продумать варианты их устранения. Возможно, это будет:

  • Переписывание заголовков;
  • Изменение или дополнение контента. Например, разбивка его на подразделы;
  • Перестроение ссылочного профиля;
  • Решение проблемы с отрисовкой страниц и так далее.

Фишки Screaming Frog SEO Spider
Часто бывает, что «лягушка» очень медленно парсит страницы. Это связано с объемом памяти и мощностью компьютера пользователя. DrMax порекомендовал отключить сбор «link position», чтобы ускорить обработку данных.

Установить местонахождение нужной, например, битой ссылки можно вручную, для чего нужно:

  1. Перейти в просмотр кода страницы, нажав сочетание клавиш Ctr + I;
  2. Скопировать код в среднем столбце;
  3. Вставить в окно «link patch», и сервис визуально отобразит, где находится искомая ссылка.

Также для увеличения скорости парсинга страниц в софте нужно отключить сканирование картинки, CSS, JavaScript и SWF.

Голосуй за лучшую арбитражную команду 2024. Престижная премия MAC AWARDS: твой голос может стать решающим

Ответы на вопросы
В завершении вебинара SEOшники резюмировали суть методики DrMax по выявлению упавших страниц, а также ответили на многочисленные вопросы слушателей.

Способ выявления страниц с упавшим трафиком заключается в следующем:

  1. Разбить все страницы сайта на упавшие, выросшие и оставшиеся без изменений;
  2. Собрать данные по страницам, используя специализированный софт;
  3. Проанализировать в таблице, чем отличаются упавшие страницы от выросших и оставшихся без изменений;
  4. Проверить построенную гипотезу непосредственно на сайте.

Как закрыть пользовательский контент от индексации?

Сейчас пользовательский контент приравнивается к основному. Соответственно, требования, предъявляемые к любому контенту сайта, одинаковы. Рекомендую не пытаться скрыть контент, а тщательнее модерировать его, если он действительно нужен на сайте.

Можно ли продвинуть сайт, сделанный на конструкторе?

Я не занимаюсь продвижением таких сайтов, но в целом почему нет? Если конструктор генерирует более или менее валидный код, а также при условии размещения качественного контента на сайте, его вполне успешно можно продвинуть.

Как правильно удалить мусорные страницы?

Просто взять и удалить. Главное поставить ответ 410-м редиректом. Еще нужно не забыть зачистить все ссылки на этих мусорных страницах.

Как выводить в топ одностраничные лендинги?

Нужно ориентироваться только на низкочастотные запросы, публиковать качественный контент и работать над ссылочным. В такой связке одностраничники вполне могут конкурировать с большими сайтами.

Как бороться со статусом «просканировано, но не проиндексировано» в Search Console?

Нужно действовать по той же методике, о которой я говорил сегодня. Отсортировать и вывести в таблицу страницы со статусами «просканировано, но не проиндексировано» и «просканировано и в индексе». Затем сравнить коренные отличия первой и второй группы. Это могут быть и отличия в написании title или description. Еще причина может быть в том, что такие страницы не «mobile friendy» и так далее. После этого нужно продумать план действий, как страницы первой группы перевести во вторую.

Через какое время Google учитывает изменения, внесенные на сайте?

Говорить о том, что какие-то изменения повлияли или не повлияли на сайт, можно только после 2-3 обновлений ядра алгоритмов Google. Как правило, это занимает от 3 до 6 месяцев.

Как улучшить скорость загрузки контента страниц?

Много факторов влияет на это. Часто помогает:

  • Смена хостинга;
  • Правильная настройка кэширования на домене и хостинге;
  • Удаление ненужного контента на странице.

В целом нужно смотреть конкретный сайт, чтобы сказать более точно.

Также хочу добавить: влияние этого фактора настолько ничтожно, что проще купить пару хороших ссылок на эту страницу, и все проблемы будут решены.

Как перенести сайт с домена на домен без фильтров Google?

Никак не сделаешь. Фильтры все равно перенесутся.

Можно ли ради склейки параметров сделать сразу переезд двух или трех доменов?

По рекомендациям Google ждать переезд каждого домена необходимо 180 дней. Я бы не советовал переносить их все сразу, лучше с интервалом хотя бы в месяц. В течение этого срока можно понять, как переезд повлиял на позиции сайта.

Откровенно говоря, я уже давно ничего не приклеиваю, так как существуют большие риски, что сайт упадет. Гораздо более прогнозируемый результат дает покупка качественных ссылок. У меня на продвижении находятся сайты с оборотом в несколько десятков миллионов рублей в год. Если такой сайт упадет хотя бы на одну позицию, то потери будут колоссальные. Как мне потом объяснить владельцам потерю ими денег из-за того, что я приклеил на их сайт какую-то фигню?

Как правильно перенести сайт с домена на домен?

С домена, с которого вы переезжаете, нужно настроить постраничный 301 редирект на страницы нового домена. Таким образом необходимо перенести все страницы, кроме sitemaps. Это максимально быстрый и надежный способ переклейки старого домена на новый.

Sitemaps — XML-файлы с информацией для поисковых систем о страницах веб-сайта, которые подлежат индексации.

Подписывайтесь на наш Telegram-канал, чтобы первыми узнавать новости и инсайды из мира SEO, нейросетей и IT!

Кто получит престижную премию в области CPA и онлайн-маркетинга? Решаешь только ты. Премия MAC AWARDS: голосуй за лучших.
Как вам статья?
#seo #продвижение сайтов #апдейт Google #падение трафика сайта
ПОЛУЧИТЬ АКТУАЛЬНУЮ ПОДБОРКУ КЕЙСОВ

Прямо сейчас бесплатно отправим подборку обучающих кейсов с прибылью от 14 730 до 536 900 ₽.


Топовая партнерка 1xSlots