Статья написана в пользовательском блоге — редакция Партнеркина не вносит изменения в текст. Вся орфография, пунктуация и содержание сохранены Подробнее про пользовательские блоги и о том, как зарабатывать до 3 000 ₽ за статью 😎
16 марта 2023 0 1152

Структура сайта для SEO. Доклад Дмитрия Лебедева с конференции «SEO без воды 6»

На онлайн-конференции «SEO без воды 6» был доклад Дмитрия Лебедева, руководителя отдела поискового продвижения «KINETICA». Дмитрий специализируется на федеральных e-commerce-проектах. 

Вы узнаете о том, какая структура сайта нужна для оптимизации продвижения, а также сможете изучить кейс Дмитрия по улучшению посещаемости сайта после изменения его структуры или некоторых элементов. 

Что такое структура сайта?

Структура сайта — иерархия документов, выстроенная по логической схеме, показывающая их принадлежность к тем или иным папкам и каталогам. 

Правильная архитектура — это:

  • Мотор для индексации страниц;
  • Нулевой бюджет в будущем на техническую оптимизацию.

Чем лучше выстроена архитектура, тем быстрее и проще вы продвигаетесь в топ и реже встречаетесь с 404 ошибкой, 301 редиректом и дублем страниц. 

Создание структуры происходит в три этапа:

  1. Анализ ниши. Вам нужно узнать, как и что ищет ваша целевая аудитория, то есть собрать семантику, затем кластеризовать запросы и проанализировать конкурентов;
  2. Составление ТЗ. Нужно выстроить иерархию документов, сделать семантическое проектирование, а также проектирование макетов и контента; 
  3. Внедрение. Нужно создать посадочные страницы, убедиться, что нет дублей, сделать перелинковку, наполнить теги. 

Это стандартный порядок действий для построения структуры сайта. 

В интернете очень много чек-листов, которые рассказывают, как сделать структуру правильно. Но в большинстве из них важным пунктам, о которых расскажет Дмитрий, уделяют мало внимания. 

В VIP-клубе «SEO без воды» проходят мастермайнды, на которых участники клуба могут задать свой вопрос Андрею Буйлову и другим SEO-экспертам или просто пообщаться с коллегами. Запись и текстовая выжимка таких брейнштормов хранится на канале месяц, после чего автоматически удаляется.

Какие проблемы часто встречаются из-за неправильной проработки структуры

Из-за неправильной проработки структуры многие владельцы сайтов встречаются с рядом проблем. Причем они бывают и у крупных, и у небольших порталов. 

ЧПУ-фильтры

В разных чек-листах советуют не делить ЧПУ или добавлять в ЧПУ основной ключ, но есть еще один вариант использования ЧПУ, который повысит сайт в выдаче. 

Иногда SEO-специалисты создают дополнительные страницы для расширения запросного индекса. 

Такие страницы выглядят на сайте как теги и они почти всегда дают положительный эффект. Но у таких страниц есть несколько проблем:

  • Не индексируются;
  • Вылетают из индекса;
  • Не ранжируются. 

На скриншоте статистика сайта, у которого не проиндексировало 15 000 страниц, и большая часть — это именно теговые страницы:

Одна из причин — система фильтрации на сайте. 

Когда SEO-специалист делает теги, он предполагает, что делает идеальную страницу для пользователей, но карта кликов отображает совершенно другую картину:

Здесь видно, что пользователей не интересуют теговые страницы, зато они часто нажимают на блок фильтрации. Получается, что интент запроса фильтра пересекается с интентом запроса теговой страницы. Из-за того, что интент один, а страницы разные, внутренний трафик распределяется по странице фильтрации, которая, как правило, не индексируется. Свой же трафик вы отдаете страницам, скрытым от поисковых систем. 

Чтобы решить эту проблему, нужно настроить ЧПУ-фильтры. Настраивая их, вы создаете посадочную страницу, которую можно редактировать и продвигать. Можно объединить URL ЧПУ-фильтра и тегов или настроить редирект. Главное, чтобы в итоге пользователь попал на один URL. Если следовать этому совету, то заметите вечный прирост трафика. 

На скриншоте пример магазина, на сайте которого были введены ЧПУ URL:

Здесь используется два уровня фильтрации. Такое редко применяется,потому что комбинации фильтра генерируют тысячи полноценных страниц, которые попадают потом в индекс. Но так как все фильтры на этом сайте имеют базовую оптимизацию и ручную обработку, такой проблемы нет. 

При ручной обработке можно создать блоки, которые будут 100% давать трафик. Например, для строительного магазина в разделе красок можно сделать блоки по цвету и типу. Это позволит получать трафик по запросам «купить белую краску» (блок по цвету), «купить краску по металлу» (блок по типу), «купить белую краску по металлу» (пересечение блоков) и так далее. Но не забывайте контролировать генерацию. Если в индекс залетает малоценная страница, нужно закрывать блоки или отдельные страницы от индекса. 

Сквозное меню: кейс и антикейс

У SEO-специалистов возникает борьба за текстовую оптимизацию, многие пытаются вытягивать структуру за счет каждого дополнительного вхождения. У Дмитрия есть два примера, когда это и помогает, и негативно влияет на продвижение сайтов. 

Кейс 1. Промышленное оборудование для ресторанов

Дано. У сайта 1 340 категорий и подкатегорий сквозного меню. Каждая страница, попадая на текстовый анализ, добавляет себе 1 340 категорий и подкатегорий сайта, что дает более 4 000 символов одинакового текста.  

Получается, что каждая текстовая страница сайта из категории похожа на любую другую страницу, то есть 90% контента дублируется. 

Что сделали. Закрыли меню от индексации, сделали подгрузку меню через JS. Все разделы, кроме того, на котором находится пользователь, подгружаются динамически и не отображаются для ПС. 

Что это дало. Повысилась уникальность каждой отдельной категории. Выросла релевантность. Количество кликов и показов по запросам выросло на 59% в течение первого месяца. 

Кейс 2. Биодобавки

Дано. У проекта есть скрытое меню, но есть и проблема — по неконкурентным запросам сайт находился на 9-10 позиции.  

После проведения аналитики стало понятно, что у сайта нет внешней ссылочной массы, а рассматриваемые страницы не получают достаточно внутреннего веса. 

Что сделали. Открыли сквозное меню для индексации и убрали переспам вхождений в меню. Теперь на каждый товарный листинг было по 1 000+ внутренних ссылок. После этого позиции пошли вверх. 

Оба кейса показывают, что не стоит бездумно копировать методики конкурентов. Нужно провести аналитику конкретного сайта, так как факторы, по которым продвигаются конкуренты, могут вам не подходить. 

SILO или плоская структура

Идеальной структуры не существует, так как ее видение у разных ПС отличается. Например, Google любит вложенность и отдельное скопление тематически связанных страниц. Yandex любит плоскую структуру с минимальной вложенностью. 

В самом начале мы рассказывали про три шага, которые важны для построения грамотной структуры. К ним добавляется четвертый — определение приоритета ПС. Вам нужно понять, с какой поисковой системы вы получаете больше трафика и ориентироваться на нее. Для этого можно воспользоваться сервисом keys.so и посмотреть конкурентов, изучив количество трафика с поиска, позиции и так далее. 

Трафик с Google:

Трафик с Yandex:

По анализируемому сайту идет явный перекос в сторону Yandex. Также надо проверить еще несколько конкурентов, но не менее 5. 

Структура под Google 

Для Google используется вложенная структура, основанная на семантических связях. 

Термин Silo общий и предполагает жесткую тематическую иерархию, наличие материнских и дочерних страниц. В семантическом коконе используются только семантически связанные страницы по одной теме. Такие страницы изолированы в пределах сайта. 

Лучше изолирован кластер → больше охватывает запросы → лучше ранжируется. Выглядит это примерно так:

Чтобы увидеть более полную картину, нужна программа, которая построит ссылочный граф. Например, подойдет Gephi:

Программа показывает все ссылочные связи каждой отдельной страницы. Вы сможете увидеть, где семантический кокон изолирован. 

Для любого типа сайтов делаются посадочные страницы по спросу. Если нет спроса, заводить страницу не нужно. 

Структура под Yandex

Яндекс работает противоположно Google и любит наименьшую вложенность. Это подтверждают и недавние сливы факторов этой поисковой системы. Также Яндекс оценивает:

  • Глубину сканирования;
  • Ключевые слова в URL;
  • Количество слешей в URL.

Например, чем меньше кликов нужно сделать пользователю, чтобы попасть на основную страницу, тем лучше и удобнее. А значит, страница эффективнее ранжируется. 

Можно найти достаточно много крупных e-commerce-проектов с плоской структурой. Например, аптеки:

На скриншоте видно, что пользователю достаточно трех кликов, чтобы добраться до нужной страницы.

Товары для дома:

Несмотря на такую вложенность, важен внутренний ссылочный вес. Один из негативных факторов для Яндекса — Orphan pages. Это страницы, которые не ссылаются на другие страницы того же сайта, или на них не имеется доступа у Yandex.

Чтобы найти такие страницы, можно воспользоваться программой Log file analyser. Она скрестит страницы, которые нашел краулер и те, что знает ПС.

В итоге вы получите:

  • Список страниц, о которых знает поисковая система. Тут могут быть удаленные страницы, скрипты, редиректы и так далее;
  • Список страниц, о которых знает только краулер. Тут будут страницы, на которые поисковая система не попадала. 

Чтобы исправить проблемы, нужно навести порядок в структуре сайта и внутренней перелинковке. 

Итог

Работа со структурой важна для ранжирования сайта и поможет вам продвинуться выше в выдаче. Для Gooogle нужна вложенная и изолированная структура, а для Yandex — плоская. Также не забывайте про ЧПУ-фильтры и важность сквозного меню. 

Подписывайтесь на Telegram-канал «SEO без воды», следите за новостями, кейсами и другой полезной информацией из ниши SEO.

Как вам статья?

Топовая партнерка 1xSlots