На онлайн-конференции «SEO без воды 6» был доклад Дмитрия Лебедева, руководителя отдела поискового продвижения «KINETICA». Дмитрий специализируется на федеральных e-commerce-проектах.
Вы узнаете о том, какая структура сайта нужна для оптимизации продвижения, а также сможете изучить кейс Дмитрия по улучшению посещаемости сайта после изменения его структуры или некоторых элементов.
Структура сайта — иерархия документов, выстроенная по логической схеме, показывающая их принадлежность к тем или иным папкам и каталогам.
Правильная архитектура — это:
Чем лучше выстроена архитектура, тем быстрее и проще вы продвигаетесь в топ и реже встречаетесь с 404 ошибкой, 301 редиректом и дублем страниц.
Создание структуры происходит в три этапа:
Это стандартный порядок действий для построения структуры сайта.
В интернете очень много чек-листов, которые рассказывают, как сделать структуру правильно. Но в большинстве из них важным пунктам, о которых расскажет Дмитрий, уделяют мало внимания.
В VIP-клубе «SEO без воды» проходят мастермайнды, на которых участники клуба могут задать свой вопрос Андрею Буйлову и другим SEO-экспертам или просто пообщаться с коллегами. Запись и текстовая выжимка таких брейнштормов хранится на канале месяц, после чего автоматически удаляется.
Из-за неправильной проработки структуры многие владельцы сайтов встречаются с рядом проблем. Причем они бывают и у крупных, и у небольших порталов.
В разных чек-листах советуют не делить ЧПУ или добавлять в ЧПУ основной ключ, но есть еще один вариант использования ЧПУ, который повысит сайт в выдаче.
Иногда SEO-специалисты создают дополнительные страницы для расширения запросного индекса.
Такие страницы выглядят на сайте как теги и они почти всегда дают положительный эффект. Но у таких страниц есть несколько проблем:
На скриншоте статистика сайта, у которого не проиндексировало 15 000 страниц, и большая часть — это именно теговые страницы:
Одна из причин — система фильтрации на сайте.
Когда SEO-специалист делает теги, он предполагает, что делает идеальную страницу для пользователей, но карта кликов отображает совершенно другую картину:
Здесь видно, что пользователей не интересуют теговые страницы, зато они часто нажимают на блок фильтрации. Получается, что интент запроса фильтра пересекается с интентом запроса теговой страницы. Из-за того, что интент один, а страницы разные, внутренний трафик распределяется по странице фильтрации, которая, как правило, не индексируется. Свой же трафик вы отдаете страницам, скрытым от поисковых систем.
Чтобы решить эту проблему, нужно настроить ЧПУ-фильтры. Настраивая их, вы создаете посадочную страницу, которую можно редактировать и продвигать. Можно объединить URL ЧПУ-фильтра и тегов или настроить редирект. Главное, чтобы в итоге пользователь попал на один URL. Если следовать этому совету, то заметите вечный прирост трафика.
На скриншоте пример магазина, на сайте которого были введены ЧПУ URL:
Здесь используется два уровня фильтрации. Такое редко применяется,потому что комбинации фильтра генерируют тысячи полноценных страниц, которые попадают потом в индекс. Но так как все фильтры на этом сайте имеют базовую оптимизацию и ручную обработку, такой проблемы нет.
При ручной обработке можно создать блоки, которые будут 100% давать трафик. Например, для строительного магазина в разделе красок можно сделать блоки по цвету и типу. Это позволит получать трафик по запросам «купить белую краску» (блок по цвету), «купить краску по металлу» (блок по типу), «купить белую краску по металлу» (пересечение блоков) и так далее. Но не забывайте контролировать генерацию. Если в индекс залетает малоценная страница, нужно закрывать блоки или отдельные страницы от индекса.
У SEO-специалистов возникает борьба за текстовую оптимизацию, многие пытаются вытягивать структуру за счет каждого дополнительного вхождения. У Дмитрия есть два примера, когда это и помогает, и негативно влияет на продвижение сайтов.
Дано. У сайта 1 340 категорий и подкатегорий сквозного меню. Каждая страница, попадая на текстовый анализ, добавляет себе 1 340 категорий и подкатегорий сайта, что дает более 4 000 символов одинакового текста.
Получается, что каждая текстовая страница сайта из категории похожа на любую другую страницу, то есть 90% контента дублируется.
Что сделали. Закрыли меню от индексации, сделали подгрузку меню через JS. Все разделы, кроме того, на котором находится пользователь, подгружаются динамически и не отображаются для ПС.
Что это дало. Повысилась уникальность каждой отдельной категории. Выросла релевантность. Количество кликов и показов по запросам выросло на 59% в течение первого месяца.
Дано. У проекта есть скрытое меню, но есть и проблема — по неконкурентным запросам сайт находился на 9-10 позиции.
После проведения аналитики стало понятно, что у сайта нет внешней ссылочной массы, а рассматриваемые страницы не получают достаточно внутреннего веса.
Что сделали. Открыли сквозное меню для индексации и убрали переспам вхождений в меню. Теперь на каждый товарный листинг было по 1 000+ внутренних ссылок. После этого позиции пошли вверх.
Оба кейса показывают, что не стоит бездумно копировать методики конкурентов. Нужно провести аналитику конкретного сайта, так как факторы, по которым продвигаются конкуренты, могут вам не подходить.
Идеальной структуры не существует, так как ее видение у разных ПС отличается. Например, Google любит вложенность и отдельное скопление тематически связанных страниц. Yandex любит плоскую структуру с минимальной вложенностью.
В самом начале мы рассказывали про три шага, которые важны для построения грамотной структуры. К ним добавляется четвертый — определение приоритета ПС. Вам нужно понять, с какой поисковой системы вы получаете больше трафика и ориентироваться на нее. Для этого можно воспользоваться сервисом keys.so и посмотреть конкурентов, изучив количество трафика с поиска, позиции и так далее.
Трафик с Google:
Трафик с Yandex:
По анализируемому сайту идет явный перекос в сторону Yandex. Также надо проверить еще несколько конкурентов, но не менее 5.
Для Google используется вложенная структура, основанная на семантических связях.
Термин Silo общий и предполагает жесткую тематическую иерархию, наличие материнских и дочерних страниц. В семантическом коконе используются только семантически связанные страницы по одной теме. Такие страницы изолированы в пределах сайта.
Лучше изолирован кластер → больше охватывает запросы → лучше ранжируется. Выглядит это примерно так:
Чтобы увидеть более полную картину, нужна программа, которая построит ссылочный граф. Например, подойдет Gephi:
Программа показывает все ссылочные связи каждой отдельной страницы. Вы сможете увидеть, где семантический кокон изолирован.
Для любого типа сайтов делаются посадочные страницы по спросу. Если нет спроса, заводить страницу не нужно.
Яндекс работает противоположно Google и любит наименьшую вложенность. Это подтверждают и недавние сливы факторов этой поисковой системы. Также Яндекс оценивает:
Например, чем меньше кликов нужно сделать пользователю, чтобы попасть на основную страницу, тем лучше и удобнее. А значит, страница эффективнее ранжируется.
Можно найти достаточно много крупных e-commerce-проектов с плоской структурой. Например, аптеки:
На скриншоте видно, что пользователю достаточно трех кликов, чтобы добраться до нужной страницы.
Товары для дома:
Несмотря на такую вложенность, важен внутренний ссылочный вес. Один из негативных факторов для Яндекса — Orphan pages. Это страницы, которые не ссылаются на другие страницы того же сайта, или на них не имеется доступа у Yandex.
Чтобы найти такие страницы, можно воспользоваться программой Log file analyser. Она скрестит страницы, которые нашел краулер и те, что знает ПС.
В итоге вы получите:
Чтобы исправить проблемы, нужно навести порядок в структуре сайта и внутренней перелинковке.
Работа со структурой важна для ранжирования сайта и поможет вам продвинуться выше в выдаче. Для Gooogle нужна вложенная и изолированная структура, а для Yandex — плоская. Также не забывайте про ЧПУ-фильтры и важность сквозного меню.
Подписывайтесь на Telegram-канал «SEO без воды», следите за новостями, кейсами и другой полезной информацией из ниши SEO.