Статья написана в корпоративном блоге — редакция Партнеркина не вносит изменения в текст. Вся орфография, пунктуация и содержание сохранены Подробнее про платные блоги и о том, как эффективнее работать с блогами 😎
19 июня 2018 3 4629

Летим вниз по поисковой выдаче. Горе-оптимизация

Пока одни намеренно пессимизируют сайт конкурентов, другие благополучно роют себе яму сами.

Почему хотелось как лучше, а получилось как всегда?

Разбираем ошибки горе-оптимизаторов:

 

  • Качество контента оставляет желать лучшего

Во-первых ваш контент может быть откровенным копипастом, что вообще наказуемо законом. Во-вторых оценивается релевантность содержания страницы запросу. И, конечно, нельзя забывать про один из самых главных критериев для краулеров - востребованность контента у пользователей.

Примерная формула годного контента: оригинальный текст без воды + несколько картинок/видео

 

  • Вы перемудрили с ключевыми словами

Перенасыщение страницы ключевыми словами давно уже моветон в SEO. И если вам получится обмануть пользователей, заполнив страницу подобным “невидимым” текстом, то вот поисковых роботов вы уже не проведете и, как следствие, схлопочите бан.

 

  • Подозрительные ссылки

Краулеры обязательно заметят, если в одночасье на просторах интернета появится много ссылока на ваш ресурс. Особенно если ссылки расположены на монительных и нерелевантных сайтов.

Внимание стоит обратить и на качество и количество внешних ссылок. В противном случае - опять-таки - пессимизация.

 

  • Слишком много рекламы. Даже для интернета.

Монетизация дело вполне похвальное. Однако стоит помнить, что если на главное странице рекламой заполнено больше 30% - это прямой путь в бан. Не так давно Яндекс и Google составили свои списки “нежелательных” форматов. Здесь можно ознакомиться подробнее.

 

  • Упала скорость загрузки

Немаловажный фактор - скорость работы сайтов. Негативно на нее может повлиять как вес страницы как таковой из-за наличия тяжелых файлов, так и снижение работы хостинга из-за перегрузки.

 

  • Некорректное содержание файла robots.txt

Файл robots.txt не только сообщает краулерам, к каким страницам они могут плучить доступ, но и повышает производительность сайта. А вот некорректные настройки или их полное отсутствие могут привести к ошибкам при индексации сайта. Что, в свою очередь, негативно сказывается на поисковой выдаче.

 


Если вам кажется, что вся эта история с читерским SEO не про вас, а сайт все равно упал в выдаче - обратитесь в техподдержку поисковой системы. После исправления недочетов санкции с сайта снимут (но это не точно).

Как вам статья?
Партнеркин рекомендует
Партнерки
1win Partners
Топовая беттинг и гемблинг партнерка
TRAFORCE
Дейтинговая СPA-сеть
Affiliate Top
Надежная партнерка по бинарным опционам
Сервисы
Dolphin{anty}
Лучший антидетект браузер
PARTNERKIN
20%
FlexСard
Виртуальные карты для арбитража трафика
PARTNERKIN
Карты free
AdPlexity
Мониторинг мобильной, десктоп и нативной рекламы
partnerkin_m
25%

seoonly.ru Ответить
сайтмепа часто не бывает или старая...
19 июня 2018, 19:41 0
Это да. Большинство пользователей даже не знают, что бывают карты сайта. Но вот поисковые машины всё-таки обращают на это внимание
20 июня 2018, 17:28 0
А еще информация теряет со временем ценность. Новостные сайты и так далее.. Надо постоянно обновлять
17 июля 2018, 16:58 0

Trust RDP: аренда FB-акков