ТОП-10 всераспространенных ошибок в SEO по данным Rookee

Этот ТОП составлен на базе обобщенных данных юзеров rookee.ru и будет в особенности полезен всем, кто занимается продвижением веб-сайта не так давно. Добавляйте его в закладки, чтоб инспектировать собственный ресурс, как по чек-листу.

Внутренний метод Rookee безвозмездно анализирует веб-сайты по 19 характеристикам. Посреди анализируемых характеристик:

  • главные характеристики: тема, ИКС, количество страничек в индексе Yandex’а и Гугл; 
  • регистрационная информация: возраст домена и дата его продления; 
  • техно информация: обработка статуса 404, настройка зеркал; 
  • файлы robots.txt и sitemap.xml; 
  • внутренние ссылки; 
  • сайты-аффилиаты; 
  • адаптация под мобильный трафик.

Мы исследовали обобщенные данные этого бесплатного анализа за прошедшие полгода и нашли, что у 85% веб-сайтов встречается хотя бы одна из заморочек ниже:

Открытые для индексации зеркала веб-сайта

Фаворит посреди ошибок – зеркала веб-сайта. Под зеркалами соображают дубли веб-сайта, которые имеют различные адреса, но однообразный контент. Зеркала создаются по различным причинам: бронирование подходящих доменов, необходимость продвижения в остальных странах, проведение маркетинговых кампаний (к примеру, любой канал ведет на отдельный лендинг). Но есть одно обычное правило: в индексе обязано быть лишь основное зеркало. Если проверка показала наличие зеркал, их необходимо удалить либо закрыть от индексации.

Чем небезопасно. Так как в поисковой машине будет сходу несколько зеркал, непонятно, какое из их проиндексируется первым. Другие будут расценены поисковой машиной как дубли, что автоматом снизит веб-сайт в выдаче.

Отсутствие либо некорректность наполнения sitemap.xml

Sitemap.xml, либо карта веб-сайта – особый файл, который содержит в себе все странички веб-сайта. Карта веб-сайта создается для удобства поискового бота, чтоб он не пропустил ни одной принципиальной странички при сканировании. Чем корректнее и полнее этот файл, тем резвее проходит индексация веб-сайта. Sitemap можно сопоставить с оглавлением книжки: сходу понятно, что и где глядеть. Если на веб-сайт добавлены новейшие разделы либо странички, их нужно сходу занести в sitemap.xml либо настроить автоматическую генерацию карты веб-сайта.

Чем небезопасно. Полное отсутствие либо ошибки в sitemap.xml затрудняют работу поисковых ботов. Из-за этого некие странички могут быть не проиндексированы, как следует, не попадут в поиск.

Отсутствие либо неуникальность метатегов title и description

Title и description – повелители метатегов. Конкретно с их юзер начинает знакомство с веб-сайтом. Title – заглавие мотивированной странички, оно отображается в заголовке браузера и в поисковой выдаче. Description – короткое описание странички, на веб-сайте его не видно, но юзер может прочитать его под title в поисковике. Все мотивированные странички в выдаче обязаны иметь заполненные и неповторимые метатеги title и description. Если их нет, пустые места принципиально заполнить, а дубли – уникализировать.

Чем небезопасно. Поисковики не терпят пустоты. Если боты не отыщут title и description, они могут подтянуть в заголовок текст из иной части странички. Не считая того, отсутствие метатегов влияет на оценку свойства странички.

Неправильная обработка ошибки 404

Если юзер перебегает по неработающей ссылке либо вводит бессмыслицу в URL, он должен узреть на дисплее надпись «Ошибка 404: Данная страничка не существует» – обычный ответ сервера на отсутствующую страничку. На практике нередко бывает, что несуществующие странички отдают боту ответ обычной странички – «200 ОК», либо показывают контент, находящийся уровнем выше, к примеру, страничку категорий. Такового быть не обязано. Не считая того, на страничке с кодом 404 необходимы ссылки на главную страничку, карту веб-сайта и нужные контактные данные (к примеру почту, телефон для связи), чтоб юзер мог продолжить путешествие по веб-сайту.

Чем небезопасно. Огромным количеством 404-х страничек недовольны и боты, и юзеры. Гость, который не может стремительно отыскать страничку либо перейти на главную, разочаруется и больше не придет. Поисковые боты воспринимают огромное количество ошибок как показатель плохого веб-сайта и могут снизить ресурс в выдаче.

Низкая скорость загрузки веб-сайта

Неплохой веб-сайт – резвый веб-сайт. Его странички стремительно грузятся, пока юзер не успеет моргнуть глазом. Если ползунок на веб-сайте вертится несколько секунд, это неувязка. Предпосылкой этого могут быть тяжеловесные изображения на веб-сайте, посторонние скрипты, дешевенький тариф на хостинге и огромное количество остальных моментов, которые нужно учесть. Чтоб повысить скорость загрузки странички, принципиально убрать причину тормозов. к примеру, сжать рисунки либо перейти на новейший тариф.

Чем небезопасно. Низкая скорость загрузки страничек влияет и на индексацию, и на поведение юзеров. Если бот длительно получает контент с веб-сайта, он успевает регистрировать меньше страничек за один сеанс. А про юзеров и гласить нечего – в мире не много терпеливых, которые готовы ожидать загрузки странички больше 3-х секунд.

Ошибки robots.txt

Когда поисковый бот приходит на веб-сайт, он должен осознать, какие разделы ему необходимо проиндексировать, а какие обойти стороной. Эта информация прописана в файле robots.txt. Форма наполнения этого файла обычная для всех веб-сайтов. Основная директива User-agent отражает область распространения правила на поисковых роботов Yandex’а, Гугл и остальных поисковых машин. Не считая того, в файле robots.txt обязана быть ссылка на файл на sitemap – путь к файлу с xml-картой.

Чем небезопасно. Файл robots.txt – это конституция для поисковых роботов. Если его нет, бот может творить все, что желает. А больше всего он хочет проиндексировать то, что не надо регистрировать для вас: зеркала, корзину, системные сборники, странички фильтрации, поисковые результаты и др.

Низкая релевантность страничек

Релевантность – это соответствие странички запросам юзеров в поисковых системах. Высочайшая релевантность гарантирует, что страничка будет в топе выдачи поисковых машин. На техническом уровне релевантность рассчитывается как соотношение главных слов и фраз к определенному запросу. Все странички в продвижении обязаны иметь высшую релевантность по отношению к главным словам, по другому их просто будет не видно в поиске. Повысить релевантность можно за счет внутренней (главные слова, метатеги) и наружной (ссылочная масса) оптимизации, юзабилити и наличия нужных конверсионных частей на страничке.

Чем небезопасно. Низкая релевантность значит, что страничка не находится в топе выдачи по запросу. В итоге вся работа по технической оптимизации идет насмарку.

«Тошнотные» тексты

Текст на страничках веб-сайта должен быть неповторимым и с низким уровнем «тошнотности». Если с уникальностью издавна разобрались, то с тошнотой (Тошнотa — тягостное ощущение в подложечной области и глотке, нередко предшествует рвоте) труднее. Тошнота (тягостное ощущение в подложечной области и глотке) – частота использования слова в тексте. Несколько годов назад числилось: чем больше главных слов в тексте, тем веб-сайт выше в поисковой выдаче. Почти все поменялось опосля введения особых алгоритмов ранжирования. Поисковики научились наказывать за переоптимизированные странички, написанные для ботов. На данный момент переспам текстов – большая неувязка для оптимизаторов.

Чем небезопасно. Чем выше показатель тошноты текста, тем ужаснее для ранжирования. Самое нехорошее, что может случиться – веб-сайт попадет под фильтры поисковых машин либо опустится в выдаче. Пишите для людей, а не ботов.

Ошибки перелинковки

Перелинковка, либо обмен ссылками – принципиальный механизм увеличения веб-сайта в поисковой выдаче. Но всему есть предел. Очень много ссылок дают оборотный эффект. Обычно на одной страничке не обязано быть больше 400 внутренних и 1000 наружных ссылок. А еще на страничке могут находиться битые и редиректные ссылки. И первых, и вторых обязано быть как можно меньше.

Чем небезопасно. Некорректная перелинковка угрожает переоптимизацией, а битые и редиректные ссылки затрудняют индексацию страничек и негативно сказываются на лояльности юзеров. Как следствие – снижение позиций в выдаче.

Индексируемые дубли страничек

По аналогии с зеркалами веб-сайта случается, что в поиск попадают странички, которые дублируют контент друг дружку. Так бывает, когда в файле robots.txt пропущены аннотации для поисковых ботов. Тогда бот регистрирует странички, которые не необходимы в выдаче: фильтры продуктов, странички поиска либо пагинации, которые дублируют контент разводящей. Почаще всего неувязка решается корректной настройкой robots.txt либо атрибутом rel=canonical.

Чем небезопасно. По аналогии с зеркалами, дубли страничек вредят продвижению – веб-сайт снижается в поисковых результатах

Заключение

Эти 10 недоработок составляют 90% от всех отысканных ошибок. Тоже встречаются, но не попали в топ: ошибки в заголовках, наличие мотивированных страничек без скриптов сбора статистики, отсутствие настроенных целей в Yandex.Метрике, огромное количество мотивированных страничек с отказами, индексируемые поддомены.

Если вы отыскали эти ошибки у себя, означает пора провести аудит, чтоб убедиться, что у веб-сайта нет остальных заморочек, о которых для вас непонятно, а опосля приступить к технической оптимизации и улучшению собственного ресурса.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *