ТОП-10 всераспространенных ошибок в SEO по данным Rookee
Этот ТОП составлен на базе обобщенных данных юзеров rookee.ru и будет в особенности полезен всем, кто занимается продвижением веб-сайта не так давно. Добавляйте его в закладки, чтоб инспектировать собственный ресурс, как по чек-листу.
Внутренний метод Rookee безвозмездно анализирует веб-сайты по 19 характеристикам. Посреди анализируемых характеристик:
- главные характеристики: тема, ИКС, количество страничек в индексе Yandex’а и Гугл;
- регистрационная информация: возраст домена и дата его продления;
- техно информация: обработка статуса 404, настройка зеркал;
- файлы robots.txt и sitemap.xml;
- внутренние ссылки;
- сайты-аффилиаты;
- адаптация под мобильный трафик.
Мы исследовали обобщенные данные этого бесплатного анализа за прошедшие полгода и нашли, что у 85% веб-сайтов встречается хотя бы одна из заморочек ниже:
Открытые для индексации зеркала веб-сайта
Фаворит посреди ошибок – зеркала веб-сайта. Под зеркалами соображают дубли веб-сайта, которые имеют различные адреса, но однообразный контент. Зеркала создаются по различным причинам: бронирование подходящих доменов, необходимость продвижения в остальных странах, проведение маркетинговых кампаний (к примеру, любой канал ведет на отдельный лендинг). Но есть одно обычное правило: в индексе обязано быть лишь основное зеркало. Если проверка показала наличие зеркал, их необходимо удалить либо закрыть от индексации.
Чем небезопасно. Так как в поисковой машине будет сходу несколько зеркал, непонятно, какое из их проиндексируется первым. Другие будут расценены поисковой машиной как дубли, что автоматом снизит веб-сайт в выдаче.
Отсутствие либо некорректность наполнения sitemap.xml
Sitemap.xml, либо карта веб-сайта – особый файл, который содержит в себе все странички веб-сайта. Карта веб-сайта создается для удобства поискового бота, чтоб он не пропустил ни одной принципиальной странички при сканировании. Чем корректнее и полнее этот файл, тем резвее проходит индексация веб-сайта. Sitemap можно сопоставить с оглавлением книжки: сходу понятно, что и где глядеть. Если на веб-сайт добавлены новейшие разделы либо странички, их нужно сходу занести в sitemap.xml либо настроить автоматическую генерацию карты веб-сайта.
Чем небезопасно. Полное отсутствие либо ошибки в sitemap.xml затрудняют работу поисковых ботов. Из-за этого некие странички могут быть не проиндексированы, как следует, не попадут в поиск.
Отсутствие либо неуникальность метатегов title и description
Title и description – повелители метатегов. Конкретно с их юзер начинает знакомство с веб-сайтом. Title – заглавие мотивированной странички, оно отображается в заголовке браузера и в поисковой выдаче. Description – короткое описание странички, на веб-сайте его не видно, но юзер может прочитать его под title в поисковике. Все мотивированные странички в выдаче обязаны иметь заполненные и неповторимые метатеги title и description. Если их нет, пустые места принципиально заполнить, а дубли – уникализировать.
Чем небезопасно. Поисковики не терпят пустоты. Если боты не отыщут title и description, они могут подтянуть в заголовок текст из иной части странички. Не считая того, отсутствие метатегов влияет на оценку свойства странички.
Неправильная обработка ошибки 404
Если юзер перебегает по неработающей ссылке либо вводит бессмыслицу в URL, он должен узреть на дисплее надпись «Ошибка 404: Данная страничка не существует» – обычный ответ сервера на отсутствующую страничку. На практике нередко бывает, что несуществующие странички отдают боту ответ обычной странички – «200 ОК», либо показывают контент, находящийся уровнем выше, к примеру, страничку категорий. Такового быть не обязано. Не считая того, на страничке с кодом 404 необходимы ссылки на главную страничку, карту веб-сайта и нужные контактные данные (к примеру почту, телефон для связи), чтоб юзер мог продолжить путешествие по веб-сайту.
Чем небезопасно. Огромным количеством 404-х страничек недовольны и боты, и юзеры. Гость, который не может стремительно отыскать страничку либо перейти на главную, разочаруется и больше не придет. Поисковые боты воспринимают огромное количество ошибок как показатель плохого веб-сайта и могут снизить ресурс в выдаче.
Низкая скорость загрузки веб-сайта
Неплохой веб-сайт – резвый веб-сайт. Его странички стремительно грузятся, пока юзер не успеет моргнуть глазом. Если ползунок на веб-сайте вертится несколько секунд, это неувязка. Предпосылкой этого могут быть тяжеловесные изображения на веб-сайте, посторонние скрипты, дешевенький тариф на хостинге и огромное количество остальных моментов, которые нужно учесть. Чтоб повысить скорость загрузки странички, принципиально убрать причину тормозов. к примеру, сжать рисунки либо перейти на новейший тариф.
Чем небезопасно. Низкая скорость загрузки страничек влияет и на индексацию, и на поведение юзеров. Если бот длительно получает контент с веб-сайта, он успевает регистрировать меньше страничек за один сеанс. А про юзеров и гласить нечего – в мире не много терпеливых, которые готовы ожидать загрузки странички больше 3-х секунд.
Ошибки robots.txt
Когда поисковый бот приходит на веб-сайт, он должен осознать, какие разделы ему необходимо проиндексировать, а какие обойти стороной. Эта информация прописана в файле robots.txt. Форма наполнения этого файла обычная для всех веб-сайтов. Основная директива User-agent отражает область распространения правила на поисковых роботов Yandex’а, Гугл и остальных поисковых машин. Не считая того, в файле robots.txt обязана быть ссылка на файл на sitemap – путь к файлу с xml-картой.
Чем небезопасно. Файл robots.txt – это конституция для поисковых роботов. Если его нет, бот может творить все, что желает. А больше всего он хочет проиндексировать то, что не надо регистрировать для вас: зеркала, корзину, системные сборники, странички фильтрации, поисковые результаты и др.
Низкая релевантность страничек
Релевантность – это соответствие странички запросам юзеров в поисковых системах. Высочайшая релевантность гарантирует, что страничка будет в топе выдачи поисковых машин. На техническом уровне релевантность рассчитывается как соотношение главных слов и фраз к определенному запросу. Все странички в продвижении обязаны иметь высшую релевантность по отношению к главным словам, по другому их просто будет не видно в поиске. Повысить релевантность можно за счет внутренней (главные слова, метатеги) и наружной (ссылочная масса) оптимизации, юзабилити и наличия нужных конверсионных частей на страничке.
Чем небезопасно. Низкая релевантность значит, что страничка не находится в топе выдачи по запросу. В итоге вся работа по технической оптимизации идет насмарку.
«Тошнотные» тексты
Текст на страничках веб-сайта должен быть неповторимым и с низким уровнем «тошнотности». Если с уникальностью издавна разобрались, то с тошнотой (Тошнотa — тягостное ощущение в подложечной области и глотке, нередко предшествует рвоте) труднее. Тошнота (тягостное ощущение в подложечной области и глотке) – частота использования слова в тексте. Несколько годов назад числилось: чем больше главных слов в тексте, тем веб-сайт выше в поисковой выдаче. Почти все поменялось опосля введения особых алгоритмов ранжирования. Поисковики научились наказывать за переоптимизированные странички, написанные для ботов. На данный момент переспам текстов – большая неувязка для оптимизаторов.
Чем небезопасно. Чем выше показатель тошноты текста, тем ужаснее для ранжирования. Самое нехорошее, что может случиться – веб-сайт попадет под фильтры поисковых машин либо опустится в выдаче. Пишите для людей, а не ботов.
Ошибки перелинковки
Перелинковка, либо обмен ссылками – принципиальный механизм увеличения веб-сайта в поисковой выдаче. Но всему есть предел. Очень много ссылок дают оборотный эффект. Обычно на одной страничке не обязано быть больше 400 внутренних и 1000 наружных ссылок. А еще на страничке могут находиться битые и редиректные ссылки. И первых, и вторых обязано быть как можно меньше.
Чем небезопасно. Некорректная перелинковка угрожает переоптимизацией, а битые и редиректные ссылки затрудняют индексацию страничек и негативно сказываются на лояльности юзеров. Как следствие – снижение позиций в выдаче.
Индексируемые дубли страничек
По аналогии с зеркалами веб-сайта случается, что в поиск попадают странички, которые дублируют контент друг дружку. Так бывает, когда в файле robots.txt пропущены аннотации для поисковых ботов. Тогда бот регистрирует странички, которые не необходимы в выдаче: фильтры продуктов, странички поиска либо пагинации, которые дублируют контент разводящей. Почаще всего неувязка решается корректной настройкой robots.txt либо атрибутом rel=canonical.
Чем небезопасно. По аналогии с зеркалами, дубли страничек вредят продвижению – веб-сайт снижается в поисковых результатах
Заключение
Эти 10 недоработок составляют 90% от всех отысканных ошибок. Тоже встречаются, но не попали в топ: ошибки в заголовках, наличие мотивированных страничек без скриптов сбора статистики, отсутствие настроенных целей в Yandex.Метрике, огромное количество мотивированных страничек с отказами, индексируемые поддомены.
Если вы отыскали эти ошибки у себя, означает пора провести аудит, чтоб убедиться, что у веб-сайта нет остальных заморочек, о которых для вас непонятно, а опосля приступить к технической оптимизации и улучшению собственного ресурса.