Главное Авторские колонки Вакансии Образование
Выбор редакции:
😼
Выбор
редакции
561 1 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Почему падают топовые запросы? Ключевые проблемы + кейсы с решением

Как найти и устранить причины отсутствия или проседания трафика? Рассмотрим 5 основных проблем ранжирования, которые негативно влияют на развитие сайта.
Мнение автора может не совпадать с мнением редакции

Отсутствие трафика — одна из распространенных проблем сайта, даже если он имеет внятную структуру и удобную навигацию. Причин при этом может быть множество: во время аудита мы находим как технические недочеты, так и проблемы с контентом. По итогу получается так, что ресурс плохо индексируется и не выходит на высокие позиции в выдаче.

Проблема 1. Попадание под санкции поисковых систем

Алгоритмы поисковиков формируют объективное представление о качестве той или иной странице на основе пользовательского опыта. И для сайтов «нарушителей» предусмотрен целый ряд ограничивающих мер. Санкции приводят к падению трафика или даже полному исключению из индекса поисковой системы. Позиции при этом ощутимо проседают: потери могут составлять от 20 до 100+ позиций.

Причин попадания под фильтры поисковиков немало:

  • использование скрытого текста;
  • всяческий спам, в том числе ключевыми запросами;
  • размещение неестественных ссылок;
  • низкая уникальность контента;
  • большое количество рекламных баннеров;
  • и другие негативные факторы.

Проверить попадание под фильтры можно через специальные сервисы вебмастеров: Яндекс.Вебмастер или Google Search Console. Также, стоит понимать, что не обо всех причинах пессимизации позиций сайта будет написано в вебмастерах поисковых систем. Для выявления причин проседания, часто оптимизатору приходится использовать весь свой опыт и знания. Но это тема для отдельной статьи.

После выявления причины, следует направить усилия на ее устранение. Например, при переоптимизации придется удалить/изменить контент и ждать, пока фильтр обновится. Но будьте готовы, что это случится не быстро — в зависимости от ситуации проверка и индексация поисковыми роботами может занимать от пары недель до нескольких месяцев.

Кейс: вывод сайта из-под фильтра
Клиент пришел с жалобами на низкие позиции и трафик, при этом, по его словам, с сайтом проводились работы по оптимизации. При первичном анализе ресурса появились подозрения о том, что сайт попал под фильтр Баден-Баден.

Проблема 2. Плохая индексация страниц

Индексация — важнейший процесс, при котором в базу данных поисковой системы добавляется информация о ресурсе. Без него страницы не получат трафик и позиции в выдаче.

Наиболее распространенная причина плохой индексации, которую мы часто находим во время аудита — неправильная настройка robots.txt. Это текстовый файл, в котором хранятся определенные указания для роботов поисковых систем. И зачастую при оптимизации страниц или исправлении недоработок в robots.txt закрывают важные для индексации страницы.

Для обнаружения проблем с индексацией используют те же SEO-инструменты: Яндекс.Вебмастер и Google Search Console. С их помощью можно увидеть, какие именно страницы не индексируются поисковиками. И при проблеме с файлом robots.txt они будут закрыты директивой Disallow, которая выглядит примерно так:

  • User-Agent: Googlebot
  • Disallow: */index.php
  • Disallow: */section.php

Чтобы открыть доступ поисковым роботам к сканированию, достаточно убрать директиву с нужных страниц. После этого трафик по запросам должен увеличиться.

Однако плохая индексация связана не только с файлом robots.txt. Проблемы могут крыться в неправильной настройке noindex и мета-тегов, ошибках сканирования, неполадках хостинга и многом другом. Поэтому в первую очередь нужно найти причину, понять следствие. И по итогу не допускать того, чтобы с индексацией сайта были проблемы.

Кейс: Увеличение небрендового трафика в 6 раз за 7 месяцев

На старте работ ресурс имел довольно скромную посещаемость, несмотря на то, что по бредовым запросам достаточно хорошо ранжировался.

Проблема 3. Технические ошибки

Еще одна причина проседания или отсутствия трафика — технические ошибки, среди которых:

  • дублирование контента;
  • пустые метатеги;
  • низкая скорость загрузки страниц;
  • некорректная настройка редиректов;
  • отсутствие мобильной оптимизации.

Если не исправлять технические ошибки, со временем они накопятся, снизив качество сайта как для пользователей, так и поисковых систем. Поэтому нужно проводить регулярный SEO-аудит и устранять внутренние проблемы.

Помочь могут также специальные сервисы, например — Serpstat. Его инструменты позволяют изучить ресурс на предмет внутренних ошибок. Но исправить их и дать рекомендации по улучшению ресурса сможет только SEO-специалист.

Кейс: как мы увеличили посещаемость сайта из органики более чем в 30 раз!

У сайта на момент запуска отсутствовала мобильная версия. Но мобильный трафик заказчика выше десктопного в 5 раз. Основной идеей быстрого роста позиций сайта и органического трафика в поисковой системе Яндекс, была настройка и кастомизация контентных турбо-страниц мобильной и десктопной версий сайта.

Проблема 4. Давление со стороны конкурентов

Даже хорошо оптимизированный сайт, отвечающий требованиям поисковиков и запросам пользователей, не застрахован от мощных конкурентов. Поэтому SEO-продвижение должно стать постоянным процессом, ведь оппоненты тоже не стоят на месте.

Для эффективной борьбы важно постоянно мониторить конкурентов в выдаче, находя их слабые и сильные стороны. Акцент стоит сделать на следующих моментах:

  • качество контента;
  • структура сайта;
  • количество продукции;
  • источники трафика;
  • удобство использования;
  • ссылочная масса;
  • продающая составляющая, конверсионный путь;
  • техническая оптимизация: скорость загрузки, адаптивность и т.д.

Такой анализ позволит составить или скорректировать стратегию продвижения для понимания того, в каком направлении стоит двигаться бизнесу.

Искать конкурентов для анализа можно вручную или с помощью специальных сервисов, например, того же Serpstat. В первом случае изучают поисковую выдачу, поочередно вводя ключевые запросы и записывая сайты в топе.

Такой способ потребует больших временных затрат, а точность данных зачастую хромает. Поэтому лучше использовать сервисы вебмастеров для быстрого поиска конкурентов и сравнения показателей ранжирования. Основная цель при этом должна быть одна — сделать сайт лучше и удобнее для пользователей.

Кейс: Вывод в топ-10 сайта крупного агрегатора такси по ВЧ запросам

Главной особенностью данной тематики является достаточно высокий уровень конкуренции по всем направлениям — таксопарков в Москве большое количество, и у всех них есть сайты, многие из которых уже прочно обосновались в топ-10.

Проблема 5. Плохая проработка факторов E-A-T

E-A-T означает экспертность, авторитетность, достоверность. Совокупность этих факторов определяет качество контента в Google. Поэтому при падении позиций или отсутствии трафика важно прорабатывать каждый показатель:

  1. Экспертность. Для улучшения показателя придется поработать над контентом: он должен быть уникальным, полезным, отвечать на вопросы пользователей. Написание или редактирование статей лучше доверить эксперту. Например, для медицинских сайтов автор должен иметь образование соответствующего профиля.
  2. Авторитетность. Тесно связана с экспертностью и позволяет алгоритмам убедиться, что контент создает специалист в своей области. Для этого в статьях указывают имя и фамилию автора, добавляют фото, дипломы, сертификаты. Помимо этого, авторитетность оценивается вне сайта. Чем чаще появляются упоминания на других ресурсах, тем выше показатель.
  3. Доверие. Сайт должен быть надежным, поэтому надо дать пользователям максимум достоверной информации. Достаточно заполнить разделы с подробным описанием компании, отработать отзывы клиентов, добавить раздел FAQ, разместить ссылки на соцсети. Также доверие к сайту повышается с помощью исходящих ссылок на авторитетные ресурсы.

Проработка этих факторов необходима для улучшения позиций не только в Google, но и Яндексе. Ведь российский поисковик при оценке сайта тоже учитывает доверие, удобство, качество сайта. К тому же, далеко не каждый заботится о проработке E-A-T, а значит шанс на выход в топ повышается в разы.

Однако важно понимать, что факторы E-A-T хоть и учитываются для сайтов любых тематик, но не для всех имеют одинаковый вес. В одних источником информации могут быть обычные люди с жизненным опытом, а в других ценится только экспертное мнение.

Кейс: Рост видимости и трафика сайта центра стоматологической диагностики

Данная тематика относится к YMYL (контент, влияющий на благополучие человека), поэтому в первую очередь необходимо уделять внимание E-A-T факторам, касающимся экспертности, авторитетности и достоверности сайта.

Резюмируя

Падение трафика связано с множеством проблем: от технических ошибок до вытеснения со стороны конкурентов. Поэтому так важно регулярно проводить SEO-аудит, находить слабые стороны сайта и прорабатывать их: улучшать структуру, повышать надежность и многое другое.

+1
В избр. Сохранено
Авторизуйтесь
Вход с паролем
Комментарии
Чука Сеня
ААА, вот в чем дело
Ответить
Выбрать файл
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать

Spark использует cookie-файлы. С их помощью мы улучшаем работу нашего сайта и ваше взаимодействие с ним.