Главное Свежее Вакансии Образование
Выбор редакции:
657 2 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Причины снижения позиций в Google: как нарастить трафик в 2023?

Владельцы сайтов и СЕО-специалисты всегда с нетерпением встречают каждый апдейт поисковой выдачи в надежде, что позиции подрастут. Но, к сожалению, далеко не всегда Google позволяет мечтам об увеличении трафика сбываться.

И даже наоборот. Порой после очередного обновления случается настоящий обвал позиций. А это заставляет искать причины, чтобы объяснить произошедшее. Если посетить популярные форумы, то там какой только информации не найдешь о том, почему поисковик мог урезать трафик. И некоторые гипотезы иначе как бредом сумасшедшего и не назвать.

Поэтому предлагаем вам не тратить кучу времени на самостоятельный поиск бриллианта в грязи, а ознакомиться с истинными причинами того, почему просели позиции в Google. В 99% за снижение трафика ответственен как раз один из нижеприведенных факторов. И если знать причину, то несложно наметить план работ по исправлению последствий и возвращению утраченных позиций.

А это сейчас очень важно, ведь ценность продвижения в Google существенно возросла в связи с последними событиями. Напоминаем, что контекстная реклама Google Ads больше не поддерживается в России. И теперь по многим запросам (особенно коммерческим) органическая поисковая выдача позволяет получать намного больше трафика, чем раньше.

Причины падения позиций в Гугле из-за технических факторов



Google очень ревностно следит за тем, чтобы сайты отвечали ряду требования в технической части. Но даже если изначально все хорошо настроить в полном соответствии с рекомендациями поисковой системы, то это не гарантирует, что в ходе использования сайта не произойдет каких-то досадных неприятностей. Поэтому при падении трафика нужно убедиться, что причиной не стал один из нижеследующих факторов:

  1. Поисковые боты не смогли получить доступ к сайту. Многие считают этот фактор неважным, а зря. Google тщательно следит за скоростью загрузки и доступностью веб-ресурсов. Если она теряется, пусть даже на короткое время, и поисковик это фиксирует, то неприятные последствия не заставят себя долго ждать. А если ситуация повторится, то менее «проблемные» конкуренты точно обгонят. Потеря доступности может объясняться: техническими неполадками на стороне хостинга, задержкой с его оплатой, повреждениями базы данных. Если хостинг грешит частой потерей связи, пусть даже и краткосрочной, то его нужно немедленно менять.
  2. Сайт временно для каких-то целей или случайно был закрыт от индексации. Та же проблема, что и в прошлом пункте. Закрытие возможно при помощи тега noindex или путем редактирования файла robots.txt. Если исправить ситуацию, то позиции через какое-то время должны вернуться.
  3. Перестали работать редиректы. Тут нужно в первую очередь проверить 301-й, а также 302-й. Если какой-то из них отвалился, то это и есть причина проблемы. Плюс заодно нужно убедиться, правильно ли везде используется rel="canonical" — атрибут, который прямо к редиректам не относится, но выполняет их функцию борьбы с дублями. Выходит, если через редирект был настроен переход с другого веб-сайта, обладающего солидной ссылочной массой, или внутри перестал работать редирект с одних страниц, имеющих ссылочный вес, на другие, то это вызовет снижение позиций.
  4. При переносе сайта допустили ошибки, которые привели к потере важных страниц, отвалу редиректов и т. п. Вообще, для переноса есть соответствующий инструмент в Google Search Console, но проще настроить 301-й редирект. Однако какой бы вариант не использовался, важно предварительно составить список из URL для всех страниц. Только так можно быть уверенными в том, что при переезде ничего не потеряется.
  5. В мобильную версию сайта внесли коррективы (осознанно или нет), которые ухудшили ее работу. Тут важно понимать, что Google сейчас уделяет особое внимание мобильному трафику. И даже если сайт не продвигается под мобильные, он все равно должен иметь корректно работающую мобильную версию. Иначе конкуренты, у которых с мобильной версией все в порядке, будут обгонять.
  6. Взлом. Масштаб этой проблемы зависит от того, чего добивался злоумышленник. Если просто был настроен редирект с вашего сайта или проставлены какие-то ссылки/поп-ап окна и тому подобное, то ситуацию относительно легко исправить. Если же сайт основательно исковеркали и подорвали его репутацию в глазах поисковика путем использования запрещенных тем, то восстановление позиций может быть очень долгим и сложным, а иногда и невозможным.
  7. Google пометил сайт как дорвей. В этом случае Google Search Console присылает письмо с пометкой «чистый спам». Довольно серьезная проблема, поскольку поисковик не любит, когда манипулируют его алгоритмами. В этом случае следует тщательно все проверить и убрать то, что Гуглом могло восприниматься как спам, а потом подать сайт на проверку.
  8. На сайте реализовали технологию Ajax. Хотя, скорее, это не технология, как все любят говорить, а нестандартный подход к «фоновому» обмену информацией между веб-сервером и браузером, когда веб-страница непосредственно не загружается. И все бы хорошо, вот только Google пока «не понимает» Ajax и не индексирует страницы. Что делать? Есть два способа. Первый — вернуться к более старым технологиям. Не рекомендуется. Второй — использовать «!», чтобы позволить ботам Google отсканировать/проиндексировать Ajax-страницу.
  9. Flash. Ну, с флешем так вообще куча проблем. Можно назвать как минимум 5 причин, чем Flash плох для SEO. Но главное, что нужно понимать, — поисковая система в первую очередь представляет собой текстовую базу. Поэтому весь контент, который транслируется через Flash, видеоролики или Silverlight, должен быть также доступен и в текстовой версии. Только тогда боты Google будут корректно индексировать страницу, и она будет привлекать трафик.
  10. Дубли страниц. Если Google видит несколько одинаковых веб-страниц, то он просто не понимает, какую нужно индексировать. Появление дублей может быть обусловлено различными причинами, но СЕО-специалисту для исправления проблемы важно их найти и использовать доступные средства, чтобы дать поисковой системе наводку на то, какую страницу ранжировать. Обычно проблема решается через атрибут rel="canonical", вставляемый в код той страницы, которую продвигают. После этого поисковые роботы определяют ее как главную, т. е. каноническую.
  11. Сбой в работе Гугла. Самый неприятный момент, потому что последствия совершенно не прогнозируются. К тому же с техподдержкой у Google ситуация печальная. Остается лишь создавать тему на форуме в надежде, что кто-то обратит внимание и вникнет в суть проблемы.

Если проверка технических факторов не выявила критических ошибок, то стоит посмотреть, не возникло ли проблем, связанных с контентом.

Причины снижения трафика в Google из-за изменений контента



Сейчас люди все меньше читают, отдавая предпочтения видео- и аудиоканалам для получения информации, а СЕО построено на текстовом контенте. И если с ним происходит что-то вразрез с требованиями Google, то позиции очень быстро летят вниз. Вот основные причины резкого падения позиций из-за изменений в текстовом контенте:

  1. По какой-то причине исчезли веб-страницы, привлекавшие трафик или содержавшие обратные ссылки. К такого рода затруднению обычно приводит внесение каких-то кардинальных изменений в работу сайта. Возможно, осуществляли перенос, натягивали новый шаблон, меняли дизайн и т. д. Решение проблемы очевидно — необходимо вернуть страницы на место, тогда и Google должен восстановить позиции.
  2. Манипуляции с семантической разметкой. Гугл очень не любит, если в структурированных данных содержится информация для нечестного привлечения пользователей через спам или банальный обман.
  3. Использование клоакинга, когда поисковику скармливают один тип контента, а пользователям совершенно иной. Тут та же проблема, что и с прошлым пунктом. Подобные манипуляции Гугл легко определяет и жестко за них наказывает. Для решения проблемы нужно перестать использовать грязные приемы.
  4. Чрезмерно частое употребление ключевых запросов на странице — переспам. На заре зарождения SEO все старались напихать ключей побольше. И такой прием работал. Но затем появился фильтр «Панда», и поисковики стали наказывать за подобные методы. Потому что у пользователей тексты с огромным переспамом ключевых фраз ничего, кроме отвращения, не вызывают. Ну а Гугл старается допускать к ТОПу выдачи только те ресурсы, которые полезны для интернет-пользователей.
  5. Созданы веб-страницы под рекламные материалы без всякой ценности для пользователей. Владельцам сайта нужно что-то есть. Это понятно. Но создавать страницы под партнерские программы, которые никакой пользы не представляют для посетителей, не стоит. Иначе Google тут же отреагирует. Объяснение этому то же, что и в прошлом пункте.
  6. Пропал текст. Если страница привлекала трафик, но потом ее текстовое содержимое пропало, то боты Google уберут ее из выдачи. Решение очевидно — выяснить, в чем дело, и вернуть текст.
  7. Изменение мета-тегов и внесение корректив в тексты. В попытке добиться лучших результатов часто проводятся эксперименты с текстовым содержанием H1, Title, Description, но их результаты могут быть прямо обратны ожидаемым. В таком случае нужно немедленно возвращать все назад.
  8. Неправильное использование AMP-страниц. С одной стороны, такие страницы ускоряют загрузку, что хорошо для СЕО. С другой стороны, упрощенные страницы заставляют отказываться от множества красивых и полезных интерактивных объектов, что ухудшает юзабилити. Плюс между обычной и AMP-версией могут быть расхождения, которые Google сочтет критичными, понизив сайт в выдаче.

Если и с текстовым контентом все в порядке, ничего не пропало, никаких изменений не было, тогда необходимо проверить, а как обстоят дела со ссылочной массой.

Проблемы с ссылками



Уже долгое время ведется полемика в отношении того, что ссылки должны перестать работать. Однако какие бы эксперименты ни проводил Google и что бы ни говорили его представители, но ссылки остаются решающим фактором в борьбе за заветную первую страницу поисковой выдачи. Тем не менее желание Google отбить охоту в манипуляциях ссылками привело к ужесточению требований к сайтам и появлению нового фильтра — Пингвин.

Перед тем как рассмотреть, какие проблемы, связанные со ссылками, могут негативно сказаться на посещении сайта, хочется прояснить один момент. Хотя про закупку ссылок поисковики говорят много плохого, но тут речь больше именно о плохих ссылках. Если же они получены естественным путем или куплены на трастовых площадках, то никаких проблем с этой стороны ждать не стоит.

Получается следующее — несмотря на заявления Гугла о том, что ссылки покупать нельзя, линкбилдинг прекрасно работает и выступает одним из ключевых направлений работы при продвижении сайтов. Отметив это, давайте знакомиться с причинами падения позиций по причине ссылок:

  1. Наказание со стороны Google за некачественные ссылки. Для этого имеется специальный фильтр, именуемый Пингвином. Он тщательно отслеживает, чтобы при внешнем продвижении сайта через ссылки не было переспама по анкорам и их размещения на низкокачественных веб-ресурсах с плохой репутацией. Если когда-то можно было просто бездумно наращивать ссылочную массу и это приносило очевидную пользу, то с момента появления Пингвина (2012 года) сайты, которые закупали плохие ссылки, стали чувствовать себя очень плохо. Если позиции упали из-за Пингвина, то необходимо приложить максимум усилий, чтобы убрать все плохие ссылки. Для этого нужно связаться с веб-мастерами и попросить их убрать ссылки. И будьте готовы, что за это еще могут попросить денег. Такие реалии. Если же удалить ссылку не получается, веб-мастер игнорирует обращения или запросил очень много, то можно через Google Search Console запросить отклонение ссылок.
  2. Google активно борется не только против тех, кто покупает ссылки, но и с теми, кто их продает. Так что если сайт будет заподозрен в продаже ссылок, то санкции поисковика не заставят себя долго ждать. Что делать? Следить, чтобы количество исходящих ссылок было наравне или меньше числа входящих. Плюс не стоит пихать исходящие ссылки на каждую страницу. Возможно, есть смысл делать полезные статьи для людей совсем без ссылок, чтобы отвести от себя подозрения. Плюс новички стремятся уже после получения минимального трафика разместить партнерские ссылки, чтобы начать зарабатывать. Утопическая тактика. Пока трафика мало, все равно заработать нормально не получится, а вот попасть под санкции — легко. Вообще, каждая исходящая ссылка должна быть максимально уместной и давать какую-то пользу для посетителей сайта, тогда алгоритмы Гугла не пометят ее как спам.
  3. Некачественный UGC-контент. То есть речь о пользовательском спаме на форумах, в отзывах и т. д. Обычно здесь пытаются оставить переспамленные ключевыми словами текстовые сообщения и ссылки, чтобы нарастить ссылочную массу и улучшить позиции сайта. Вот только обычно это приводит прямо к противоположному эффекту. Лечение в случае возникновения проблемы стандартное — нужно все удалять и молиться, чтобы позиции вернулись.
  4. Проблемы с использованием бесплатных хостингов. Желание сэкономить у начинающих веб-мастеров и СЕО-оптимизаторов часто приводит к тому, что они размещают сайты на бесплатных хостингах. И все бы ничего, но обычно на том же хостинге находится еще как минимум несколько сайтов. И если один из них начнет вести себя нечестно, чем спровоцирует санкции со стороны Google, то прилететь может и остальным. Поскольку поисковик не будет разбираться, кто там именно виноват.
  5. Удаление прямых ссылок, которые вели на сайт. Если для продвижения закупались ссылки, а потом они по каким-то причинам (веб-мастер снял, сайт удалили) исчезли, то понятно, что приятного мало. Снижение ссылочной массы быстро и негативно скажется на позициях. И если ссылки закупались через нормальные сервисы с оплатой страховки, то там хоть удастся вернуть деньги. В противном случае бюджет будет слит впустую, а для исправления ситуации снова придется прибегнуть к грамотному и очень осторожному линкбилдингу.
  6. Пропали ссылки 2-го и 3-го уровня, то есть Tier 2 и Tier 3. Их вообще мало кто учитывает, а зря. Кто не знает, речь о ссылках, которые ведут на страницу стороннего сайта, ссылающегося на вас. То есть если сайт, размещающий прямую ссылку, — это ваша ссылочная масса, то Tier 2 — это ссылочная масса веб-сайта и той страницы, с которых идет прямая ссылка.

Санкции со стороны поисковиков и не только


  1. До сайта добрался Роскомнадзор. Беспокоиться об этом могут лишь те веб-ресурсы, которые нарушают российские законы или говорят то, что не нравится слушать власть имущим. И в случае такого рода санкций уж ничего не поделать. Если тема для продвижения такая, что преследование Роскомнадзором неизбежно, то следует заблаговременно приготовиться к блокировкам и регулярно менять зеркало сайта.
  2. DMCA. Если по-простому, то речь о нарушениях авторских прав. Если первоначально интернет больше напоминал Дикий Запад, и никто тут никого не преследовал за копирование и неразрешенное использование чужого контента, то теперь все поменялось. В первую очередь это почувствовали онлайн-кинотеатры, которые бесплатно транслируют пиратские копии фильмов и сериалов, а также торренты, где вообще можно найти и скачать все что угодно: взломанные игры, музыку, пиратские фильмы, книги. Так что теперь Google, получив жалобу, просто блокирует отдельные страницы и/или понижает в ранжировании весь сайт.
  3. YMYL. Чтобы понять, что это такое, лучше привести простой пример. Все, кто давно пользуется интернетом, должны помнить обилие сайтов медицинской тематики. Причем одна более или менее стоящая статья по какой-то медицинской теме, как правило, рерайтилась и выкладывалась на десятки подобных сайтов. Попросту говоря, уровень экспертности тех, кто эту статью копировал, изменял и выдавал за новую, равнялся нулю. Плюс еще не совсем понятно, какой там эксперт ее писал изначально. А ведь нужно помнить, что любой вредный совет или недостоверная информация в случае медицинских сайтов несла прямую угрозу здоровью и жизни человека. Поэтому была введена политика YMYL, детальнее о которой в справке Google. И она гласит, что статьи в тематиках, подобной медицинской, должны писать исключительно эксперты. И все остальные сайты идут в топку — без вариантов. А что делать, чтобы доказать высокий уровень экспертности, достоверности и авторитетности, — это уже тема для отдельного разговора.
  4. Сайт попал под новый фильтр. В последние лет 10 можно видеть, что Google очень активно борется за чистоту поисковой выдачи. И прилагает максимум усилий, чтобы на первые страницы в результаты поиска попадали максимально качественные сайты, несущие полезную информацию. Поэтому против всех тех веб-ресурсов, которые, по мнению Гугла, не соответствуют этим параметрам, регулярно вводятся разного рода фильтры. Поэтому на форумах веб-мастеров и сеошников периодически разносится вой раненого зверя, когда выходит какой-то новый фильтр. К сожалению, предсказать, что придумает завтра Google, невозможно. Но одно можно сказать точно: если сайт несет благую цель, делается для того, чтобы помочь людям, а продвигается исключительно белыми способами без агрессивных попыток ускорить процесс выхода в ТОП, то с высокой вероятностью ему ничего не грозит. Кстати, в мае 2022 Google как раз выкатил свежее обновление, из-за которого многие веб-мастера и СЕО-специалисты отметили существенное снижение трафика и позиций.

Почему еще может упасть трафик из поисковика?


Иногда падение происходит вне названных выше причин. И хотя явление это неприятное, но с этим нужно смириться. Дело в том, что порой факторами, которые ведут к потере объемов трафика, становятся:

  1. Сезонность — согласитесь, мало людей покупают шубы или санки летом;
  2. Крупные праздники, когда всем просто не до интернета и не до покупок вещей, которые напрямую не связаны с грядущим празднованием;
  3. Внезапные события типа «Черного лебедя», которые заставляют на время всех переключиться на отслеживание определенной темы и забыть про все остальное;
  4. Снижение интереса к выбранной теме, когда что-то банально теряет актуальность из-за неуклонного бега времени вперед и изменения условий.

Плюс не следует забывать, что в каждой стоящей теме растет количество конкурентов. И они, как известно, не дремлют, а постоянно ищут, как сместить с достигнутых позиций тех, кто забрался выше.

Итак, если у вас упали позиции в Google, то с вероятностью 99% в этом замешан один или сразу несколько из описанных выше факторов. Если проанализировать их внимательно, то можно заметить, что в одном случае проблема с просадкой в позициях решится легко и быстро.

В других случаях нужно все мастерство опытного СЕО-специалиста, чтобы исправить ситуацию и минимизировать негативные последствия. И тут влияет оперативность исправления. Поэтому если что-то пошло не так, то нужно реагировать быстро.

А детальнее о возможных санкциях со стороны Google можно узнать в официальном справочном разделе поисковой системы: https://support.google.com/webmasters/answer/9044175.

0
В избр. Сохранено
Авторизуйтесь
Вход с паролем
Комментарии
Анна Коваленко
Помимо перечисленных выше причин, ещё можно добавить апдейты Гугла, которые выпускаются каждый год
И особенно те которые были выпущены за этот год)
Ответить
Петр Лях
Ну это можно отнести к пункту "Сайт попал под новый фильтр", так как апдейты обычно идут с пессимизацией рука об руку.
Вообще этот год по моему самый прибыльный на апдейты у Гугла за последние лет 10. Вот получается в начале декабря вышел Google helpful content апдейт и вот за ним через неделю буквально Link spam апдейт, который еще в процессе. А еще в октябре, сентябре, августе, мае и марте, и это только если известные считать
Ответить
Выбрать файл
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать

Spark использует cookie-файлы. С их помощью мы улучшаем работу нашего сайта и ваше взаимодействие с ним.