Главное Авторские колонки Вакансии Образование
Выбор редакции:
1 123 2 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Кейс – увеличение трафика в 3 раза при помощи одной технологии в SEO за 1 месяц

Вводные данныеОружейный интернет магазин с трафиком 1000 человек в неделю – 60% Yandex 40% Google.Сайт на платформе bitrix. Ранее продвигался несколькими подрядчиками. С переменным успехом.
Мнение автора может не совпадать с мнением редакции

Одна из компаний схватила фильтр за некачественный контент. Они-же (могу ошибаться) потом выводили и им это удалось, однако на трафик это не сильно повлияло, с 500 в неделю он подрос до 1000 и вышел на плато.

Имелась техническая поддержка. Адекватные ребята, занимаются 1с и вносят правки на сайт.

У клиента существовало ещё несколько схожих ресурсов. Они работали как отдельные организации, однако ассортимент по большому счёту был такой же.

Начало работы

Как обычно, проанализировали конкурентов по несложной технологии. Простая таблица со списком параметров сайта дала информацию для размышления. Были выявлены следующие ошибки.

1. Парадоксально, но на сайте торгующим оружием, не было категории «охотничье оружие». Такого запроса вообще не было. Хотя по факту, почти половина стволов — для охоты. Это мы заметили ещё при визуальном осмотре сайта. Клиент пояснил, что оружие у них разделено на «нарезное» и «гладкоствольное» и так забито в 1с для автоматической выгрузки.

2. Стандартный фильтр от Bitrix работал некорректно. Вот пример если ставим одну галочку в фильтре:


/catalog/oruzhie-samooborony/filter/manufacturer-is-techkrim/apply/ — адрес страницы получается такой.

Мета тег title: «Купить оружие для самообороны Техкрим в интернет магазине г. Москва»

В целом, неплохо. Но если добавляем ещё одну галочку, получаем:


/catalog/oruzhie-samooborony/filter/manufacturer-is-techkrim/kalibr-is-b2d657847efd1de2cd31a4ea520f9383/apply/ — адрес страницы.

Мета тег title: «Купить оружие для самообороны Техкрим в интернет магазине г. Москва»

Мета-тег остаётся точно таким-же, а страница уже поменяла адрес и смысл. Проще говоря — при такой фильтрации мы получим большое количество дублей по мета-тегам.

Чтобы этого не произошло, в robots.txt все генерируемые фильтром страницы, где присутствует были скрыты директивой Disallow: *filter*.

Почему это плохо?

Мы теряем большое количество релевантных страниц. Запросы «калибр» + «производитель», «Калибр» + «тип», «производитель» + «материал приклада» и т.д. Таким образом — можно сделать бесконечное количество страниц, комбинируя различные параметры. Вероятно, именно из-за этого фильтр был скрыт от индексации.

Возможность

Было решено сформировать ТЗ для программиста, генерировать уникальные URL и мета-данные на основе фильтрации товаров. При вышеупомянутой фильтрации, мета-тег (указываем только один title, в голове понимаем, что с Description тоже самое) должен быть такой:

Мета тег title: «Купить оружие для самообороны Техкрим калибра 10×28 в интернет магазине г. Москва»

К сожалению, после 2х недельной работы, получилось настроить фильтр только по генерации уникальных мета-данных. ЧПУ (человекопонятных URL) сделать не получилось. В первую очередь потому, что товары были связаны с 1с и каталог выгружался автоматически.

А теперь ещё раз, но проще

1. Стандартный фильтр давал много дублей по мета-тегам;

2. Он же — давал возможность комбинировать различные запросы, искать не только по производителю или калибру, а по 2-м и более критериям: калибр + производитель, калибр + материал приклада и так можно комбинировать до бесконечности. Это значит — очевидная возможность охватить практически всю семантику.

3. Оставалось настроить вывод нужных нам заголовков и мета-данных интересующих страниц, в этом нам помогла тех поддержка.

Настройка robots.txt

После того как технически фильтр теперь работал как нам нужно, предстояла ещё одна задача. Как правильно открыть страницы для индексации. Ранее было упомянуто о возможности бесконечной генерации страниц. Мы решили выбрать определенные комбинации и открыть для индексации именно их:

Выглядит это так:

Disallow: */filter/*

Allow: */filter/manufacturer-is-*/ (индексируем страницы которые показывает фильтр когда галочка стоит на любом из производителей)

Allow: */filter/manufacturer-is-*/kalibr-is-*/( индексируем страницы которые показывает фильтр когда галочка стоит на любом из производителей и на любом из калибров)

Allow: */filter/kalibr-is-*/(индексируем страницы которые показывает фильтр когда галочка стоит на любом из калибров)

Disallow: */filter/manufacturer-is-*-or-*/* -*/(индексируем страницы которые показывает фильтр когда галочка стоит на двух производителях одновременно)

Disallow: */filter/kalibr-is-*-or-*/*-*/(индексируем страницы которые показывает фильтр когда галочка стоит на двух калибрах одновременно)

Disallow: */filter/manufacturer-is-*/kalibr-is-*-or-*/* -*/*-*/(индексируем страницы которые показывает фильтр когда галочка стоит на производителе и калибре одновременно)

Disallow: */filter/manufacturer-is-*-or-*/kalibr-is-*-or-*/* (индексируем страницы которые показывает фильтр когда галочка стоит на двух производителях и двух калибрах одновременно)

Честно говоря — здесь можно найти более изящное решение, но мы сделали это так, а затем проверили в Yandex webmaster с помощью соответствующего инструмента. Всё что нам нужно — индексируется, а всё остальное — нет.


Результат проверки нас удовлетворил, новый robots был выложен на сайт. Получился аккуратный рост страниц каталога четь меньше чем в 2 раза.


Не каждый рост страниц означает рост трафика. Главная цель — расширение семантики. Ведь именно по этой причине агрегаторы сейчас так доминируют в выдаче. Все наиболее эффективные SEO «фишки» — там.

Ещё одна доработка

После того как основная наша задумка была реализована, и оставалось только ждать, мы решили дополнительно сделать ещё кое-что. Для каждой категории, мы добавили дополнительные популярные подборки и вынесли их над товарами:


Получилось некое подобие плитки тегов. Информацию почерпнули у Антона Маркина, чьи мысли по поводу SEO сильно импонируют нашей команде. Если что — не реклама.

Результат

К счастью, наша гипотеза дала результат, выраженный в поисковом трафике. Благодаря двум доработкам, в большей степени одной (не считая конечно мелких корректировок сайта на этапе первичной оптимизации) мы наблюдаем достаточно стабильный рост.


После выполнения доработок, мы с командой переключились на другие аналогичные проекты по желанию заказчика. Данный сайт же наращивал кол-во страниц, расширял свою семантику и как следствие получал больше трафика с каждым днем.

Благодарю за внимание, надеюсь было полезно.

Пишите в личные сообщения, если остались вопросы. Дам рекомендации по использованию данного исследования на Вашем сайте.

Автор статьи Дмитрий Дядюков.

0
В избр. Сохранено
Авторизуйтесь
Вход с паролем
Комментарии
Textarget
Услуги по SEO и раскрутке сайта
Виктор Петров
Сколько возни с фильтрами.
Купите "Сотбит SEO умного фильтра" - он умеет генерировать полноценные посадки на базе смарт-фильтров - с уникальными мета, заголовками, текстовыми полями. Битрикс без такого - деньги на ветер.
Если интересно - вот мой кейс по продвижению интернет-магазина с помощью этой машинки: https://textarget.ru/portfolio/keis-seo-magazin-vina/.
Неспешно, на базе актуальной семантики доливаем новые посадочные страницы, генерируемые перемножением смарт-фильтров. Перманентный рост трафика, и никакие кастомные доработки не нужны, всё работает без "костылей".
Ответить
Textarget
Услуги по SEO и раскрутке сайта
Виктор Петров
К слову, про Маркина. Технику тегирования он не изобретал, это очень старая методика. Он её просто популяризировал и разъясняет на пальцах, показывая доступные способы реализации.
Ответить
Выбрать файл
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать

Spark использует cookie-файлы. С их помощью мы улучшаем работу нашего сайта и ваше взаимодействие с ним.