По этим маскам в дальнейшем можно парсить или генерировать семантику. Нужны они, чтобы в целом понимать, в какую сторону копать.
Далее расскажу о самых ТОПовых источниках и способов сбора ключевых фраз.
ТОП источников ключевых фраз для контекстной рекламы Начнём с самого простого и будем двигаться к более сложному. Бонусом я покажу неочевидные варианты, которые используют SEO-специалисты.
Автотаргет Запускаем поисковую кампанию/мастер кампаний на небольшом бюджете на 1-2 недели. Копим статистику. Выгружаем ключевые фразы из статистики кампании и работаем с ними. Это самый простой вариант. Можно быстро и с минимум трудозатрат получить реально работающую семантику, по которой уже были показы, переходы и конверсии. Способ подходит для любых проектов любого уровня.
Плюсы: не тратите время на парсинг, получаете актуальную семантику с конверсиями.
Минусы: в любом случае придётся разгребать тонны мусора, а потом чистить и группировать; можно что-то упустить; можно открутить бюджет и получить мусорные фразы без конверсий.
Искусственная семантика Искусственная семантика делается с помощью генерации пересечений по маскам и различным добавочным словам характеризующим ваш продукт. Нужно взять маски, добавить тематичных вашей нише/продукту слов и сгенерить фразы с помощью специальных сервисов. В качестве добавок могут быть коммерческие приставки, название моделей авто/техники, топонимы, станции метро и пр. подходящие слова.Пример масок для генерации
Добавляем маски в сервис для генерации пересечений
Получаем результат пересечений
Далее эту искусственную семантику желательно прогнать через Key Collector и снять частотность, чтобы убрать фразы, которые никто не ищет.
Подписывайтесь на мой канал в телеге про контекстную рекламу, чтобы не пропустить интересные посты и всякие полезные материалы (или не очень интересные и не очень полезные).
Примеры сервисов для генерации пересечений:
https://adpump.ru/keyword-generator https://www.bukvarix.com/combiner/ https://www.keys.so/ru/tools/combine Искусственная семантика из фида Способ подходит для еком проектов. Всё то же самое, что с генерацией пересечений, только вместо масок можно использовать информацию из фида интернет-магазина. Берём названия, артикулы, модели, что угодно из вашего фида, добавляем коммерческие приставки и получаем ключевые фразы.Рандомный пример из интернета
Ручной сбор в Wordstat Собираем ключевые фразы через Wordstat с помощью различных плагинов в ручном режиме. Я использую плагин Wordstater. Тут всё просто — берёте подготовленные маски, ищите по ним ключи. Что подходит — добавляем, что не подходит — в минус-слова.
Отличный вариант для мелких ниш и для небольших сайтов в сфере услуг.Ручной сбор в Wordstat
Плюсы: сразу собираете только релевантные ключи, сразу собираете минус-слова, тратится минимум времени.
Минусы: не подходит для больших проектов с десятками направлений/продуктов, не подходит для екома. Также в Wordstat’e сломался выбор региона, хоть это, и решаемо — но для регионов создаёт дополнительный геморрой в работе.
Лайфхак для ручного сбора в Wordstat: можно сделать шаблон в Google Docs, который будет автоматически сцеплять маски для поиска ключей.Шаблон делает подстановку фраз в оператор ИЛИ для Wordstat
Берём готовое у конкурентов Мой любимый источник — ключи конкурентов из SEO-выдачи. Берём уже готовое у конкурентов, которые плотно сидят в топах выдачи с помощью специальных сервисов.
Сервисы для анализа конкурентов:
https://www.bukvarix.com/ https://www.keys.so/ru/ https://spywords.ru/ Приведу пример, как получить за 10 минут проработанную семантику под одно направление услуг.
Возьмём услугу по алмазному бурению. Заходим в сервис Arsenkin Tools и выгружаем топ10 по Москве по ключу «алмазное бурение».Берём внутренние страницы
Собираем похожих на нас конкурентов. Берём только внутренние страницы, а главные страницы и агрегаторы, типа Авито, Яндекс Услуг и пр. игнорируем. Идём в Keys.so , выгружаем ключи по URL.Выгружаем ключи
Берем ключи по которым страница ранжировалась в топ 5, собираем их в кучу. Осталось почистить семантику от мусора и снять частотность, чтобы убрать нулевки.Выгрузка ключей по URL
Способ хорош тем, что мы охватываем всю семантику, которая релевантна нашему продукту.
Плюсы: за минимум времени получаем проработанную семантику.
Минусы: много ручных действий; сервисы имеют не совсем актуальные данные по ключам.
Лайфхак: с помощью выгрузок легко и быстро делать предпродажные медиапланы.
Подписывайтесь на мой канал в телеге про контекстную рекламу, чтобы не пропустить интересные посты и всякие полезные материалы (или не очень интересные и не очень полезные).
Парсинг Классический парсинг семантики через специальный софт: Key Collector, Словоёб, A-parser, etc.
Что можно парсить:
Wordstat левая колонка Wordstat правая колонка поисковые подсказки Яндекса и Google ключевые фразы с блока под выдачей (Люди ищут, Другие запросы) Тут всё просто. Берём маски, загружаем в софт, парсим, чистим, группируем, делаем скоринг ключей.Пример работы в Key Collector
Пару советов от меня:
чистите семантику по частотности в точной словоформе приоритезируйте/делайте скоринг семантики Есть лайфхак по сбору частотности в Key Collector. Парсим частотку в точном соответствии. Период сбора — год. Почему год? Если парсить за год, то мы избежим проблем с сезонностью и проблем с колебаниями спроса из-за различных событий в стране. Далее делим годовую частотку на 12 с помощью KEI-формул и получаем «среднюю температуру» по спросу.Настройка парсинга частотности
В столбце KEI средняя частотка за год
Плюсы: автоматизировано; получаем актуальные и полные данные по ключам; можно работать с большими и сложными проектами; можно работать с большим количеством ключей; можно подготовить хороший список минус-слов.
Минусы: трудозатратно, нужен софт и навыки работы с этим софтом; для софта нужна антикапча, прокси.
Бонусные источники Расскажу ещё о парочке не очевидных способов для тех, кому нужна максимально полная семантика.
Первый способ: находим конкурента в SEO-выдаче, загоняем его сайт в специальный софт, парсим с сайта title, h1, description, keywords. Далее смотрим, где можно вытащить ключи. Ключи загоняем в key collector, снимаем частотность, чистим, группируем.Инфу из h1 можно смело взять в качестве ключевых фраз
Сайты для парсинга должны сидеть плотно в топ3 и должны быть отлично проработаны по SEO.
Способ актуален для больших ниш, для екома, для каких-то каталогов/агрегаторов, т.е для сайтов, у которых много страниц.
Парсить сайты можно софтом:
Screaming Frog SiteAnalyzer Netpeak Spider A-parser etc... Второй способ: выгребаем всю семантику из кабинета вебмастера Яндекса, Search Console Гугла и Яндекс Метрики.Отчёт за квартал по поисковым фразам из Яндекс Метрики
Способ подходит для проектов, которые плотно сидят в SEO-выдаче и получают поисковый трафик.
Тут всё просто — выгружаем ключи по которым были переходы из поиска, выгружаем все ключи по которым есть видимость в Вебмастере и Search Console. Далее чистим, группируем, делаем скоринг.
Подведём итоги Под каждую задачу выбирайте свой источник и способ сбора ключевых фраз. Для медиаплана можно использовать выгрузки ключей конкурентов. Для быстрого запуска в узкой нише можно руками собрать в Wordstat. Для больших проектов с большим бюджетом и серьёзным вовлечением можно использовать все источники в связке между собой. Для екома можно вообще ничего не собирать, а работать чисто с автоматикой и фидами.
В зависимости от задачи для себя использую такие источники:
парсинг Wordstat в Key Collector выгрузки из keys.so и spywords.ru ручной сбор через плагин Wordstater Если вам нужно запустить рекламу в Яндекс Директ/Google Ads или сделать аудит — жду вас в своём TG .
Также не забывайте подписываться на мой канал в телеге про контекстную рекламу, чтобы не пропустить интересные посты и всякие полезные материалы (или не очень интересные и не очень полезные).