Готовим сайт к трафику через LLM - SEO-аудит сайта

Более лет делаю SEO аудиты — и для своих проектов, и для клиентов. Со временем выработалась система, где всё разложено по полочкам: техническая часть, контент, внутренняя структура и поведение пользователей. И да, у нас, в России, есть отличные инструменты, чтобы провести аудит не хуже, чем западные SEO-агентства.
Так что, если вы хотите увидеть реальную картину своего сайта — кто его видит, кто нет, где он теряет трафик и почему — давайте разбираться.
Инструменты и база
Для начала — без фанатизма. Вам не нужно двадцать сервисов и подписка на всё подряд. Достаточно 5–6 инструментов, которые закроют основные задачи: анализ структуры, скорости, контента и поведения пользователей.
Вот мой базовый набор:
- Google Таблицы — простая таблица для фиксации всех данных по аудиту.
- Screaming Frog — классика технического анализа. Для быстрой проверки сайта на битые ссылки, редиректы, дубли и мета-ошибки.Google Analytics и Яндекс.Метрика — две стороны одной монеты. Первая даёт видимость в Google, вторая — реальное поведение пользователей в России. Метрика особенно хороша картами скроллов, кликов и тепловыми картами.
- Google Search Console и Яндекс.Вебмастер — обязательные панели для проверки индексации, технических ошибок и ключевых запросов.
- PageSpeed Insights — чтобы оценить скорость загрузки и показатели Core Web Vitals.
- KeySo, Арсенкин, Topvisor — мои фавориты для анализа семантики, позиций и конкурентной среды.
- KeySo удобен для поиска новых тем и кластеризации ключей.
- Арсенкин даёт крутые данные.
- Topvisor — отличен для мониторинга позиций и отслеживания динамики.
Комбинация этих инструментов дает полную картину: вы видите техническое здоровье сайта, поведение аудитории и состояние контента.
Индексация и краулинг
Первое, что я проверяю при любом аудите — а вообще Google и Яндекс видят сайт как надо?Удивительно, но у многих бизнесов 20–40 % страниц просто не индексируются. Они существуют, но для поисковиков — как будто их нет. И никакая оптимизация не спасёт, если страница не попадает в индекс.
Чтобы проверить это, я использую два инструмента:
- Яндекс.Вебмастер — отличное зеркало ситуации в выдаче, особенно для локальных проектов.
- Google Search Console — показывает, какие страницы в индексе и какие «отвергнуты» (обычно из-за дублей, noindex, каноникал-ошибок).
Параллельно запускаю Screaming Frog — чтобы увидеть, что реально краулится, какие страницы недостижимы (404, 5xx, 301-цепочки, «сироты» без внутренних ссылок).
Маленький лайфхак: если сайт большой (интернет-магазин, СМИ, корпоративный портал), не запускай полный краулинг сразу — он может съесть весь ресурс компьютера. Разбей проверку на разделы: каталог, блог, карточки, служебные страницы. Так ты быстрее найдешь проблемные зоны.
И ещё момент: обязательно сверяйся с файлом robots.txt и sitemap.xml.
Внутренние ссылки — скрытый источник роста
Я обожаю этот этап. Потому что внутренняя перелинковка — это почти магия. Она реально способна поднять сайт в выдаче без внешних ссылок и вложений.
Логика простая: если поисковик легко проходит по страницам, он лучше понимает структуру и важность контента.Чем ближе страница к главной (по кликам), тем выше её шанс на видимость.
Что я делаю:
- В отчёте Screaming Frog смотрю — всё, что глубже трех кликов, помечаю. Это нужно потом проверить есть ли они в выдаче и как устроена логика у тех, кто в ТОПе.
- Далее — внутренние ссылки на страницу. Если меньше 5–6 входящих, добавляю в приоритет на перелинковку.
- Использую Арсенкин или KeySo для поиска контекстных точек, где можно добавить ссылки естественно (через анкорные фразы или тематические упоминания).
Важно не переборщить — перелинковка должна быть естественной, не «сеошной кашей». И ещё: делай ссылки из высокотрафиковых страниц на слабые. Тогда «вес» действительно перераспределяется.
Скорость загрузки и мобильная версия
Если честно, я раньше недооценивала скорость загрузки.Но потом один проект буквально «просел» в выдаче, и оказалось — мобильная версия сайта грузилась 6 секунд. А для пользователя это вечность (особенно когда мобильный интернет тормозят или выключают).
Скорость — это не просто комфорт, это фактор ранжирования. И не только для Google. Даже ChatGPT и другие ИИ-системы, которые парсят сайты, «бросают» медленные страницы, не дождавшись загрузки.
PageSpeed Insights — для общей оценки (смотрю отдельно Desktop и Mobile).
Для мобильных устройств я особенно внимательно смотрю блок «Time to Interactive(TTI)» — если он больше 3 секунд, это тревожный сигнал.
Несколько простых вещей, которые почти всегда дают результат:
- Сжать изображения (особенно фоновые и баннеры).
- Подключить lazy-load для медиа.
- Убрать ненужные скрипты (часто их десятки).
- Настроить кэширование — банально, но работает.
- Проверить шрифты — они часто занимают больше, чем кажется.
Как проверить TTI?
Chrome DevTools → Вкладка Performance.
Lighthouse → Отчет Core Web Vitals.
WebPageTest → Точные метрики для глубокого анализа.
Поможет толковый программист, но часть работы на небольшом сайте можно сделать самостоятельно.Скорость — это не про «погоню за зелёными кружочками», а про UX, SEO и конверсию.Если страница грузится медленно, человек просто уходит. И поисковик уходит вместе с ним.
404 и битые ссылки
Каждый раз, когда я начинаю аудит, обязательно нахожу десятки (иногда сотни) 404-страниц. И ладно бы это были удалены старые акции — нет, часто туда ведут живые ссылки из блога или меню.
Важно понимать: 404 — это не всегда плохо. Иногда страница действительно должна исчезнуть из индекса. Проблема, когда битые URL всё ещё получают трафик или ссылки.
Что можно посмотреть:
- В Screaming Frog или Netpeak Spider фильтрую все страницы со статусом 404 и 5xx.
- Проверяю, есть ли на них входящие ссылки. Если есть — настраиваю 301-редирект на релевантную страницу.
- Заглядываю в Яндекс.Вебмастер → и в Search Console — там тоже есть отчеты об ошибках и удаленных страницах.
- Смотрю, какие из 404 всё ещё получают клики или показы — это те, что нужно спасать!!!
Ещё полезно проверить, куда ведут старые внутренние ссылки. Иногда CMS (особенно на WordPress) сама создаёт битые пути.
Главное правило:
Если страница умерла — дайте пользователю новый путь.Если страница жива — помогите поисковику дойти до неё.
Дублирующийся контент
О, дубли — моя личная боль. Почему это важно?Потому что когда поисковик видит похожие страницы, он просто не понимает, какую из них показывать в выдаче. В итоге — теряется вес, а позиции падают.
Где чаще всего прячутся дубли:
- Фильтры и сортировки (например, ?color=black, ?sort=price).
- HTTP и HTTPS версии — если не настроен редирект.
- WWW и без WWW.
- Одинаковые тексты в карточках товаров — особенно в интернет-магазинах.
- Копии страниц для печати или AMP-версии.
Если сомневаешься, оставить страницу или удалить — смотри поведенческие данные (Метрика). Если там ноль трафика и ноль времени на странице — смело объединяй или убирай.
Нерелевантный контент
Иногда сайт превращается в свалку из старых статей, экспериментов и «ой, я просто тестировала тему». Я сама через это проходила: когда начинаешь вести блог, хочется писать обо всём — и про SEO, и про продуктивность, и про новые инструменты. Но поисковик видит всё иначе.
Google и Яндекс любят тематическую целостность. Если сайт про SEO, то статья «5 лучших приложений для тайм-менеджмента» сбивает фокус. Она может даже собрать трафик, но не укрепит авторитет в нише.
Что я делаю, когда чувствую, что контент «расползся»:
- Вытягиваю все заголовки статей в таблицу и фильтрую по ключевым словам.
- Всё, что не содержит мою основную тему (например, «SEO», «продвижение», «контент», «поисковики») — попадает в зону ревизии.
Убирай всё, что не усиливает твою экспертизу. Пусть сайт говорит о тебе как о специалисте, а не как о человеке, которому просто «много чего интересно».
Слабые кластеры
Если говорить простыми словами, кластер — это группа страниц, которые связаны одной темой. Когда страниц мало или они не связаны между собой, получается слабый кластер — и даже хорошая статья может не выстрелить.
Иногда, чтобы страница попала в ТОП, ей просто нужна «поддержка друзей» — тематических материалов, которые усиливают главный смысл.Не всегда нужно переписывать текст — иногда нужно добавить контекст вокруг.
Качество контента (оптимизация по леммам и интентам)
Вот где начинается настоящая магия SEO — работа с леммами и интентами. Если коротко:
- Леммы — это базовые формы слов (например, «продвижение», «продвигать», «продвигаем» — одна лемма).
- Интент — это намерение пользователя: он хочет купить, узнать, сравнить или просто вдохновиться.
Раньше я писала тексты, ориентируясь только на ключи. Сейчас — только на интенты и семантические ядра. Потому что алгоритмы (особенно Яндекс и Google) всё лучше понимают смысл, а не набор слов.
Например, если интент «сравнить», то статья должна содержать таблицы, плюсы и минусы.Если интент «купить» — нужны конкретные выгоды, цена, призыв к действию.Если «понять» — значит, должно быть объяснение простыми словами, примеры и графики.
Оптимизация теперь — это не про «вставить ключи», а про понять, что человек хотел найти. И если твой текст отвечает на этот запрос лучше других — алгоритм это увидит.
On-page SEO — основа, без которой ничего не работает
Я часто замечаю: владельцы сайтов гонятся за ссылками, закупают статьи, настраивают автоматизацию... а базовые вещи по On-page так и остаются «на потом». А ведь именно они дают тот самый быстрый, честный прирост позиций — без бюджета и танцев с бубном.
On-page SEO — это то, что мы можем контролировать на 100%: тайтлы, заголовки, структура, ключевые леммы, интенты и качество кода страницы.И если вы всё сделали правильно, даже небольшой сайт может выбиться в ТОП.
Продвинутая настройка — для тех, кто хочет чуть больше
- Использую Арсенкин или KeySo для анализа плотности лемм — они показывают, не «переспамлен» ли текст.
- Проверяю структуру с точки зрения интента: соответствует ли статья ожиданию пользователя. Например, если это запрос «купить SEO-аудит» — значит, должны быть цены, CTA и преимущества, а не «10 советов по оптимизации».
- Добавляю микроразметку (Schema.org) — контакты, отзывы, хлебные крошки.
- Проверяю, чтобы не было битых ссылок и пустых мета-тегов.
Оптимизация под ИИ — новый уровень SEO
Если честно, я долго относилась к ChatGPT и прочим «умным системам» с легким скепсисом. Пока не заметила, что пользователи начали приходить... из ответов ИИ.С тех пор я пересмотрела подход к оптимизации.
Сегодня поисковая выдача перестает быть единственной ареной борьбы за внимание. Контент индексируют и ИИ-системы — ChatGPT, Perplexity, Claude, Grok, Bing Copilot и другие. И они выбирают источники по своим принципам: скорость, смысловая точность, структура и доверие к сайту.
Как адаптировать сайт под ИИ
- Структура текстаИИ-алгоритмы читают контент не глазами, а как набор логических блоков.Поэтому заголовки (H2—H3) должны быть информативными и содержать смысл, а не просто «часть 1», «часть 2». Чем понятнее структура, тем выше шанс, что ИИ вытащит ваш фрагмент как цитату или ответ.
- Ясность и конкретикаЧем меньше воды, тем больше шансов попасть в "обучающую выборку«.Фразы типа «возможно, стоит попробовать» ИИ просто игнорирует.
- Формат ответовДобавляй короткие списки, цифры, чек-листы. ChatGPT и Perplexity обожают структурированный контент — им проще «цитировать» списки, чем длинные монологи.
- Экспертность и упоминания брендаИИ выбирает источники, на которые часто ссылаются или цитируют. Поэтому важно быть упомянутым в других текстах и медиа.Делай гостевые посты, участвуй в подборках — всё это помогает сформировать «обучающую сеть доверия».
- Оптимизация данных доверияУказывай реальные данные: имя, фото, соцсети, ссылки на другие публикации.Чем больше сигналов об авторстве, тем выше шанс, что ИИ «поймёт», кто ты и что за тобой стоит экспертность.
Что делать с точки зрения SEO-техники — будет в конце статьи!
Новые темы и кластеры
Когда ты уже укрепила основные направления, самое время искать новые точки роста — темы, под которые ещё нет страниц. Это не просто добавление контента ради контента. Это стратегия: «я вижу спрос — я создаю предложение».
Где искать идеи:
- Search Console → «Запросы с показами, но без кликов» — золото.Это те темы, по которым твой сайт уже мелькает, но не имеет релевантной страницы.
- Яндекс.Вебмастер → Анализ поисковых запросов.Иногда можно найти формулировки, о которых ты даже не думал.
- KeySo → раздел «Расширение ключевых слов».
Тотальное доминирование по теме
Есть момент, когда просто «быть в выдаче» уже недостаточно. Нужно большее — тотального присутствия.Чтобы человек забил в поиск, и на первой странице видел всё твоё: статью, видео, пост, гайд, а может, даже отзыв клиента.
Это и есть тематическое доминирование — когда ты не просто конкурируешь, а заполняешь всё пространство вокруг темы.
Что значит «тотальное доминирование»
Это не про один ТОП-1. Это когда:
- твоя основная статья в выдаче,
- видео на YouTube или VK Видео всплывает по тем же запросам,
- пост на Дзен или Telegram усиливает охват,
- обсуждение в комментариях или на форуме добавляет доверия,
- а ИИ-платформы вроде ChatGPT используют твой материал как источник.
Когда пользователь ищет ответ — он везде встречает тебя.Это не магия, а стратегия.
Почему это работает
Потому что алгоритмы уже не делят «контент» и "автора".Они видят экосистему смыслов.Когда ты говоришь об одном и том же — но с разных сторон и на разных платформах — у тебя формируется цифровая репутация эксперта.
Анализ конкурентов
Иногда, чтобы найти свою точку роста, достаточно просто... посмотреть по сторонам.Я обожаю этот этап: анализ конкурентов всегда открывает неожиданные идеи.
Не нужно копировать — нужно понимать логику, по которой они выигрывают.
Что я смотрю:
- Типы контента.Что у конкурентов в приоритете: статьи, видео, лендинги, чек-листы?Если они делают акцент на одном формате, я иду в соседний — там меньше шума.
- Ключевые слова и интенты.В KeySo можно увидеть, по каким темам они получают трафик. Часто у конкурента «проседает» целый кластер — и это твой шанс туда зайти.
- Ссылочный профиль.Через Ahrefs (если доступен) смотрю, откуда у них ссылки.Иногда один хороший гостевой пост даёт больше, чем десятки SEO-ссылок.
- Позиционирование.Как они «говорят» о себе — тон, подача, структура CTA.
Заключение
Если коротко:SEO-аудит — это не разовая проверка, а привычка держать руку на пульсе сайта.Алгоритмы меняются, тренды приходят и уходят, но суть остаётся:
- контент должен быть полезным,
- структура — логичной,
- а страница — быстрой и понятной.
Сейчас всё больше решает смысл. Не просто «ключевые слова», а то, насколько ты отвечаешь на вопрос человека и ИИ.
В моей практике часто выстреливает такое: Даешь клиенту не как раньше ТЗ на статьи с ключевыми словами, а просто находишь бомбические темы и он выходит в ТОП 10. Решает тема и ее подача, а не ТЗ (добавьте 1000 слов, следите за объемом а потом еще вот эти слова тоже добавьте).
И самое важное — мой новый чек-лист
После всех этих шагов у меня накопилось столько практики, что я собрала новый чек-лист из 68 пунктов — «Как точно попасть в ИИ-поиск». Это по сути алгоритм адаптации сайта под искусственный интеллект. Я отправлю его всем, кто поставит + в личке в ТГ, чтобы никого не пропустить.