Лучшие статьи и кейсы стартапов
Включить уведомления
Дадим сигнал, когда появится
что-то суперстоящее.
Спасибо, не надо
Вопросы Проекты Вакансии
Автоматическое продвижение сайтов
Рекомендуем
Продвинуть свой проект
Лучшие проекты за неделю
31
Эбиа

Эбиа

www.ebia.ru

16
Enlite

Enlite

enlited.ru

16
Amarket

Amarket

amarket.io

13
likearea

likearea

smm.li

12
RockinRobin

RockinRobin

www.rockinrobin.co

11
Perezvoni.com

Perezvoni.com

perezvoni.com

10
Cookiezz

Cookiezz

cookiezz.com.ua

10
Битрикс24

Битрикс24

www.bitrix24.ru

10
MuWID

MuWID

muwid.ru

Показать следующие
Рейтинг проектов
Подписывайтесь на Спарк в Facebook

Как провести SEO-аудит вашего сайта: подробное руководство. Часть первая.

617 0 В избранное Сохранено
Авторизуйтесь
Вход с паролем

Вступление

Проведение SEO-аудита сайта — достаточно сложная задача. Нужно всесторонне изучить контент, структуру, технические особенности сайта и внешние факторы, влияющие на него, выявить слабые места, спланировать и реализовать необходимые доработки и улучшения, учитывая при этом принципы работы поисковых систем.
Проводить такой анализ и последующую оптимизацию нужно регулярно — например, раз в полгода — ведь поисковые алгоритмы постоянно совершенствуются, и многие тактики SEO со временем перестают работать.
Разумеется, самые высокие результаты SEO-аудита по-прежнему достижимы только при сотрудничестве с профессионалами, знающими тончайшие нюансы ранжирования сайтов. 

Подготовка к SEO-аудиту

Рекомендуем начать со сканирования сайта с помощью краулера — например, Screaming Frog SEO Spider или менее функционального Xenu’s Link Sleuth. Эти инструменты анализируют код, контент, внутренние и исходящие ссылки, изображения и другие элементы сайта с точки зрения SEO и позволяют составить общее представление о положении дел.
Вполне естественно воспользоваться возможностями стандартных сервисов поисковых систем — «Яндекс.Вебмастер» и Google Webmaster Tools («Инструменты для веб-мастеров»), они также предоставляют большое количество ценной информации.
После этой предварительной проверки можно переходить к более глубокому и всестороннему SEO-аудиту.

Внутренний SEO-аудит

Технический аудит

Robots.txt

Файл robots.txt по желанию размещается в корневой директории сайта и содержит инструкции по его индексированию для роботов поисковых систем.
С использованием различных директив robots.txt можно:
  • запретить или разрешить роботам индексировать некоторые разделы и страницы сайта или весь сайт целиком;
  • указать путь к карте сайта sitemaps.xml, способствующей правильному индексированию;
  • дать понять роботу, какое зеркало сайта — при наличии нескольких его копий — является главным, и какие зеркала индексировать не нужно;
  • снизить нагрузку на сайт от поисковых роботов, если в определенной ситуации необходимо экономить ресурсы.
При этом разные правила можно создавать для отдельных поисковых систем и даже для разных роботов одной и той же системы.
Используйте все возможности robots.txt. Убедитесь, что запрещено индексирование «секретных» областей сайта, страниц с контентом низкого качества и страниц-дубликатов. Проверьте, разрешен ли доступ ко всем областям сайта, которые должны быть проиндексированы поисковыми системами.
При анализе файла robots.txt вам помогут «Яндекс.Вебмастер», Google Webmaster Tools и другие сервисы.
Ранее мы писали и о других способах запрета на индексирование страниц сайта.

Указания для поисковых роботов в тэгах <meta>

Файл robots.txt, о котором шла речь в предыдущем разделе, очень удобен для создания правил поведения поисковых машин на вашем сайте. Но для еще более гибкого управления индексированием сайта и его отдельных страниц можно помещать директивы для поисковых роботов в тэгах <meta>. Таким способом можно разрешить или запретить роботам индексирование конкретных страниц и переход по размещенным на них ссылкам.

XML Sitemap

Файл Sitemap (карта сайта) добавляется в корневую директорию сайта и предоставляет поисковым системам информацию о том, какие страницы сайта должны быть проиндексированы, какие из них в первую очередь, как часто они обновляются. Робот не всегда способен сам отыскать все страницы сайта и правильно установить важность каждой из них по сравнению с другими — ему стоит дать четкие указания для обеспечения наиболее полного индексирования, особенно если вы занимаетесь оптимизацией интернет-магазина с большим количеством товаров или другого крупного сайта.
Если на сайте уже есть файл Sitemap (желательно в формате XML), то проверьте корректность его кода с помощью валидатора (такой инструмент есть, в частности, в сервисах для веб-мастеров от «Яндекса» и Google). Позаботьтесь также о том, чтобы файл Sitemap содержал не более 50 тыс. URL и весил не более 10 Мб. Если эти лимиты превышены, то придется создать несколько файлов Sitemap и один индексный файл Sitemap Index со списком всех карт.
Если карты сайта пока нет, создайте ее вручную или с помощью одного из множества инструментов (например, XML Sitemap и его аналогов, плагинов для WordPress и других распространенных движков; с большим списком инструментов можно ознакомиться на ресурсах Google).
После создания проанализируйте карту в валидаторе и сообщите поисковым системам о ее существовании через их сервисы для веб-мастеров, а также посредством добавления пути к Sitemap в файл robots.txt.

Оценка качества индексирования сайта

Команда site: обычно вводится в строке поисковых машин, чтобы ограничить зону поиска определенным доменом. Но эта команда позволяет также узнать приблизительное количество всех страниц сайта, которые были проиндексированы. Для этого просто введите site: c доменным именем без слов поискового запроса.
Сравните количество проиндексированных страниц с общим количеством страниц сайта, которое вы узнали на стадии создания sitemap.xml и сканирования сайта с помощью Screaming Frog, Xenu’s Link Sleuth или других инструментов.
Если оба числа почти одинаковы, значит сайт проиндексирован хорошо. Если проиндексированы не все страницы, то выясните причину — возможно, ваш сайт не оптимизирован для поисковых систем, имеет много закрытых от индексирования разделов и страниц или попал под санкции (в этом случае вам поможет руководство по выявлению санкций и их преодолению). Если же количество проиндексированных страниц значительно превосходит реальное их количество, то, вероятно, на вашем сайте есть много дублированного контента, о котором речь пойдет далее в этой статье.

Коды состояния HTTP

Код состояния HTTP содержится в первой строке ответа сервера при запросе к веб-странице и показывает ее текущее состояние. Необходимо установить, при обращении к каким URL сайта появляется сообщение об ошибке — обычно с кодом вида 4xx или 5xx. Например, широко известно: код 404 означает, что страница не найдена, а код 503 — что обнаружена внутренняя ошибка сервера. Код 200 говорит о том, что все работает хорошо.
Если на сайте используются перенаправления (редиректы) с одних URL на другие, то убедитесь, что это именно 301 редиректы, а не 302 и не перенаправления, прописанные в тегах <meta> или с помощью JavaScript.
Для проверки кодов состояния HTTP можно пользоваться различными сервисами — например, специальным инструментом от Monitor Backlinks или встроенными средствами «Яндекс.Вебмастер» и Google Webmaster Tools.

URL страниц сайта

Хороший URL страницы имеет длину не более 100-120 символов, состоит в основном из легкочитаемых слов (а не бессмысленного набора букв и цифр) и содержит ключевые слова, описывающие страницу. Все это способствует не только лучшему поисковому индексированию, но и повышению удобства для посетителей сайта.
Важно соблюдать и другие рекомендации SEO-специалистов: стараться избегать сложных адресов с параметрами и отдавать предпочтение статичным ссылкам, использовать для разделов в структуре сайта директории, а не субдомены, разделять отдельные слова в URL дефисами, а не знаками подчеркивания.
Остановимся подробнее на выборе между ссылками с параметрами и обычными ЧПУ. Поисковые системы умеют индексировать контент и c динамическими URL, но все же в случае со статичными URL процесс индексирования упрощается и ускоряется, и кроме того, у вас появляется возможность вставлять в URL ключевые слова, показывать посетителям сайта легкочитаемые и легкозапоминаемые ссылки, заранее дающие представление о содержании страницы, а такие ссылки обычно имеют более высокий CTR. Кстати, можно настроить конвертацию динамических URL в статичные на стороне сервера, однако эту задачу лучше поручить профессионалам.

Скорость загрузки сайта

Пользователи интернета нетерпеливы и быстро покидают сайты, которые медленно работают. Аналогично у поисковых систем есть определенный лимит времени на обработку каждого сайта, поэтому быстрые сайты индексируются тщательнее и за более короткий период времени.
Проанализируйте скорость загрузки сайта. Стоит постоянно применять для этого встроенные средства систем веб-аналитики (например, отчеты о времени загрузки страниц есть в Google Analytics и «Яндекс.Метрике»). А для наиболее полного анализа скорости можно использовать специализированные сервисы — Google PageSpeed Insights, YSlow и другие. Эти инструменты предлагают конкретные рекомендации по повышению скорости работы сайта.
Если сайт нуждается в ускорении, оптимизируйте изображения в графическом редакторе с помощью функции подготовки графики для публикации в интернете, сократите объем кода HTML и CSS, уберите лишний код JavaScript, разумно используйте сжатие, кэш браузера и сервера и осуществите другие необходимые действия.
Рекомендуем также ознакомиться с 20 основными факторами, замедляющими работу сайтов.

...Продолжение следует...
0
Добавить в избранное Сохранено
Авторизуйтесь
Вход с паролем
Комментариев еще не оставлено
Выбрать файл
Читайте далее
Загружаем…
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать