Лучшие статьи и кейсы стартапов
Включить уведомления
Дадим сигнал, когда появится
что-то суперстоящее.
Спасибо, не надо
Вопросы Проекты Вакансии
Автоматическое продвижение сайтов
Рекомендуем
Продвинуть свой проект
Лучшие проекты за неделю
32
Битрикс24

Битрикс24

www.bitrix24.ru

23
Отследить-посылку

Отследить-посылку

B2B-сервис трекинга посылок

13
WebResidentTeam

WebResidentTeam

webresident.agency

13
Логомашина

Логомашина

logomachine.ru

12
Devicerra

Devicerra

devicerra.com

12
Perezvoni.com

Perezvoni.com

perezvoni.com

11
Expresso

Expresso

www.expresso.today

11
Reader

Reader

Интернет-журнал о современных технологиях.

9
ADN Digital Studio

ADN Digital Studio

adn.agency

9
Aword

Aword

Приложение для изучения английских слов

Показать следующие
Рейтинг проектов
Подписывайтесь на Спарк в Facebook

Как провести SEO-аудит вашего сайта: подробное руководство. Часть первая.

615 0 В избранное Сохранено
Авторизуйтесь
Вход с паролем

Вступление

Проведение SEO-аудита сайта — достаточно сложная задача. Нужно всесторонне изучить контент, структуру, технические особенности сайта и внешние факторы, влияющие на него, выявить слабые места, спланировать и реализовать необходимые доработки и улучшения, учитывая при этом принципы работы поисковых систем.
Проводить такой анализ и последующую оптимизацию нужно регулярно — например, раз в полгода — ведь поисковые алгоритмы постоянно совершенствуются, и многие тактики SEO со временем перестают работать.
Разумеется, самые высокие результаты SEO-аудита по-прежнему достижимы только при сотрудничестве с профессионалами, знающими тончайшие нюансы ранжирования сайтов. 

Подготовка к SEO-аудиту

Рекомендуем начать со сканирования сайта с помощью краулера — например, Screaming Frog SEO Spider или менее функционального Xenu’s Link Sleuth. Эти инструменты анализируют код, контент, внутренние и исходящие ссылки, изображения и другие элементы сайта с точки зрения SEO и позволяют составить общее представление о положении дел.
Вполне естественно воспользоваться возможностями стандартных сервисов поисковых систем — «Яндекс.Вебмастер» и Google Webmaster Tools («Инструменты для веб-мастеров»), они также предоставляют большое количество ценной информации.
После этой предварительной проверки можно переходить к более глубокому и всестороннему SEO-аудиту.

Внутренний SEO-аудит

Технический аудит

Robots.txt

Файл robots.txt по желанию размещается в корневой директории сайта и содержит инструкции по его индексированию для роботов поисковых систем.
С использованием различных директив robots.txt можно:
  • запретить или разрешить роботам индексировать некоторые разделы и страницы сайта или весь сайт целиком;
  • указать путь к карте сайта sitemaps.xml, способствующей правильному индексированию;
  • дать понять роботу, какое зеркало сайта — при наличии нескольких его копий — является главным, и какие зеркала индексировать не нужно;
  • снизить нагрузку на сайт от поисковых роботов, если в определенной ситуации необходимо экономить ресурсы.
При этом разные правила можно создавать для отдельных поисковых систем и даже для разных роботов одной и той же системы.
Используйте все возможности robots.txt. Убедитесь, что запрещено индексирование «секретных» областей сайта, страниц с контентом низкого качества и страниц-дубликатов. Проверьте, разрешен ли доступ ко всем областям сайта, которые должны быть проиндексированы поисковыми системами.
При анализе файла robots.txt вам помогут «Яндекс.Вебмастер», Google Webmaster Tools и другие сервисы.
Ранее мы писали и о других способах запрета на индексирование страниц сайта.

Указания для поисковых роботов в тэгах <meta>

Файл robots.txt, о котором шла речь в предыдущем разделе, очень удобен для создания правил поведения поисковых машин на вашем сайте. Но для еще более гибкого управления индексированием сайта и его отдельных страниц можно помещать директивы для поисковых роботов в тэгах <meta>. Таким способом можно разрешить или запретить роботам индексирование конкретных страниц и переход по размещенным на них ссылкам.

XML Sitemap

Файл Sitemap (карта сайта) добавляется в корневую директорию сайта и предоставляет поисковым системам информацию о том, какие страницы сайта должны быть проиндексированы, какие из них в первую очередь, как часто они обновляются. Робот не всегда способен сам отыскать все страницы сайта и правильно установить важность каждой из них по сравнению с другими — ему стоит дать четкие указания для обеспечения наиболее полного индексирования, особенно если вы занимаетесь оптимизацией интернет-магазина с большим количеством товаров или другого крупного сайта.
Если на сайте уже есть файл Sitemap (желательно в формате XML), то проверьте корректность его кода с помощью валидатора (такой инструмент есть, в частности, в сервисах для веб-мастеров от «Яндекса» и Google). Позаботьтесь также о том, чтобы файл Sitemap содержал не более 50 тыс. URL и весил не более 10 Мб. Если эти лимиты превышены, то придется создать несколько файлов Sitemap и один индексный файл Sitemap Index со списком всех карт.
Если карты сайта пока нет, создайте ее вручную или с помощью одного из множества инструментов (например, XML Sitemap и его аналогов, плагинов для WordPress и других распространенных движков; с большим списком инструментов можно ознакомиться на ресурсах Google).
После создания проанализируйте карту в валидаторе и сообщите поисковым системам о ее существовании через их сервисы для веб-мастеров, а также посредством добавления пути к Sitemap в файл robots.txt.

Оценка качества индексирования сайта

Команда site: обычно вводится в строке поисковых машин, чтобы ограничить зону поиска определенным доменом. Но эта команда позволяет также узнать приблизительное количество всех страниц сайта, которые были проиндексированы. Для этого просто введите site: c доменным именем без слов поискового запроса.
Сравните количество проиндексированных страниц с общим количеством страниц сайта, которое вы узнали на стадии создания sitemap.xml и сканирования сайта с помощью Screaming Frog, Xenu’s Link Sleuth или других инструментов.
Если оба числа почти одинаковы, значит сайт проиндексирован хорошо. Если проиндексированы не все страницы, то выясните причину — возможно, ваш сайт не оптимизирован для поисковых систем, имеет много закрытых от индексирования разделов и страниц или попал под санкции (в этом случае вам поможет руководство по выявлению санкций и их преодолению). Если же количество проиндексированных страниц значительно превосходит реальное их количество, то, вероятно, на вашем сайте есть много дублированного контента, о котором речь пойдет далее в этой статье.

Коды состояния HTTP

Код состояния HTTP содержится в первой строке ответа сервера при запросе к веб-странице и показывает ее текущее состояние. Необходимо установить, при обращении к каким URL сайта появляется сообщение об ошибке — обычно с кодом вида 4xx или 5xx. Например, широко известно: код 404 означает, что страница не найдена, а код 503 — что обнаружена внутренняя ошибка сервера. Код 200 говорит о том, что все работает хорошо.
Если на сайте используются перенаправления (редиректы) с одних URL на другие, то убедитесь, что это именно 301 редиректы, а не 302 и не перенаправления, прописанные в тегах <meta> или с помощью JavaScript.
Для проверки кодов состояния HTTP можно пользоваться различными сервисами — например, специальным инструментом от Monitor Backlinks или встроенными средствами «Яндекс.Вебмастер» и Google Webmaster Tools.

URL страниц сайта

Хороший URL страницы имеет длину не более 100-120 символов, состоит в основном из легкочитаемых слов (а не бессмысленного набора букв и цифр) и содержит ключевые слова, описывающие страницу. Все это способствует не только лучшему поисковому индексированию, но и повышению удобства для посетителей сайта.
Важно соблюдать и другие рекомендации SEO-специалистов: стараться избегать сложных адресов с параметрами и отдавать предпочтение статичным ссылкам, использовать для разделов в структуре сайта директории, а не субдомены, разделять отдельные слова в URL дефисами, а не знаками подчеркивания.
Остановимся подробнее на выборе между ссылками с параметрами и обычными ЧПУ. Поисковые системы умеют индексировать контент и c динамическими URL, но все же в случае со статичными URL процесс индексирования упрощается и ускоряется, и кроме того, у вас появляется возможность вставлять в URL ключевые слова, показывать посетителям сайта легкочитаемые и легкозапоминаемые ссылки, заранее дающие представление о содержании страницы, а такие ссылки обычно имеют более высокий CTR. Кстати, можно настроить конвертацию динамических URL в статичные на стороне сервера, однако эту задачу лучше поручить профессионалам.

Скорость загрузки сайта

Пользователи интернета нетерпеливы и быстро покидают сайты, которые медленно работают. Аналогично у поисковых систем есть определенный лимит времени на обработку каждого сайта, поэтому быстрые сайты индексируются тщательнее и за более короткий период времени.
Проанализируйте скорость загрузки сайта. Стоит постоянно применять для этого встроенные средства систем веб-аналитики (например, отчеты о времени загрузки страниц есть в Google Analytics и «Яндекс.Метрике»). А для наиболее полного анализа скорости можно использовать специализированные сервисы — Google PageSpeed Insights, YSlow и другие. Эти инструменты предлагают конкретные рекомендации по повышению скорости работы сайта.
Если сайт нуждается в ускорении, оптимизируйте изображения в графическом редакторе с помощью функции подготовки графики для публикации в интернете, сократите объем кода HTML и CSS, уберите лишний код JavaScript, разумно используйте сжатие, кэш браузера и сервера и осуществите другие необходимые действия.
Рекомендуем также ознакомиться с 20 основными факторами, замедляющими работу сайтов.

...Продолжение следует...
0
Добавить в избранное Сохранено
Авторизуйтесь
Вход с паролем
Комментариев еще не оставлено
Выбрать файл
Читайте далее
Загружаем…
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать