Технический аудит сайта своими руками: основные моменты

powerseoТехнический SEO-аудит представляет собой проверку сайта на наличие внутренних ошибок – битых ссылок, неиндексируемых страниц, ошибок в html-коде сайта и т.д., – а также их исправление. Помимо оптимизации работы сайта и его продвижения вверх в поисковых системах исправление внутренних ошибок позитивно скажется на оценке сайта посетителями.

Инструментарий и основные направления самостоятельного техаудита сайта

Провести технический аудит сайта можно самостоятельно, прибегнув к помощи различного инструментария, размещенного в сети в свободном доступе: панели вебмастеров Яндекса и Google, WebDeveloperToolbar, Firebug, XenuLink, Sleuth, ScreamingFrogSEOSpider, SiteAuditor и другие.

В ходе проведения технического аудита основное внимание необходимо обратить на следующие направления повышения эффективности работы сайта:

  • скорость загрузки веб-страниц;
  • наличие ошибок в html-коде;
  • правильная настройка карты сайта;
  • индексируемость страниц и файл robots.txt;
  • наличие ошибок http;
  • наличие битых ссылок;
  • оптимизация страниц.

Порядок проведения техаудита сайта

На первом этапе проведения технического аудита выполняется проверка скорости загрузки страниц сайта. Низким показателем этого параметра будет считаться, если время загрузки страницы больше пяти секунд.

Долгая загрузка может быть вызвана чрезмерной перегруженностью сайта медиафайлами – видеоролики, изображения, анимация. В сети представлено большое количество бесплатных сервисов проверки скорости загрузки страниц, например – http://developers.google.com/speed/pagespeed/insights или Pr-cy.ru.

Желательно, чтобы сайт имел чистый html-код. Проверку валидности html-кода можно выполнить при помощи сервиса http://validator.w3.org, где в строке Address необходимо ввести адрес проверяемой страницы. Выявленные ошибки будут выделены красным цветом.

chrome15

Карта сайта служит путеводителем для поисковых роботов, указывая им на обновленные страницы, а также на то, какие страницы следует исследовать. От ее наличия и правильной настройки зависит скорая и корректная индексация страниц.

Для этого файл sitemap.xml следует добавить в сервисы вебмастеров поисковых систем и периодически его обновлять. Проверить наличие такого файла можно, добавив к адресу сайта /sitemap.xml:. Создать карту сайта, проверить ее валидность и провести диагностику ошибок можно, воспользовавшись, к примеру, сервисом www.mysitemapgenerator.com (возможность бесплатного создания карты сайта до 500 страниц, больше – необходимо уплатить указанную на сервисе сумму) или же http://sitemapgenerator.ru.

Файл robots.txt содержится в корневом каталоге сайта. Он представляет собой текстовый документ, содержащий инструкции для работы поисковых роботов:

  • какие страницы следует индексировать, а какие – нет;
  • временной интервал индексации страниц и т. д.
d0bdd0b0d181d182d180d0bed0b9d0bad0b0-d184d0b0d0b9d0bbd0b0-robotstxt

В документе должен быть указан путь к карте сайта. Создать файл robots.txt можно при помощи сервиса генерации pr-cy.ru/robots. А провести его анализ и редактирование поможет, к примеру, Яндекс.Вебмастер.

Качество индексации страниц можно проверить, вписав перед адресом сайта команду site: в этом случае поиск будет ограничен только указанным сайтом. При сравнении фактического количества страниц с просканированными, можно получить такие результаты:

  • количество выданных поисковиком страниц и их реальное количество примерно одинаково – качество индексации хорошее;
  • выданных поисковиком страниц больше – наличие дублированного контента;
  • выданных поисковиком страниц меньше – наличие закрытых для поиска страниц, сайт не оптимизирован, сайт попал под фильтр поисковых систем.

Проверка сайта на наличие ошибок может быть проведена при помощи сервиса HTTP Header Status Checker. Исправлению подлежат ошибки:

  • 404 – не удается найти веб-страницу;
  • 500 – веб-узел не может отобразить страницу;
  • 503 – сервер временно перегружен и т. д.

Ссылки, при переходе на которые выдается ошибка 404, являются битыми и должны быть удалены. Поиск битых ссылок на сайте производится при помощи панели вебмастеров или же можно воспользоваться, к примеру, сервисом  Broken Link Checker.

0

К самим же страницам предъявляются требования уникальности контента, оптимизации URL-адресов и заголовков, структурированности и технического оформления.

На заметку: Если вы хотите купить качественный сервер Dell T430, тогда советуем вам посетить интернет-магазин www.dellparts.ru. Здесь вы найдете качественное серверное оборудование. Добро пожаловать!

Похожие статьи:
Чтобы тот или иной интернет-ресурс занимал лидирующие строки в поисковых системах, требуется сделать этот ресурс максимально...
Каждому человеку известно, что реклама является двигателем торговли, причем во всех ее сферах, включая услуги. Например,...
Владельцы интернет-ресурсов часто сомневаются по поводу аудита своего поприща, а все потому, что стоимость такого рода...
Для лучшего роста дерева, разумеется, требуется достаточное количество солнца. И какое же дерево его получит больше:...
Аудит веб-сайтов выполняется с той целью, чтобы выявить эффективность того или иного сайта. То есть, при такой...
Яндекс.Метрика