Поисковое продвижение сайтов по Москве и другим городам. Результативно, надёжно и недорого!

телефон

8-904-9777-994

Ежедневно с 8-00 до 20-00

Чек-лист по технической оптимизации сайта

SEO продвижение — это кропотливый и долгий процесс, требующий времени и постоянного внимания. Можно сказать, что первые этапы внутренней оптимизации становятся фундаментом успеха внешней.

Техническая оптимизация страниц сайта — это целый комплекс работ, которые направлены на устранение имеющихся погрешностей и корректировку внутренних составляющих веб-ресурса.

Чек-лист основных ошибок.

Ошибки могут быть связаны со многими факторами. Наиболее распространенные из них:

  • проблемы, вызванные некачественным хостингом;
  • статус-код был неверно настроен;
  • внутренний код страницы нуждается в оптимизации;
  • неправильная настройка зеркал;
  • редиректы были использованы некорректно;
  • в файлах robots.txt и sitemap.xml допущены ошибки;
  • наличие дублей страниц;
  • обнаружены битые ссылки.
техническая оптимизация сайта

Ошибки хостинга

Рекомендуется начать СЕО-аудит сайта с проверки хостинг-сервиса. Поисковые системы периодически обходят ресурс для проверки его доступности и актуальности. Веб-ресурсы с проблемными хостинг-провайдерами через какое-то время могут быть исключены из списка ранжирования. Например, если робот ПС при посещении столкнулся с недоступностью главной страницы и получил ответ хостинга 404, то сайт будет исключен. Проще говоря: роботы рассматривают проекты с нестабильным хостингом как неактивные, недоступные или уже несуществующие.

Кроме частых проблем с подключением, у некачественного хостинга есть ряд других неблагоприятных факторов. Рассмотрим самые распространенные неприятности, связанные с хостингом.

Ошибка №1. Низкий аптайм.

аптайм

Аптайм — это время непрерывной работы. Проверить этот показатель можно в Яндекс.Вебмастере или при помощи схожих инструментов от Google. Отличным считается результат 99,98%.

В Яндекс.Вебмастере исчерпывающая информация обо всех подключениях находится в разделе «Индексирование сайта». Выбираем вкладку «История» и переходим к пункту «Количество запросов».

Ошибка №2. Долгий отклик сервера.

долгий отклик сервера

Поисковые системы и пользователи не любят долго ждать. При длительном ожидании отклика сервера они уходят выбирать более быстрый ресурс.

Чем быстрее посетители смогут получить доступ к информации, тем лучше. Снизится вероятность того, что гости не дождутся загрузки ресурса и покинут его. Время отклика измеряется в миллисекундах (ms). Отличная скорость загрузки составляет 20 ms, а критическая 200 ms.

Как и аптайм, инструмент по проверке ответа сервера можно найти в Яндекс.Вебмастере.

Ошибка №3. Спам-листы.

IP-сервер хостинга может находиться в спам-листах почтовых серверов. В этом случае владелец проекта не сможет корректно связываться с посетителями через анкеты обратной связи. Иными словами: из-за спам-листа заполненная форма связи просто не дойдет до адресата.

Помехи такого рода могут нанести ущерб не только торговле, но и успешному ранжированию.

В зависимости от вопроса, проблемы с хостингом могут быть решены тремя способами: написать или позвонить в службу поддержки хостинг-провайдера, чтобы компания помогла устранить возникшие проблемы; обратиться к опытному программисту для оптимизации кода; сменить хостинг-провайдер.

Статус-код неверно настроен

Статус-код — это автоматическое цифровое сообщение о состоянии страницы. Считывая его, поисковая система узнает о существовании конкретной страницы, переадресациях, ошибках и т.д.

В зависимости от первой цифры в названии, существует несколько разновидностей статус-кодов:

  • о передаче данных говорят сообщения с названием 1**;
  • об успешности работы ресурса можно узнать из кодов с названием 2**;
  • информация о редиректах и переадресациях зашифрована в кодах с именем 3**;
  • статус-код 4** уведомляет о невозможности работы страницы со стороны пользователя;
  • на ошибки со стороны сервера указывают коды с наименованием 5**.

ТОП-10 самых распространенных названий статус-кодов

200 — поисковик благополучно открыл страницу и изучает ее. В дальнейшем робот будет посещать и индексировать страницы только с этим статус-кодом.

ошибки сервера

301 — вечное перенаправление. Роботу становится известно, что конкретной страницы больше не существует, но он может найти аналог по указанной ссылке. При переносе страниц и переезде на другой домен рекомендуем обязательно использовать 301 статус-код! В этом случае сервис сохранит достигнутые позиции в ТОПе, а поисковик будет четко понимать куда “переехал” сайт.

302 сообщит о временном редиректе. Поисковик поймет, что на данный момент страница по определенным причинам недоступна, но вскоре восстановит свою работу.

Все продвинутые пользователи интернета знают, что ошибка 404 и одноименный статус-код говорит об удалении искомой страницы. Через какое-то время поисковые системы перестанут ее индексировать.

410 — страница либо недоступна, либо удалена. Вскоре поисковики исключат ее из списка индексируемых.

При некорректной работе ресурса и внутренних ошибках появляется сообщение 500. 503 статус-код сообщает о временных технических неполадках. Не имеет смысла писать оптимизированные тексты и добавлять уникальные изображения, если роботы поисковых систем просто-напросто не смогут увидеть этот контент.

Некорректный статус-код — это одна из главных причин, по которым Google и Яндекс перестанут посещать ресурс. Старайтесь как можно чаще контролировать их исправность. Рекомендуемая частота проверок не должна быть реже 1 раза в 2 месяца. Лучше, если с такой периодичностью будет проводиться расширенный технический аудит сайта.

Как и в других случаях, для контроля состояния статус-кодов можно использовать инструмент “Проверка ответа сервера” от Яндекс.Вебмастера.

Неоптимизированный код страницы

Оптимизация кода страницы — это комплекс действий, направленных на сокращение его длины и устранение текущих технических ошибок.

Чем короче и проще код, — тем быстрее и корректнее ресурс отображается в разных браузерах. Этот фактор учитывается поисковыми системами при ранжировании. Если вы обнаружили ошибки валидности кода при проверке и успешно их устранили, но позиции ресурса после апдейтов не улучшились-обратитесь к нам! Проведем аудит вашего ресурса и поможем с раскруткой сайта в сети по нужным поисковым запросам. Обращайтесь!

код страницы

Рассмотрим подробнее код head. В первую очередь поисковые роботы Яндекс и Google обращают свое внимание на него. Здесь не должно быть ничего лишнего! Базовыми составляющими этой части являются: title, keywords, description.

Код головы, который остро нуждается в оптимизации, содержит много частиц CSS и JavaScript. Иногда разработчики скрывают весь этот мусор от индексации при помощи тегов noindex или средствами CSS-форматирования. Google не воспринимает эти теги, а CSS-форматирование раздражает любой поисковик хуже спама. Лишние теги должны быть удалены.

Существуют мировые стандарты исходного кода World Wide Web Consortium (W3C), которые регулируют валидность всего портала. Достичь полного соответствия ресурса этим стандартам слишком сложно, но и игнорировать их категорически нельзя. Проверить валидность сайта, отдельных его страниц или файлов можно при помощи сервиса Markup Validation Service. Инструмент не только отметит ошибки, но и даст рекомендации по разрешению всех несоответствий.

Ошибки в настройке зеркал

Зеркало на языке вебмастера — это копия сайта с другим доменным именем. Их создают для исключения перегруженности основного сервера. Поисковыми системами учитывается только главное зеркало. Дубли не ранжируются.

Если неверно обозначить основное зеркало или допустить ошибки в настройках, то могут быть большие проблемы с корректной индексацией.

Информация о главном зеркале будет передана правильно, если в файле robots.txt правильно прописана директива Host.

Дубли страниц и контента

Дублями можно назвать страницы одного сайта, которые полностью или частично совпадают между собой. Кстати, по причине дублей также хуже ранжируются сайты компаний, у которых их несколько. Контент на проекте должен быть уникальным, но в тоже время текст не переоптимизированным. За это можно получить фильтр Баден-Баден, который борется с переоптимизированными веб-страницами.

Причины возникновения проблемы могут быть разными: технические недоработки, несовершенная CMS, намеренное создание копий страниц для печати и т.д.

Способы выявления дублей:

  • Откройте расширенный поиск Яндекса и укажите в строке поиска текст искомой страницы, затем обозначьте в графе «На сайте» адрес нужного ресурса. Несколько результатов в выдаче подтвердит наличие дублей.
  • Провести те же манипуляции с Google.
  • Перейдите в сервис «Инструменты для веб-мастеров» (вкладка «Оптимизация HTML», раздел «Вид в поиске»). Пункт «Повторяющееся мета-описание» поможет понять какие страницы нуждаются в срочной корректировке.
  • Провести доработку и закрыть дубли от индексации можно следующим образом. Открыть файл robots.txt и добавить в него директиву Disallow, где будут указаны все выявленные дубли.

Внешние и битые ссылки

Любые ссылки имеют огромное значение для ранжирования ресурса. Они могут как повысить сайт в поисковой выдаче, так и способствовать его блокировке поисковыми системами. Например, если вебмастер продвигает сайт с помощью покупки внешней ссылочной массы, то ресурс может попасть под фильтр «Минусинск» и ранжирование будет существенно снижено. Это приведет к падению трафика.

Битой считается ссылка, которая ведет пользователя на несуществующую страницу, изображение или документ. Поисковые роботы расценивают наличие таких ссылок на сайте как полное равнодушие к его посетителям.

Устранить причины возникновения таких ссылок бывает сложно, но проверять ресурс на их наличие необходимо. Это позволит быстро устранить возникшую проблему. Провести проверку можно в Яндекс.Вебмастере или «Инструментах для веб-мастеров» Google.

Постарайтесь восстановить контент на нерабочих страницах, либо удалите ссылки на них.

Чем больше на сайте внешних ссылок, тем хуже для его поискового продвижения. Старайтесь оперативно отслеживать их и скрывать от индексации.

Выявить открытые внешние беклинки можно при помощи плагина для браузера RDS Bar или сервиса Ahrefs. Запретить роботам поисковых систем проходить по внешним ссылкам можно, если прописать атрибут rel=»nofollow» на странице, где они размещены.

Некорректный sitemap.xml

Карта сайта или sitemap.xml содержит ссылки на все страницы сайта, которые будут проиндексированы роботами поисковых систем. Файл является своего рода путеводителем по ресурсу для поискового робота.

Составить sitemap.xml можно при помощи автоматизированных сервисов. XML-Sitemaps.com предназначен для небольших проектов (менее 500 страниц), а SitemapGenerator поможет сгенерировать карту ресурсов до 2000 страниц. Для более крупных сайтов, как правило, пишется специальный программный модуль. Он автоматически генерирует XML-карту. Также можно воспользоваться плагином для CMS.

Ни один сайт не застрахован от возникновения технических неполадок, которые могут нанести ему серьезный урон. Все указанные этапы необходимо время от времени повторять. Ситуация меняется по мере появления на сайте новых страниц или изменения старых.

Если времени и ресурсов для качественного решения вопроса недостаточно, рекомендуем обратиться к техническим профессионалам.