Техническая оптимизация- стадии внутренней оптимизации

Внутренняя оптимизация сайта. Часть 1. Техническая оптимизация

Внутренняя оптимизация сайта

Внутренняя оптимизация затрагивает составляющие сайта: выстраивается логичная структура, устраняются технические ошибки, улучшается содержимое страниц (оно делается удобным как для поисковых систем, так и для людей).

Все работы по внутренней оптимизации можно условно разбить на 3 этапа:

  • Техническая оптимизация
  • SEO-оптимизация
  • Настройка коммерческих факторов.

В этой статье мы подробно ознакомимся с первым этапом- технической оптимизацией.

Техническая оптимизация сайта

Техническая оптимизация значительно влияет на ранжирование сайта поисковиками и на качество индексации. Одна маленькая ошибка может существенно замедлить продвижение.

Техническая оптимизация — это пошаговая проверка ресурса на ошибки. Процесс внутренней оптимизации стартует с технического аудита по специальному чек-листу. (найти чек лист и установить ссылку). Такая тщательная проверка дает понимание, готовы ли страницы к продвижению.

Проверка склейки зеркал

Зеркала — это копии сайта, которые доступны по разным адресам. Не выкинуть из песни слов, но www.leningrd.spb.ru для поисковой системы это то же самое, что и leningrad.spb.ru, и выберет он что-то одно. Чтобы поисковик выбрал тот адрес, которые по вашему мнению основной, необходимо отдать ему соответствующее распоряжение.

Поисковые системы плохо реагируют на точные копии сайта на разных доменах, поэтому каждый дубль должен быть выявлен и грамотно склеен с остальными. Склейка зеркал — это связывание нескольких доменов и настройка с них 301-го редиректа на основной ресурс.

Страница 404 ошибки

Ошибка 404 появляется тогда, когда посетитель сайта нажимает на ссылку, ведущую на несуществующую страницу. Пустая 404-я с надписью «Page not found»– прямая дорога к вылету с вашего сайта. Если не подсказать человеку, как поступить дальше, то он просто закроет страницу и уйдет на сайт ваших конкурентов. Это причина больших проблем с ранжированием.

В идеале шаблон 404-й ошибки должен быть выполнен в стиле остального сайта и давать возможность пользователю выйти на главную страницу, либо вернуться туда, где он кликнул по ссылке на несуществующую страницу. Чтобы сгладить углы здесь можно извиниться и пошутить.

Канонические адреса

Правильная настройка канонических страниц позволяет алгоритму поисковых систем ориентироваться в группах документов с похожим или дублированным содержимым. Атрибут rel= «canonical» указывает на адрес предпочтительной версии среди неуникальных страниц. Система индексирует только каноническую страницу, но при этом ссылочный вес и поведенческие факторы учитываются со всей группы.

Понятный для человека URL (ЧПУ)

Правильный URL каждой страницы подходит под каждое из следующих определений:

  1. Легко воспринимается человеком
  2. Содержит не более 110 символов
  3. Отражает логику вложенности документа.

Например, прочитав адрес https://imedia.studio/chto-takoe-tehnicheskaya-podderzhka-sajta/, пользователь поймет, что ссылка ведет на статью в блоге о технической поддержке сайта.

Понятный человеку URL-адрес хорошо распознают и поисковые роботы.

Хлебные крошки

Хлебные крошки — это строка навигации в верхней части страницы, показывающая путь между страницами. По этой цепочке посетитель сайта может без проблем вернуться в любой из недавно просмотренных разделов. Особенно хлебные крошки облегчают жизнь пользователям сайтов с глубокой вложенностью страниц: большим количеством разделов и подразделов, категорий товаров и др.

Легкая и логичная навигация- важный аспект внутренней оптимизации, так как она удерживает посетителей на сайте.

Файл robots.txt

Файл robots.txt — это своеобразная инструкция для поискового робота. В нем прописаны условия сканирования вашего ресурса краулерами:

  • Ограничения для индексации служебных и дублирующихся страниц с помощью директив Disallow (запретить) и Allow (разрешить);
  • Основное зеркало (директива Host:);
  • Ссылка на карту сайта xml;
  • Скорость обхода страниц.

В файле robots.txt с помощью директивы User-agent можно формировать руководство для всех поисковиков, в том числе отдельные для Яндекс и Google.

Файл sitemap.xml

Файл sitemap.xml– это своеобразное оглавление, где можно найти ссылки на каждую страницу сайта с указанием их приоритетности и даты последнего обновления. Корректная карта сайта в xml формате помогает значительно ускорить индексацию. Карта не должна содержать закрытых от индексации страниц, а ссылка на sitemap.xml размещается в файле robots.txt. лучше всего настраивать автоматическую генерацию карты xml на вашей CMS.

Настройка редиректов

Редирект — это переадресация с запрашиваемой страницы на другую. Если настройка произведена грамотно, то пользователь даже не заметит, что он оказался на другом адресе. Переадресация происходит быстро и незаметно. Редиректы используются под конкретные задачи, но некоторые из них могут показаться вредными с точки зрения поисковиков, которые могут наложить на сайт санкции.

Для оптимизации внутренних страниц сайта нужно настраивать 301 и 302 редиректы.

Валидация HTML-кода

Валидация — это проверка HTML-кода на соответствие принятым стандартам. Валидный документ не имеет замечаний по синтаксису, вложенности тегов и точности атрибутов. Качественный код служит гарантией тому, что ресурс будет отражаться корректно в разных браузерах и станет любимцем поисковых систем.

Дополнительные параметры технической оптимизации

  • Надежный хостинг, способный выдерживать высокую нагрузку
  • Отсутствие технических дублей страниц
  • Региональность. Нужна для ранжирования сайта по целевым региональным запросам
  • Отображение верстки сайта корректно во всех браузерах
  • Мобильная оптимизация. Сайты с адаптивной версией ранжируются выше не только в мобильной, но и в десктопной выдаче.

В следующей статье о внутренней оптимизации сайта мы расскажем о SEO-оптимизации.