Тема №10

   

Техническая оптимизация сайта

 Техническая оптимизация сайта - это комплекс работ по настройке сайта, призванных исправить технические проблемы сайта. Цель работ - улучшение взаимодействия роботов поисковых систем с сайтом. Таким образом, мы позволяем роботам не отвлекаться на возможные проблемы и трудности с доступом к сайту, полностью переиндексировать сайт, определить его тематику, структуру, взаимосвязь отдельных частей друг с другом. На основании этого, с использованием иных факторов ранжирования, сайт займет свое место в выдаче поисковых систем.

Скорость доступа к сайту

Скорость работы сайта является одним из важнейших параметров SEO оптимизации и, соответственно, ранжирования в поисковых системах. Так сайты, которые работают быстрей и оптимизированы для мобильных устройств, будут ранжироваться лучше и привлекать больше посетителей. Как и все в SEO фактор «скорость работы сайта» тесно увязан со множеством других факторов. Очень важно уметь отслеживать и сокращать время, затраченное пользователем на доступ к сайту.

Битые страницы и ссылки

Битая ссылка - это гиперссылка на страницу, которая не существуют на сайте. Это указывает на то, что на сайте удалили или изменили URL страницы, но не скорректировали навигацию для посетителей. Битые ссылки бывают 2х типов - внутренние и внешние. Внутренние - ведущие на страницы в пределах существующего сайта. Внешние - ведущие на другие веб-ресурсы.

Дубли метатегов и тегов H1

Правильная настройка мета-тегов очень важна для SEO. Работы по заполнению, прописыванию, корректировке мета-тегов всегда выполняются при запуске проекта, сразу после того, как собрано семантическое ядро. И продолжаются по мере необходимости в течение всего периода продвижения сайта. Иногда достаточно лишь небольших изменений в метатегах, чтобы сайт вышел в ТОП10. 

Особенно это актуально для низкочастотных запросов, а также в тех случаях, когда сайт уже находится достаточно высоко по данному запросу (например, 11-15-я позиция в поисковой выдаче), и нужно совсем немного, чтобы выдвинуть его в ТОП. Зачастую под SEO-тегами подразумеваются Title, Description и Keywords.

Дубли контента

Дублированный контент - это одинаковый контент, найденный на двух или более страницах вашего сайта. Поисковые системы могут «наказывать» сайт, если обнаружат избытки дублирующегося содержимого.

Необходимо проводить анализ и сравнение страниц, начиная с главной, чтобы обнаружить наличие одинакового контента в разных блоках страницы.

 Необходимо различать дублированный контент (Duplicate Content)и общий контент (Common Content). Если первый - это прямые дубли текста на двух или нескольких страницах, то общий контент - это контент из шапки, сайдбара, футера. Стандартными решениями тут являются:

- Удаление дублированного контента, чтобы он отображался только на 1 странице

- Изменить содержимое на разных страницах, чтобы гарантировать уникальность каждой страницы.

Проблемы с организацией пагинации

Пагинация - это порядковая нумерация страниц, которая обычно находится вверху или внизу страниц сайта. Это типичная ошибка у большинства Интернет - магазинов и информационных сайтов со значительным объемом страниц.

 

Устранение ошибок в robots.txt

 Robots.txt - служебный файл, который находится в корневом каталоге сайта и необходим, чтобы указывать поисковым системам, как работать с вашим сайтом. Когда краулер приходит на хостинг, файл robots.txt является одним из первых документов, к которому он обращается.

Robots.txt в большинстве случаев используется для исключения дубликатов, служебных страниц, удаленных страниц и других ненужных страниц из индекса поисковых систем. Кроме того, именно через robots.txt можно указать ПС главное зеркало сайта и адрес карты сайта. В некоторых случаях к robots.txt прибегают для того, чтобы закрыть сайт от нежелательной поисковой системы. Правильное манипулирование robots.txt позволяет перенаправить бота ПС на нужные страницы, не разрешая создавать дубли контента, приводящие к понижению позиций.

Файл robots.txt должен располагаться строго в корне сайта, он должен быть единственным, число директив (команд) не должно превышать 1024. В соответствии со стандартом перед каждой директивой User-agent рекомендуется вставлять пустой перевод строки. Символ # предназначен для описания комментариев. Все, что находится после этого символа и до первого перевода строки не учитывается.

Типичными ошибками, наблюдаемыми у большинства сайтов являются следующие:

- Перепутанные инструкции

- Указание нескольких каталогов в одной инструкции disallow

- Имя файла содержит заглавные буквы

- Использование файла robot.txt вместо robots.txt

- Пустая строка в user-agent

- Зеркала сайта и URL в директиве Host

- Использование в Disallow символов подстановки

- Редирект на страницу 404-й ошибки

- Перечисление всех файлов

- Отсутствие инструкции Disallow

- Отсутствие слешей при указании директории

 - Неправильный HTTP-заголовок

- Логические ошибки

 

Устранение ошибок в sitemap.xml

Если основное предназначение robots.txt - это запрет индексации, то карта сайта sitemap.xml выполняет прямо противоположные задачи. Она отвечает за ускорение индексации сайта и полноту индексации сайта.

 Sitemap.xml указывает поисковой системе частоту, с которой возникает необходимость в переиндексации страниц. В этом плане инструкция особенно важна для сайтов с регулярно обновляющимся контентом (новостные порталы и т. п.). Кроме того, sitemap.xml содержит все важные страницы сайта с указанием их приоритета.

Общее число sitemap.xml на сайте не должно превышать 1000, при этом число записей (урлов) в каждом не должно превышать 50 000 штук.

Объем каждого сайтмапа - не более 10мегабайт Кодировка должна быть UTF-8. Инструкции sitemap.xml и robots.txt при правильном их использовании должны дополнять друг друга. Существуют три важнейших правила взаимодействия этих инструкций:

- sitemap.xml и robots.txt не должны противоречить друг другу;

- все страницы, исключенные (заблокированные) в robots.txt, должны быть исключены также из sitemap.xml;

- все индексируемые страницы, разрешенные в robots.txt, должны содержаться в sitemap.xml

Несоответствие sitemap.xml страницам сайта, устаревший сайтмап.

Эта проблема возникает, когда сайтмап генерируется не динамически, а эпизодически, запуском какой то службы в CMS, а то и стороннимисервисами. При этом возникает масса мертвых страниц, отдающих 404 ошибку (это если страницу физически удалили или перенесли в другое место, сменили адрес URL). Кроме того, новые страницы индексируются значительно медленнее, ибо не находятся в sitemap.xml. Следующая ошибка - неверная структура sitemap.xml.

Эта ошибка возникает, как правило, на «самописных» CMS или при использовании неверных плагинов к популярной CMS.

Модификация этой ошибки - неверная работа с датой изменения записи - поле <lastmod>. Необходимо или вовсе не использовать её (что плохо), либо ставить дату последнего значимого изменения страницы, например, когда поменялась цена или товар закончился или изменилось описание.

 Третья группа встречаемых ошибок - логические, вызваны нарушением трех правил о сочетании robots.txt и sitemap.xml.

Обязательно добавляйте сайтмапы в вебмастера и проверяйте их на серьезные ошибки.

Типичные технические ошибки

- Отсутствие служебных файлов .htaccess, robots.txt. и sitemap.xml

- Дублирование страниц и одинаковые метатеги на страницах.

- Не указано главное зеркало в robots.txt и в Google Search Console

- Не настроены 301 редиректы.

-Сайт или важные элементы сайта закрыты от индексации поисковыми системами

- Важные страницы сайта не попали в sitemap.xml

- Размещение более одного заголовка h1 на страницах сайта или его полное отсутствие.

- Активное выделение ключей тегами: strong, em, b и т.д.

- Полное или частичное дублирование контента на сайте

- Отсутствие ЧПУ

 

 

Сайт создан по технологии «Конструктор сайтов e-Publish»