Содержание:
- Дубли страниц
- Меню на JavaScript
- Title, description, keywords
- Битые ссылки
- Лишние разделы
- Длинные URL
Для поисковых систем каждый сайт представляет собой совокупность документов, объединенных в определенную структуру, где каждый URL соответствует отдельной странице со своим названием и содержанием. Построение правильной структуры сайта существенно упростит навигацию пользователям и поисковым роботам. В этом деле важно избежать наиболее распространенных ошибок.
Дубли страниц
Чаще всего причиной возникновения данной проблемы являются недостатки системы управления сайта (CMS), которая автоматически копирует одну и ту же страницу. Поисковая система обнаруживает множество идентичных страниц, но не может понять какая из них оригинал, а какие возникли в результате ошибки. Бывает, что ситуация усугубляется наличием внешних и внутренних ссылок, ведущих на дубли с разными адресами. В итоге, алгоритм поисковика просто не способен определить релевантность изложенной информации, ее тематику и статический вес страниц. В случаях, когда число копий слишком велико, ресурс подвергается пессимизации и теряет занимаемые позиции в выдаче по запросам.
Чтобы избежать этого, нужно через robots.txt запретить индексацию найденных дублей, указать в атрибуте rel="canonical" основную страницу и настроить 301 редирект, перенаправив пользователей на нее. Но все же лучше при помощи программных средств избегать самого появления копий.
Бывают случаи, когда дублируется контент или его отдельные части. Это не критично, но желательно не допускать такого.
Меню на JavaScript
Алгоритмы поисковых систем до сих пор плохо взаимодействуют со скриптами. Поэтому рекомендуется продублировать скриптованное меню обычными ссылками. Если это проигнорировать, то у поисковиков вполне могут возникнуть трудности с пониманием структуры ресурса. Данные о уровнях вложенности и внутренней перелинковке будут отмечены как неизвестные, либо получатся неправильные и искаженные значения.
Часть скриптов подгружает ссылки для пунктов меню непосредственно из кода. Другими словами, в коде каждой страницы содержится блок с большим количеством внутренних ссылок. Хорошим данный способ назвать нельзя, ведь в таком случае поисковые роботы видят ссылки, но не могут понять, как работает меню. В итоге – понижение ресурса в рейтинге.
Title, description, keywords
Отсутствие title (заголовок html-документа) многие веб-мастера относят к грубейшим ошибкам. Считается, что это может быть одной из причин наложения санкций поисковыми системами.
Еще одной проблемой является возникновение дублей title, description, keywords. Появляются они при невнимательном заполнении данных. Данные метатеги должны быть уникальными. Для этого к title и description можно добавить номер страницы, а keywords на сегодняшний день утратил свое значение, его заполнять и вовсе необязательно.
Битые ссылки
Кликнув по битой ссылке, пользователь получает сообщение, что данная страница не найдена. Основные причины их появления – это удаление старых страниц и изменения структуры стороннего ресурса, на который ссылаются.
Необходимо избегать битых ссылок на своем сайте, для этого нужно периодически проверять его и устранять обнаруженные.
Лишние разделы
Наличие разделов или страниц, на которые отсутствуют ссылки с главной страницы чаще всего свидетельствует о проблемах с ресурсом. Это может быть как банальная недоработка и неумение построить навигацию, так и взлом.
Длинные URL
Основная причина возникновения – высокая вложенность категорий, когда образование URL происходит путем автоматической транслитерации их названий. Чаще всего эта проблема возникает у интернет-магазинов. Чтобы ее устранить, нужно вместо полного названия категории использовать одно слово-два слова или их сокращения и по возможности сократить количество вложенных подкатегорий.
Добавить комментарий