С одной стороны, возможность поиска по сайту и фильтрации собранного материала по определенным критериям, является очень полезной для пользователя и влияет на поведенческие факторы и уровень удовлетворенности. Однако, многие новички не знают о том, что большинство результатов работы такой функции сохраняются на определенной странице, которая имеет динамический, постоянной изменяющийся адрес. Обратите внимание на то, что на такой странице часто встречаются участки текста, которые собраны со всего сайта. Постоянно меняющийся URL страницы приводит к тому, что поисковой робот распознает его как большое количество дублированных страниц. Избежать при таких условиях санкций со стороны поисковой системы достаточно сложно.
Одна из отличительных черт проблемы дублей, автоматически создаваемых при помощи функции фильтрации и поиска – страницы, которые будут продублированы, выбираются очень непредсказуемо.
Для того, чтобы справиться с такого рода дублями, веб-мастеру придется постараться. Важно понимать, что при работе с сайтом, вам придется регулярно отслеживать появляющиеся дубли – провести одну чистку недостаточно. Чтобы определить, появились ли на сайте дубли, непременно обращайте внимание на страницы, которые попадают в индекс. Возьмите за правило проводить проверки регулярно, особенно в том случае, если ведете сайт с большим количеством контента. Одна-две проверки в месяц должны стать для вас нормой.
После того, как вы провели анализ адресов страниц, которые попадают в индекс с вашего сайта, мы советуем выполнить следующие действия:
- Провести анализ параметров, которые ранее были определены со специальными инструментами поисковых систем.
- Отсортировать параметры, которые характеризуют дублирующиеся страницы и указать поисковику на необходимость пропустить их при проведении индексации. Для Google стоит использовать инструментарий Google Webmaster, для Яндекса - robots.txt.
- Проверьте, присутствуют ли на вашем сайте метатеги и адреса, которые одинаковы, но параметры в них переставлены. Все выявленные дубли также закрываются для индексации.
В работе имеет очень большое значение определение правильного источника появления дублей. Нередко работать приходится в тандеме с программистом, для которого в будущем пишется техническое задание на пересмотр самой структуры сайта. Также специалисты должны поработать и с алгоритмом, по которому формируется адрес той или иной страницы.
Здесь мы должны сразу отметить, что, несмотря на проблемы, которые могут возникнуть с использованием фильтров и поисковых функций на вашем сайте, отказываться от этих функций не стоит. Сайт без поиска и фильтра может стать неудобным для пользователя, особенно это актуально в том случае, если вы работает с крупными каталогами и интернет-магазинами. Просто регулярно проводите проверки и доработки – тогда проблема дублирующихся страниц перестанет вас беспокоить.