Главная / Техническая оптимизация / Поиск и устранение дублей на сайте

Поиск и устранение дублей на сайте

Шпаргалка — как поступать с дублями

Дубли на сайте — несколько страниц, которые содержат одинаковый(похожий) текстовый контент. Одна и та же страница, доступная по нескольким адресам.

Опасность дублей

Смена релевантной страницы — могут упасть позиции по запросам этой страницы

Обход дублирующих страниц — робот не проиндексирует нужные страницы

Трудности в сборе статистики

Поиск дублей

Через Яндекс вебмастер

  • Cтраницы в поиске — исключенные страницы — в фильтре выбираем сортировку
  • Статистика обхода — сортировка по 200 коду-смотрим какие страницы робот посещает

Устранение дублей

Примеры дублей:

    • Сайт доступен по двум адресам

site.ru/page
site.ru/page/

Что делаем: 301 перенаправление

    • Один и тот же товар в двух разных категориях

site.ru/телефон/samsung
site.ru/samsung

что делаем: rel=»canonical» тега

    • Версия для печати

site.ru/samsung/video/321
site.ru/node_print.php?nid=321

что делаем: Запрещаем в robots.txt
Disallow:/node_print.php

    • Параметры в url, которые не меняют контент страницы

site.ru/page1
site.ru/page1?utm_source=adv
site.ru/page?sid=e0492854

что делаем:
Clean-param в robots.txt
Clean-param: sid&utm_source (страницы по чистым адресам будут в поиске)

или
Запрет в robots.txt (страницы по чистым адресам НЕ будут в поиске)
Disallow:*utm_*
Disallow:»sid=»

    • Страницы действий

site.ru/page?add_basket=yes
site.ru/page?add_compare=list

что делаем:
Запрет в robots.txt
Disallow:»add_basket=»


или
Disallow:»?»

    • Похожие товары

что делаем: все похожие товары на одном URL, установить селектор
если нет возможности, на каждой странице пишем оригинальное описание(для похожих торваров), служебный контент закрыть в noindex

    • Страницы фильтров и сортировки

если страницы полезные, на них заходят из поиска — оставляем страницы
Если не нужны то закрываем в robots.txt

Disallow:*sort=*
Disallow:*size=*
Disallow:*/filter/*

    • Страницы пагинации

rel=»canonical»

ПРУФ

ЧИТАЙТЕ ТАКЖЕ

Индексирование — настройка

Индексируем нужный контент Создаем инструкции по индексированию для робота — файл robots.txt Популярные ошибки: Закрытие …

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *