SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чаты​Дубли страниц и их вред для SEO В SEO-аудитах вы часто можете...

 50  


​Дубли страниц и их вред для SEO

В SEO-аудитах вы часто можете видеть пункт «На сайте обнаружены дубли страниц». В этом посте мы разберемся почему дубли вредят сайту, используя официальную информацию от поисковых систем.

Дубли — это страницы с одинаковым или почти одинаковым контентом. Они возникают в связи с различными техническим ошибкам на сайте. Погружаться в них не будем, цель у нас другая.

Чем дубли вредны для SEO?

▪️ Поисковая система объединяет несколько одинаковых страниц в группу дублей и ранжирует только одну из них. И это может быть совсем не та страница, которую мы продвигаем. К примеру, из индекса может вылететь страница, которую мы уже прокачали ссылками.

▪️ Поисковик может не объединить одинаковые страницы в группу дублей и тогда они будут ранжироваться по одинаковым запросам и конкурировать друг с другом в выдаче.

▪️ У поисковых роботов есть ограниченный ресурс изучения сайта (краулинговый бюджет). Как только он заканчивается — роботы покидают сайт. Если роботы будут тратить бюджет на обход дублей, то могут не успеть проиндексировать важные посадочные страницы.

А теперь к главному. Не придумали ли это все сеошники? Что там думают об этом поисковые системы? Заглянем в официальную справку:

Яндекс

«Если страницы сайта доступны по разным адресам, но имеют одинаковое содержимое, робот Яндекса может посчитать их дублями и объединить в группу дублей.»

«Дублями признаются страницы в рамках одного сайта. Например, страницы на региональных поддоменах с одинаковым содержимым не считаются дублями.»

Почти все пункты выше о вреде дублей написаны на основе того, что есть в данном официальном документе Яндекса.

Google

Для Google дубли — это более глобальное явление. Он изучает и отслеживает дубли не только внутри одного сайта, но и в рамках разных сайтов. И у Google есть четкое разграничение, какие дубли вредные, а какие нет.

Cправка Google:

«Идентичным контентом обычно называют большие блоки информации, которые одинаковы или очень похожи. Они могут быть размещены в одном или нескольких доменах. Как правило, такой контент публикуется без намерения обмануть пользователей.

Примеры повторяющихся материалов, которые не относятся к категории вредоносных:

▫️страницы форумов в обычных версиях сайтов и версиях для мобильных устройств;

▫️товары в интернет-магазине, доступные по разным URL;

▫️документы для печати, которые дублируют содержание веб-страниц.»

И в таком случае Google не применяет никаких грубых санкций. Но те же проблемы, что и в Яндексе тут тоже работают, потому что Google выбирает канонической (основной) только одну страницу и её ранжирует в поиске:

«Если у вас возникают проблемы из-за повторяющегося содержания, но вы не последовали приведенным выше советам, то мы выберем версию контента для показа в результатах поиска на свое усмотрение.»

Но помимо этого у Google, в отличие от Яндекса, есть еще и категория дублей, которые он считает вредоносными и за них может конкретно наказывать:

«В некоторых случаях злоумышленники намеренно дублируют контент... Использование подобных обманных приемов может причинить неудобства пользователям… В связи с этим рейтинг сайта может понизиться или сайт может быть вообще удален из индекса Google и будет недоступен для поиска.»

В справке не написано четких критериев, когда Google признает дубли именно зловредными. Поэтому мы не сможем с точностью определить — хорошо ли Google отнесется к этому дублю и его можно оставить или плохо к этому и его нужно удалить. Мы только знаем, что за дубли можно получить по голове и этого достаточно, чтобы начать с ними бороться.

#SEO #техничка

Ссылки из поста:
https://yandex.ru/support/webmaster/robot-workings...
https://developers.google.com/search/docs/advanced...

Источник новости https://t.me/seoforge/527...