SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чаты✅ Гугл удаляет обработку URL-параметров из GSC

 6  


✅ Гугл удаляет обработку URL-параметров из GSC

Google анонсировал отключение инструмента обработки параметров URL в GSC. Говорит, что это абсолютно бесполезный инструмент, пользуйтесь мол robots.txt или hreflang, а мы сами разберемся какие URL с параметрами хорошие, а какие не очень.

По сути, этот инструмент позволял ранее заблокировать Google от индексации некоторые URL-адреса с параметрами на сайте, позволяя избавиться от дублей.

Тут у меня возникло несколько соображений по этому поводу.

✓ Если честно, то только единицы моих знакомых пользовались этой фичей, предпочитая выкручиваться в основном robots.txt или мета - noindex.

✓ На самом деле Google практически отключил эту фишку уже пару лет назад (ситуация такая же как с пагинацией). И опять забыл доложить об этом. А сейчас говорит, что только 1% прописанных в инструменте параметров исполняется им.

✓ Я рассказывал ранее в FB про 20+ факторов определения каноничности контента в пуле предполагаемых дублей. Сюда прекрасно подходят такие факторы, как PR, длина URL, наличие URL в xml-карте (обязательно делайте и проверяйте её, она нужна не только для индекса), кол-во входящих внутренних URL, опять таки прописанные hreflang на контент. И в качестве не особо значимого фактора - прописанный каноникал и ещё менее значимые факторы типа robots.txt. Всё это пару лет назад было в докладах гугло-инженеров. Собственно уже тогда они научились (и внедрили, что важно) определять главную страницу из сомнища дублей.

⚠️ Так что Google давно уже слабо учитывает данные отключаемого инструмента. Но опять забывает (или не хочет) об этом доложить. Хитрит как всегда.

Источник новости https://t.me/drmaxseo/34...