SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чаты​​Привет, друзья! Наверняка, многие об этом не знают. Даже я не...

 774  


​​Привет, друзья! Наверняка, многие об этом не знают. Даже я не знал, так как никогда не сталкивался с такой ситуацией, но коллеги поделились интересным случаем.

Google может подхватить старую версию robots.txt и держать ее в кеше. У коллеги так случилось на момент переезда, и сайт для гуглбота оказался закрытым для индексации. Хотя по факту в robots.txt он открыт.

Короче, можно отправлять robots.txt на пересканирование, если вдруг что-то пошло не так:

🔗 Инструмент: https://www.google.com/webmasters/tools/robots-testing-tool?hl=ru

🔗 Справка: https://developers.google.com/search/docs/advanced/robots/submit-updated-robots-txt?hl=ru

Уже через минуту robots.txt обновился, и стало возможным отправлять страницу на переобход в GSC, хотя ранее он ругался, что сайт закрыт для индексации.

PS Жаль, что нельзя добавить кучу скринов, чтобы пошагово показать, как проявлялась проблема и как потом обнаружились причины. Надеюсь, вы разберетесь. В общем, если столкнетесь с тем, что URL есть в индексе Google, все корректно, но вдруг при проверке расширенных результатов увидите «URL недоступен Google» - вы теперь знаете, что делать.

А дополнительные скрины я все же закину в комментарии.

Ссылки из поста:
https://telegra.ph/file/6a0b9a2e31cf14ab3bd91.jpg

Источник новости https://t.me/alaevseo/460...