❓Вопрос #590 Как правильно закрыть служебные страницы сайта (...
#ответы
❓Вопрос #590
Как правильно закрыть служебные страницы сайта ( логин, регистрация, условия, куки, законы) от передачи веса? Желательно скриптом и без санкций.
❗️ Ответ
Для безопасного закрытия служебных страниц сайта от передачи веса можно сделать следующее:
1️⃣ Воспользоваться «классическим» инструментом закрытия страниц от индексации — файлом robots.txt.
Он достаточно прост в освоении и содержит в себе рекомендации для действий поисковых роботов. В этом файле находятся инструкции (директивы), с помощью которых можно ограничить ботам доступ к определённым папкам, страницам и файлам, задать скорость сканирования сайта, указать главное зеркало или адрес карты сайта. Подробнее: http://bit.ly/2lTIe6A.
2️⃣ Ещё один способ запрета индексации страницы — метатег Robots.
С его помощью мы можем сообщить поисковому роботу, что делать на странице. Имеет значения:
▫️index — индексировать страницу;
▫️noindex — не индексировать страницу;
▫️follow — следовать по ссылкам на странице;
▫️nofollow — не следовать по ссылкам на странице.
Эти правила поисковый робот будет выполнять ВСЕГДА, в отличие от инструкций в файле robots.txt, которые он может игнорировать. Об этом написано в инструкциях Яндекса и Google.
Подробнее про него и про другие метатеги, можно почитать в нашей статье: http://bit.ly/2mVgoa1.
❕Что же касается закрытия служебных страниц скриптом, то так это не делается.
Обычно скриптом скрывают элементы контента на странице от поисковых роботов, но не страницу целиком. Да и скрипт нужно готовить индивидуально под сайт, так как все сайты разные.
👉 Для закрытия служебных страниц индексации достаточно использовать файл robots.txt, но если бот всё равно обходит запрещённые страницы, тогда используют метатег Robots.
🤜 via @siteclinic_doctor
Источник новости https://t.me/siteclinic_doctor...