Подскажите, в robots.txt есть смысл отдельно для робота яндекса...
❓Вопрос 3171
Подскажите, в robots.txt есть смысл отдельно для робота яндекса и робота гугл все расписывать или это не обязательно? И почему большинство сайтов составляют отдельные рекомендации?
❗️Ответ
💡Если у вас нет никаких различий в ограничениях для разных роботов поисковых систем, то прописывать отдельно директивы в файле robots.txt не нужно.
👉 Файл robots.txt можно создавать отдельно для Яндекс, для Google и для остальных роботов-краулеров. Делать это надо только в случае если необходимо прописать директивы, предназначенные только для определенных Поисковых систем, а также если мы хотим разрешить/запретить обход разделов или отдельных страниц сайта для конкретных ПС.
Разные поисковые роботы интерпретируют синтаксис файлов robots.txt по-разному.
⚠️ Хотя роботы основных поисковых систем следуют правилам в файле robots.txt, каждый из них может интерпретировать их по-своему. Поэтому иногда для перестраховки вебмастеры пишут отдельно рекомендации для разных систем.
Перед тем, как приступить к настройке файла robots.txt для вашего сайта, рекомендуем ознакомиться с официальными рекомендациями Google и Яндекс.
‼️Прокомментировать ответ или задать уточняющий вопрос можно у нас в блоге. Делитесь мнением и опытом в комментариях!
🚨 via @siteclinic_doctor 🚨
Ссылки из поста:– https://developers.google.com/search/docs/crawling...
– https://yandex.ru/support/webmaster/controlling-ro...
– https://siteclinic.ru/vopros/robots-txt/otdelnye-r...
Источник новости https://t.me/siteclinic_doctor...