SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чатыПодскажите, в robots.txt есть смысл отдельно для робота яндекса...


❓Вопрос 3171

Подскажите, в robots.txt есть смысл отдельно для робота яндекса и робота гугл все расписывать или это не обязательно? И почему большинство сайтов составляют отдельные рекомендации?

❗️Ответ

💡Если у вас нет никаких различий в ограничениях для разных роботов поисковых систем, то прописывать отдельно директивы в файле robots.txt не нужно.

👉 Файл robots.txt можно создавать отдельно для Яндекс, для Google и для остальных роботов-краулеров. Делать это надо только в случае если необходимо прописать директивы, предназначенные только для определенных Поисковых систем, а также если мы хотим разрешить/запретить обход разделов или отдельных страниц сайта для конкретных ПС.

Разные поисковые роботы интерпретируют синтаксис файлов robots.txt по-разному.

⚠️ Хотя роботы основных поисковых систем следуют правилам в файле robots.txt, каждый из них может интерпретировать их по-своему. Поэтому иногда для перестраховки вебмастеры пишут отдельно рекомендации для разных систем.

Перед тем, как приступить к настройке файла robots.txt для вашего сайта, рекомендуем ознакомиться с официальными рекомендациями Google и Яндекс.

‼️Прокомментировать ответ или задать уточняющий вопрос можно у нас в блоге. Делитесь мнением и опытом в комментариях!

🚨 via @siteclinic_doctor 🚨

Ссылки из поста:
https://developers.google.com/search/docs/crawling...
https://yandex.ru/support/webmaster/controlling-ro...
https://siteclinic.ru/vopros/robots-txt/otdelnye-r...

Источник новости https://t.me/siteclinic_doctor...