Noindex vs robots.txt: как правильно убирать «мусор»...
73
Noindex vs robots.txt: как правильно убирать «мусор» из индекса
Часто спрашивают: «Чем закрывать дубли и ненужные страницы — noindex или robots.txt?»
Мой подход — сначала noindex, потом robots.txt.
Почему?
🔹 robots.txt — это запрет обхода, а не индексации.
Google может проиндексировать URL, даже если он запрещён в robots.txt (например, если на него есть внешние ссылки).
🔹 Поэтому я сначала ставлю noindex на всё лишнее:
— дубли,
— страницы с мусорными GET-параметрами,
— служебные разделы и т.п.
🔹 Жду, пока пропадут из отчётов из отчётов в Google Search Console и Яндекс.Вебмастер и только потом запрещаю их обход в robots.txt.
Такой двухэтапный подход полное исключение мусора из индекса, особенно в Google, где robots.txt без noindex может лишь замедлить, но не остановить индексацию.
Источник новости https://t.me/soltykseo/6015...

