Интересный пост с канала https://t.me/seotrue
Интересный пост с канала https://t.me/seotrue
💁♂️ Нюансы по удалению страниц из индекса Google и Яндекс
👉 В Google
Проблема: Если страница/папка закрыта в файле robots.txt, вы НЕ сможете удалить ее из индекса.
Решение:
1. Открыть страницу/папку в robots.txt на время
2. Для таких страниц/папок (выбирайте сами, что удобнее и быстрее Вам реализовать)
а. Настроить ответ сервера 410 (Удалена).
P.S. Не 404 (Не найдено), т.к. если есть внутренние или внешние сссылки на страницу, краулер будет переходить по ним и отправлять их индексатору.
б. Установить пароль на сервере
в. Запретить сканирование страницы с помощью метатега noindex
3. Отправить страницы на удаление во вкладке "Удалить URL-адреса" в Google Search Console.
👉 В Яндекс
Нет проблем Страницу/папку, закрытую в файле robots.txt, вы Сможете отправить на удаление через инструмент "Удалить URL" в Яндекс.Вебмастер
P.S. Яндекс сделал возможность отправлять в день 500 адресов для сайта.
Теперь не нужно покупать программы по типу Компарсер, которая давала возможность пакетно отправить страницы в Яндекс.
Делайте это БЕСПЛАТНО.
💁♂️ Лайфхак от TRUE SEO: Если хотите отправить > 500 страниц в день, то добавьте все версии сайта в Яндекс.Вебмстер (с www, без, c https (если сайт на https) и без)) и отравляйте страницы на удаление с НЕглавных зеркал вашего сайта.
🎁 БОНУС для новеньких: Если нужна лицензионная программа для парсинга сайта, смотри в моем канале пост о том, как получить Screaming Frog SEO Spider БЕСПЛАТНО.
Не переплачивайте.
Удачного и легкого SEO. https://t.me/seotrue
Источник новости https://t.me/opticosblog/56...