SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чатыКак быстро скачать выдачу Google через браузер?


Как быстро скачать выдачу Google через браузер?

#automation #chrome #extensions @productseo

В прошлых постах я уже делился двумя плагинами Google Chrome для парсинга данных (ссылка) и автоматизации действий (ссылка) и хочу закрыть эту тему последним постом о том, как скачать, например, ссылки на страницы сайта из индекса Google. Это может быть иногда полезно для того, чтобы найти технические ошибки + на основе этого поста вы научитесь парить и другие данные с других сайтов.

1. Устанавливаем Web Scraper плагин для Chrome (ссылка);

2. Идем в Google и вводим запрос используя site:, inurl:, - , и другие нужные нам операторы;

3. Можем выбрать в Settings - показ 100 результатов на странице;

4. После загрузки страницы копируем весь URL;

5. Открываем DevTools через cmd + option + I или cntrl + shift + I;

6. У вас должна была открыться вкладка Elements, а нам нужно выбрать вкладку Web Scraper;

7. Жмем Create New Sitemap и в Sitemap name пишем любое название, а в Start URL вставляем абсолютный URL (https:// google....) из пункта 4 и нажимаем создать;

8. Выбираем Add new selector;

9. Вначале нам нужно выбрать данные, которые мы хотим сохранить, а потому в Id пишем любое название, в Type выбираем Link, в Selector жмем Select и на экране выбираем title первый, потом второй и далее все остальные должны выделиться автоматически. У вас должен в поле появиться a[data-ved][ping];

10. Выбираем галочку Multiple поскольку нам нужно скачать несколько объектов;

11. В Parent selector выбираем Root (позже нам нужно будет через шифт выбрать еще другой);

12. Создаем новый селектор для того, чтобы нажимать автоматически на кнопку “следующая страница”;

13. Id - pagination, Type - Link, Selector - выбираем кнопку Next Page и должно появиться a#pnnext, в Parent selector выбираем через шифт _root и pagination (саму себя). Это нужно для постоянного нажатия на кнопку, пока она не пропадет;

14. В списке нужно нажать на Edit возле первого селектора url и через шифт выбрать как и в 13 пункте _root и pagination;

15. Выбираем Sitemap name -> Scrape (можно будет увеличить время задержки между запросами, если будут вылазить капчи) и у вас откроется окно браузера в котором автоматически пролистаются страницы и покажутся данные, которые можно будет сохранить в csv.

Аналогично можно работать и с другими сайтами.

Кстати, почитать про мой любимый набор плагинов можно тут (ссылка).

Следующий пост будет уже весной 😂 02.03

Источник новости https://t.me/productseo/43...