Использование логов сервера для поиска дубликатов и других ошибок
Использование логов сервера для поиска дубликатов и других ошибок.
При поиске технических ошибок на сайте полезно анализировать логи сервера, чтобы понимать, как часто и какие страницы сканируются поисковыми системами и другими ботами.
Конечно же, большинство из этих ошибок указаны в GSC, но не все страницы, так как GSC показывает только примеры наличия проблемы, а не полный отчет о технических ошибках.
В логах сервера видны следующие проблемы:
1. Наличие битых ссылок, которые посещаются роботами или пользователями.
2. Посещение страниц, с которых проставлен редирект.
3. Мусорные страницы, которые сканируются поисковыми системами или посещаются пользователями.
Программ для анализа логов десятки, выбирайте на свой вкус:
1. Apache Logs Viewer.
2. goaccess.io.
3. Web Log Explorer.
4. Log Analyzer: Trends.
5. seolyzer.io.
6. Screaming Frog Log Analyzer.
Разберем на примере Apache Logs Viewer, принцип у всех программ +- одинаковый, отличается только визуальное предоставление информации.
Как работать с программой Apache Logs Viewer:
1. Скачиваете Apache Logs Viewer – https://www.apacheviewer.com/download/.
2. Скачиваете с хостинга логи сервера за последнюю неделю.
3. Открываете логи и выбираете формат Combined, чтобы показывались данные по User-agent и Referer.
4. Открывается таблица с 8 столбцами:
4.1. IP-адрес посетителя.
4.2. Дата и время посещения.
4.3. Запрос, т.е. запрашиваемый url-адрес.
4.4. Status – код ответа сервера.
4.5. Referer – откуда совершен переход.
4.6. User-Agent.
4.7. Страна.
Программа бесплатная, но некоторые функции, например, построение сложных графиков и фильтров, платные. Для поиска проблем можно обойтись и без них.
Используя базовые сортировки по коду ответа сервера либо user-agent будут видны технические проблемы сайта, которые требуют внимания оптимизатора.
Источник новости https://t.me/inseo_inweb/47...