SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чатыИспользование логов сервера для поиска дубликатов и других ошибок


Использование логов сервера для поиска дубликатов и других ошибок.

При поиске технических ошибок на сайте полезно анализировать логи сервера, чтобы понимать, как часто и какие страницы сканируются поисковыми системами и другими ботами.

Конечно же, большинство из этих ошибок указаны в GSC, но не все страницы, так как GSC показывает только примеры наличия проблемы, а не полный отчет о технических ошибках.

В логах сервера видны следующие проблемы:

1. Наличие битых ссылок, которые посещаются роботами или пользователями.

2. Посещение страниц, с которых проставлен редирект.

3. Мусорные страницы, которые сканируются поисковыми системами или посещаются пользователями.

Программ для анализа логов десятки, выбирайте на свой вкус:

1. Apache Logs Viewer.

2. goaccess.io.

3. Web Log Explorer.

4. Log Analyzer: Trends.

5. seolyzer.io.

6. Screaming Frog Log Analyzer.

Разберем на примере Apache Logs Viewer, принцип у всех программ +- одинаковый, отличается только визуальное предоставление информации.

Как работать с программой Apache Logs Viewer:

1. Скачиваете Apache Logs Viewer – https://www.apacheviewer.com/download/.

2. Скачиваете с хостинга логи сервера за последнюю неделю.

3. Открываете логи и выбираете формат Combined, чтобы показывались данные по User-agent и Referer.

4. Открывается таблица с 8 столбцами:

4.1. IP-адрес посетителя.

4.2. Дата и время посещения.

4.3. Запрос, т.е. запрашиваемый url-адрес.

4.4. Status – код ответа сервера.

4.5. Referer – откуда совершен переход.

4.6. User-Agent.

4.7. Страна.

Программа бесплатная, но некоторые функции, например, построение сложных графиков и фильтров, платные. Для поиска проблем можно обойтись и без них.

Используя базовые сортировки по коду ответа сервера либо user-agent будут видны технические проблемы сайта, которые требуют внимания оптимизатора.

Источник новости https://t.me/inseo_inweb/47...