SEO - это безумие, индустрия просто сумасшедшая
105
SEO - это безумие, индустрия просто сумасшедшая.
За пределами всей этой чуши с внедрением ИИ и массовым злоупотреблением контентом, когда мы возвращаемся к старым проблемам - мы видим, что сейчас БОЛЬШЕ чем когда-либо, Гугл индексирует всё меньше и меньше контента.
Ваш ИИ АГЕНТ, который публикует контент, пока вы спите?
Да, удачи с этим.
Гугл индексирует МЕНЬШЕ контента в целом.
Для КАЖДОГО краулимого сайта всё меньше и меньше контента попадает в индекс.
Почему?
Уникальная добавленная ценность - это СИЛЬНАЯ МОДЕЛЬ для отказа от индексации информации, которая уже существует в 1000 раз на других сайтах.
А вот что еще СУПЕР весело видеть на вашем домене или ЛЮБОМ домене, с которым вы работаете:
1. Прокраулите ваш сайт и убедитесь, что вы используете API индексации Google
2. Экспортируйте результаты краулинга, в идеале вам нужны КЛЮЧЕВЫЕ метрики:
— URL, состояние покрытия от Google, внутренние ссылки, количество слов
Это позволяет исключить недостаток внутренних ссылок или тонкий контент (малое количество слов) или изучить взаимосвязь между объемом контента и его эффективностью
3. Используйте IMPORTXML для получения дат публикации контента из прокраулинных URL
— Вы можете использовать XPATH или REGEX в importXML для получения дат, т.е. если вы используете структурированные данные, вероятно, у вас есть datePublished, вы можете использовать этот importxml в вашей гугл-таблице для получения даты публикации
=REGEXEXTRACT(IMPORTXML(A2, "//script[@type='application/ld+json']"), """datePublished"":\s*""([^""]+)""")
4. Затем вы должны экспортировать данные из GSC и использовать VLOOKUP для сопоставления ваших URL с их эффективностью за последние 16 месяцев - таким образом вы сможете увидеть, какой контент имеет данные по кликам или не имеет их вообще.
5. Затем вам следует создать фильтр и просмотреть ваш контент ПО ГОДАМ и по состоянию покрытия - например, в скриншоте это контент одного сайта за 2022 год, где URL неизвестен для Google, несмотря на то, что URL существуют уже 3 года
Вот что стоит учесть:
1. Если контент НЕ индексируется, но был индексирован, как выглядел его жизненный цикл?
То есть, когда он был опубликован, как выглядели данные за период индексации
2. Если контент БЫЛ индексирован, но никогда не показывал хороших результатов, при этом имел достаточно внутренних ссылок и был глубоким или имел много контента, например, 3000, 4000+ слов - как выглядел профиль запросов?
3. URL, неизвестные для Google - если у вас много таких, но есть достаточно внутренних ссылок, то вы должны спросить себя, ПОЧЕМУ URL неизвестны, несмотря на возраст?
Особенно если есть внутренние ссылки
4. Обнаруженный контент/в настоящее время не индексируемый обычно попадает в эту группу, когда он теряет ВСЮ воспринимаемую ценность.
Что обычно происходит:
— Контент устаревает
— Поведенческие данные уменьшаются
— СЕРПы обновляются, что приводит к потере запросов, так как контент считается менее ценным
— Деградация продолжается с увеличением периодов повторного краулинга
— В конечном итоге периоды повторного краулинга превышают "очевидные" пороги в 90-130 дней, пока контент не выпадает из индекса
Короче говоря
СОВРЕМЕННЫЕ SEO СТРАТЕГИИ НЕ ДОЛЖНЫ СОСУЩЕСТВОВАТЬ С КОНТЕНТОМ В МАССОВОМ МАСШТАБЕ!
Google НЕ НУЖДАЕТСЯ в контенте в массовом масштабе.
Не тратьте своё время, ведите более экономный, более эффективный индекс.
@MikeBlazerX
– https://www.linkedin.com/feed/update/urn:li:activi...
– https://t.me/MikeBlazerX
Источник новости https://t.me/mikeblazerx/5181...