SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чатыСсылки, по которым люди не кликают, имеют гораздо меньшую ценность

 160  


Ссылки, по которым люди не кликают, имеют гораздо меньшую ценность.

Также и ссылки, которые по прогнозам ML Гугла не получат кликов.

Там, где сайт традиционно спамил ссылками, настолько, что у аудитории появилась своего рода "баннерная слепота" к ним, ценность тоже падает до нуля.

Как Гугл может знать, на что люди реально кликают?

Они могут предсказать вероятность клика по ссылке.

Модель разумного серфера (Reasonable surfer), конечно, был один из шагов к этому.

Разумный серфер был моделью взвешивания ссылок только для PageRank, и предшествовал гораздо более продвинутым возможностям в ядре Гугла, и целым поколениям систем ML и AI.

Помните, в то время мы все еще впечатлялись просто сегментацией страниц - оценкой очень широких "разделов" страницы.

Теперь у нас есть сегментация фраз и пассажей, где каждый абзац и длинное предложение могут быть оценены.

Также модели обучения ML того времени в основном базировались только на он-пейдж факторах и уровне отображения.

Сегодня у Гугла есть годы пользовательских данных Chrome и Android, а также данные о взаимодействии с СЕРПами.

Это на поколения продвинулось вперед.

Только AI на основе LLM может показать вам, насколько дальше продвинулось понимание слов.

Однако, недостатки HCU также подчеркивают ограничения и то, как ML/AI все еще делают очень фундаментальные ошибки в реальном мире.

Сигналы - это индикаторы, а не абсолютное "доказательство".

Хотелось бы, чтобы "ценность" ссылки могла бы (по крайней мере, с точки зрения технических возможностей) оцениваться по тому, как представлена ссылка, какие слова вокруг нее, и как это соотносится с прогнозируемыми кликами, в дополнение к аспектам теории сетей, как раньше.

Однако, есть ли у Гугла практическая возможность выделить столько циклов, такой уровень обработки, зависело бы от конечной ценности, которую они видят.

Насколько это улучшило бы поиск.

Конечно, им не обязательно нужно оценивать КАЖДУЮ страницу, только те, которые соответствуют определенному уровню важности.

И у Гугла есть Navboost, хотя бы частично, чтобы замечать, когда реальные клики превышают прогнозируемые.

И когда это происходит, можно ожидать хороших вещей...

СЕРПы - это тоже страницы.

Особенно в наши дни со всеми другими фичами, кроме просто поисковых листингов, такими как панели знаний и карусели и т.д.

Гугл никогда не стеснялся собирать как можно больше точек данных, учитывая, что они воплощение "больших данных".

За годы мы видели, как Гугл почти бесконечно экспериментировал с представлением своих собственных СЕРПов, от больших до малых изменений макета, вплоть до размеров шрифтов, цвета ссылок, жирности шрифтов и т.д.

Они абсолютно точно собирали данные об этом, чтобы решить, как им самим представлять информацию.

@MikeBlazerX

Ссылки из поста:
https://x.com/MikeBlazerX/status/18339334677315382...
https://t.me/MikeBlazerX

Источник новости https://t.me/mikeblazerx/3957...