LSI (latent semantic indexing) – скрытое семантическое...
68
LSI (latent semantic indexing) – скрытое семантическое индексирование.
Для поиска самых интересных LSi терминов использую Ultimate Keyword Hunter:
https://soltyk.ru/instrumentyi/ultimate-keyword-hunter
Берём запрос или группу частотных запросов используя: (запрос1|запрос2|...|запрос5)
Больше 5 запросов не стоит использовать. Желательно чтобы запросы пересекались по словам/синонимам, либо входили в один семантический кластер.
Далее парсим ТОП-10 по инструкции в статье.
Для выявления важных N-грамм (однословников, либо фраз состоящих из нескольких слов) - ищем более чем на 50% сайтах.
Если спарсилось менее 10 URL, к примеру 9, то ищем LSI минимум на 5 сайтах (ставим в настройке "Sites count at least" значение 4).
Программа плохо работает с русским языком - может быть много дублей в разных словоформах.
Поэтому после получения списка - нужно будет привести их нормальной словоформе.
Для этого поможет макрос Ожгибесова: https://yadi.sk/i/RGmdk78t38yqCq
Взял его отсюда: https://ozhgibesov.net/kak-pisat-tz-kopirayteram-rabota-s-kontentom/
Если нужно однословники привести к нормальной словоформе и убрать дубли:
1. копируем в две параллельные колонки в Excel анализируемые термины;
2. из экселя копируем это добро в Notepad++ - заменяем Tab на пробел.
3. полученный список вставляем в "Макрос для формирования ТЗ копирайтеру" - выставляем параметр "Главное корень", можно поиграться с вариантами окончаний (обычно выставляю от 2 до 4).
4. Копируем список терминов из "Рейтинг слов".
Ограничения: можно фильтровать по 100 терминов за раз. Если их больше придется повторять итерацию и после этого убирать дубли тем же способом, либо через Excel.
Всё это дело обычно я еще дополняю с помощью 2 инструментов:
Эти сервисы не парсят контент с самих сайтов, а анализируют ТОП-10
Всё это позволяет собрать наиболее полноценный список LSi-терминов (ТОП-10 + контент URL из этого ТОПа).
Плюс также можно брать отдельные термины из подсказок, уточнений по вордстату...
Но не забываем, что так можно собрать много мусорных терминов. Нужно их фильтровать и убирать. Какие-то термины могут вообще не подходить вам по каким-либо причинам.
"Ну, собрал я 100500 этих терминов, а что дальше?" (спросите вы...)
Как применять LSi:
С помощью этой методологии, можно определить коммерческие факторы, выраженные в виде текстового.
1) К примеру, термин "калькулятор" встречается на 7 из 10 сайтов - это говорит о том, что калькулятор должен быть на странице по этому запросу.
2) Если к примеру "политика конфиденциальности" встречается на многих сайтах из ТОПа - значит и у вас она должна быть в обязательном порядке.
3) Еще пример: на 8 из 10 сайтах есть термин "купить" и он зашит в кнопку для оформления заказа. А на вашем сайте у товаров кнопка называется "оставить заявку" - это явное упущение, т.к. можно получить дополнительные вхождения ключей. Тем более такая штука называется "скрытая активная семантика" - есть термин, который может входить в запрос + по нему еще и кликают (включаются кликовые факторы).
Для информационного контента: методика позволяет глубоко проработать контент - максимально широко раскрыть интенты на странице при написании контента.
Как учил меня Сергей Кокшаров - количество таких уникальных терминов должно быть не менее 12-15% от общего числа уникальных слов на странице. И чем выше значение, тем экспертнее контент.😊
В каждом предложении должно быть тематическое слово. Если предложение не несет смысловой нагрузки (вода) - можно его смело убирать.
Пример со своего блога:
https://soltyk.ru/seo-slovar/search-engine-optimization - тут максимально проработал все LSi термины + раскрытие интентов. Результат - практически ТОП-10 в Яндекс и Google по запросам вида "SEO простыми словами" и т.п.
Источник новости https://t.me/soltykseo/5474...