SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чатыLSI (latent semantic indexing) – скрытое семантическое...


LSI (latent semantic indexing) – скрытое семантическое индексирование.

Для поиска самых интересных LSi терминов использую Ultimate Keyword Hunter:

https://soltyk.ru/instrumentyi/ultimate-keyword-hunter

Берём запрос или группу частотных запросов используя: (запрос1|запрос2|...|запрос5)

Больше 5 запросов не стоит использовать. Желательно чтобы запросы пересекались по словам/синонимам, либо входили в один семантический кластер.

Далее парсим ТОП-10 по инструкции в статье.

Для выявления важных N-грамм (однословников, либо фраз состоящих из нескольких слов) - ищем более чем на 50% сайтах.

Если спарсилось менее 10 URL, к примеру 9, то ищем LSI минимум на 5 сайтах (ставим в настройке "Sites count at least" значение 4).

Программа плохо работает с русским языком - может быть много дублей в разных словоформах.

Поэтому после получения списка - нужно будет привести их нормальной словоформе.

Для этого поможет макрос Ожгибесова: https://yadi.sk/i/RGmdk78t38yqCq

Взял его отсюда: https://ozhgibesov.net/kak-pisat-tz-kopirayteram-rabota-s-kontentom/

Если нужно однословники привести к нормальной словоформе и убрать дубли:

1. копируем в две параллельные колонки в Excel анализируемые термины;

2. из экселя копируем это добро в Notepad++ - заменяем Tab на пробел.

3. полученный список вставляем в "Макрос для формирования ТЗ копирайтеру" - выставляем параметр "Главное корень", можно поиграться с вариантами окончаний (обычно выставляю от 2 до 4).

4. Копируем список терминов из "Рейтинг слов".

Ограничения: можно фильтровать по 100 терминов за раз. Если их больше придется повторять итерацию и после этого убирать дубли тем же способом, либо через Excel.

Всё это дело обычно я еще дополняю с помощью 2 инструментов:

http://tools.30seo.ru/seo/lsi

https://arsenkin.ru/tools/sp/

Эти сервисы не парсят контент с самих сайтов, а анализируют ТОП-10

Всё это позволяет собрать наиболее полноценный список LSi-терминов (ТОП-10 + контент URL из этого ТОПа).

Плюс также можно брать отдельные термины из подсказок, уточнений по вордстату...

Но не забываем, что так можно собрать много мусорных терминов. Нужно их фильтровать и убирать. Какие-то термины могут вообще не подходить вам по каким-либо причинам.

"Ну, собрал я 100500 этих терминов, а что дальше?" (спросите вы...)

Как применять LSi:

С помощью этой методологии, можно определить коммерческие факторы, выраженные в виде текстового.

1) К примеру, термин "калькулятор" встречается на 7 из 10 сайтов - это говорит о том, что калькулятор должен быть на странице по этому запросу.

2) Если к примеру "политика конфиденциальности" встречается на многих сайтах из ТОПа - значит и у вас она должна быть в обязательном порядке.

3) Еще пример: на 8 из 10 сайтах есть термин "купить" и он зашит в кнопку для оформления заказа. А на вашем сайте у товаров кнопка называется "оставить заявку" - это явное упущение, т.к. можно получить дополнительные вхождения ключей. Тем более такая штука называется "скрытая активная семантика" - есть термин, который может входить в запрос + по нему еще и кликают (включаются кликовые факторы).

Для информационного контента: методика позволяет глубоко проработать контент - максимально широко раскрыть интенты на странице при написании контента.

Как учил меня Сергей Кокшаров - количество таких уникальных терминов должно быть не менее 12-15% от общего числа уникальных слов на странице. И чем выше значение, тем экспертнее контент.😊

В каждом предложении должно быть тематическое слово. Если предложение не несет смысловой нагрузки (вода) - можно его смело убирать.

Пример со своего блога:

https://soltyk.ru/seo-slovar/search-engine-optimization - тут максимально проработал все LSi термины + раскрытие интентов. Результат - практически ТОП-10 в Яндекс и Google по запросам вида "SEO простыми словами" и т.п.

Источник новости https://t.me/soltykseo/5474...