В декабре небольшая сеть сайтов Иэна Натталла собрала 1,2 млн...
1410
В декабре небольшая сеть сайтов Иэна Натталла собрала 1,2 млн посетителей и более 2 млн просмотров страниц. Рассказывает сам Иэн:
99% этого трафика было получено благодаря алгоритмическому SEO.
Поскольку очень вероятно, что я не буду делать курс по этому вопросу, в приведенной ниже теме рассказывается о том, что это такое, как я это делаю и как вы тоже можете:
== Что такое алгоритмическое SEO? ==
Проще говоря, это способ создания большого количества страниц, нацеленных на различные ключевые слова с помощью кода.
Эти ключевые слова, как правило, являются менее конкурентными длиннохвостыми терминами, и из-за объема генерируемых страниц это дает довольно большой трафик.
Сайт извлекает переменные X и Y из URL, производит расчет и предоставляет пошаговое решение, как их рассчитать.
Конечно, цифры трафика Ahrefs, скорее всего, не точны, потому что Google решает эти вопросы в SERPs.
Если бы я воссоздавал этот сайт (что я, возможно, сделал, а возможно, и нет 😉), я бы сделал:
1. файл для каждого типа вопроса, который генерирует ответ
2. файл шаблона для каждого вопроса, чтобы вывести его на страницу
3. использовал бы regex для получения значений из URL.
== Поиск источника данных ==
Проценты - плохой пример. Любой может сделать это, и для этого не так много контента можно написать.
Я предпочитаю наборы данных, которые можно добавить в базу данных. Бонусные очки, если вам также придется манипулировать данными, что будет сложнее воспроизвести другим.
Основные места, где я нахожу источники данных:
1. GitHub: т.е. https://github.com/awesomedata/awesome-public-datasets.
2. Скрейпинг: найти интересный сайт и спарсить его.
3. http://Data.gov: существует множество отличных источников данных, обнародованных правительством США.
== Создание сайта ==
Как только у вас есть база данных, вы можете построить сайт на ее основе. Это может быть относительно просто или довольно сложно, в зависимости от того, какие данные и связи вам нужны.
Я хреново разбираюсь в MySQL, поэтому часто отдаю многое из этого на аутсорсинг разработчикам на Upwork.
У меня есть базовый PHP-фреймворк, который работает следующим образом:
1. Весь трафик направляется на index.php
2. Внутренний маршрутизатор на основе URI запроса
3. Контроллер для обработки логики/доступа к базе данных
4. Шаблон для отображения фронтенда
Это довольно нескладно, но для меня это работает!
Для SEO я делаю все довольно просто и позволяю длиннохвостым ключевым словам делать свое дело.
- У меня есть кастомный заголовок страницы, описание и H1, установленные в контроллере.
- У меня есть хлебные крошки для внутренних ссылок.
- Я создаю XML сайтмап (или индекс сайтмап) для отправки в GSC.
== Содержание сайта ==
Возможно, есть люди, которые считают алгоритмическое SEO спамом или называют их дорвеями. Я с этим не согласен!
Для меня цель - это не просто 100 000 страниц. Она заключается в том, чтобы обеспечить ценность этих 100 000 страниц.
Чтобы обеспечить максимальную ценность, я стараюсь включить:
1. Не менее 700-1000 слов контента (с заголовками, списками и т.д.)
2. Содержание, основанное на конкретной странице
3. HTML-таблицы, карты или интерактивные диаграммы данных
4. Внутренние ссылки на связанные страницы
Я всегда стараюсь сделать свои сайты лучше, чем у конкурентов. Более подробные, с большим количеством данных, более простые в использовании, с возможностью загрузки или экспорта данных.
Алгоритмическое SEO - это инструмент, но с его помощью можно и нужно создавать высококачественные сайты.
@MikeBlazerX
Ссылки из поста:– https://twitter.com/iannuttall/status/148091429918...
– https://t.me/MikeBlazerX
Источник новости https://t.me/mikeblazerx/197...