SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чатыВ декабре небольшая сеть сайтов Иэна Натталла собрала 1,2 млн...

 1410  


В декабре небольшая сеть сайтов Иэна Натталла собрала 1,2 млн посетителей и более 2 млн просмотров страниц. Рассказывает сам Иэн:

99% этого трафика было получено благодаря алгоритмическому SEO.

Поскольку очень вероятно, что я не буду делать курс по этому вопросу, в приведенной ниже теме рассказывается о том, что это такое, как я это делаю и как вы тоже можете:

== Что такое алгоритмическое SEO? ==

Проще говоря, это способ создания большого количества страниц, нацеленных на различные ключевые слова с помощью кода.

Эти ключевые слова, как правило, являются менее конкурентными длиннохвостыми терминами, и из-за объема генерируемых страниц это дает довольно большой трафик.

Сайт извлекает переменные X и Y из URL, производит расчет и предоставляет пошаговое решение, как их рассчитать.

Конечно, цифры трафика Ahrefs, скорее всего, не точны, потому что Google решает эти вопросы в SERPs.

Если бы я воссоздавал этот сайт (что я, возможно, сделал, а возможно, и нет 😉), я бы сделал:

1. файл для каждого типа вопроса, который генерирует ответ

2. файл шаблона для каждого вопроса, чтобы вывести его на страницу

3. использовал бы regex для получения значений из URL.

== Поиск источника данных ==

Проценты - плохой пример. Любой может сделать это, и для этого не так много контента можно написать.

Я предпочитаю наборы данных, которые можно добавить в базу данных. Бонусные очки, если вам также придется манипулировать данными, что будет сложнее воспроизвести другим.

Основные места, где я нахожу источники данных:

1. GitHub: т.е. https://github.com/awesomedata/awesome-public-datasets.

2. Скрейпинг: найти интересный сайт и спарсить его.

3. http://Data.gov: существует множество отличных источников данных, обнародованных правительством США.

== Создание сайта ==

Как только у вас есть база данных, вы можете построить сайт на ее основе. Это может быть относительно просто или довольно сложно, в зависимости от того, какие данные и связи вам нужны.

Я хреново разбираюсь в MySQL, поэтому часто отдаю многое из этого на аутсорсинг разработчикам на Upwork.

У меня есть базовый PHP-фреймворк, который работает следующим образом:

1. Весь трафик направляется на index.php

2. Внутренний маршрутизатор на основе URI запроса

3. Контроллер для обработки логики/доступа к базе данных

4. Шаблон для отображения фронтенда

Это довольно нескладно, но для меня это работает!

Для SEO я делаю все довольно просто и позволяю длиннохвостым ключевым словам делать свое дело.

- У меня есть кастомный заголовок страницы, описание и H1, установленные в контроллере.

- У меня есть хлебные крошки для внутренних ссылок.

- Я создаю XML сайтмап (или индекс сайтмап) для отправки в GSC.

== Содержание сайта ==

Возможно, есть люди, которые считают алгоритмическое SEO спамом или называют их дорвеями. Я с этим не согласен!

Для меня цель - это не просто 100 000 страниц. Она заключается в том, чтобы обеспечить ценность этих 100 000 страниц.

Чтобы обеспечить максимальную ценность, я стараюсь включить:

1. Не менее 700-1000 слов контента (с заголовками, списками и т.д.)

2. Содержание, основанное на конкретной странице

3. HTML-таблицы, карты или интерактивные диаграммы данных

4. Внутренние ссылки на связанные страницы

Я всегда стараюсь сделать свои сайты лучше, чем у конкурентов. Более подробные, с большим количеством данных, более простые в использовании, с возможностью загрузки или экспорта данных.

Алгоритмическое SEO - это инструмент, но с его помощью можно и нужно создавать высококачественные сайты.

@MikeBlazerX

Ссылки из поста:
https://twitter.com/iannuttall/status/148091429918...
https://t.me/MikeBlazerX

Источник новости https://t.me/mikeblazerx/197...