SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чатыБольшие сайты иногда стоит разбивать на десятки-сотни поменьше


Большие сайты иногда стоит разбивать на десятки-сотни поменьше

Несколько лет назад мы с друзьями запустили около 200 сайтов-справочников, которые объединялись в 30 сеток.

Каждая сетка - это 5-10 сайтов в одной тематике, но в разных гео.

Например - справочники банкоматов в США, Германии, Франции, Финляндии и т.д

Или справочники аптек в Австралии.

И внутри каждого сайта десятки тысяч поддоменов: на каждый город, штат, район - поддомен.

Денег сайты принесли немного (за всё время мы потратили около 10к$ и заработали 50к$), но опыт получили огромнейший:

- как администрировать такое количество сайтов

- какие выводы можно делать на больших объемах трафика

- как загонять в индекс и удерживать десятки миллионов страниц

- что и в каких ситуациях предпочитетельней для Гугла: поддомены или папки

- цена трафика в сравнении по странам

- почему оптимизация краулингового бюджета - критично важно для больших сайтов

- как продвигать сотни тысяч поддоменов ссылками

И сейчас этот опыт хорошо помогает в новых проектах.

Например, клиент обратился с задачей спроектировать и прописать стратегию продвижения для сайта, который будет определять качество воздуха в каждом городе мира, с детализацией по улицам и кварталам (тематику я изменил, но суть одинакова).

И первая мысль клиента: давайте делать весь мир на одном домене, ведь можно будет круто наваливать ссылочное и использовать эффект синергии.

И, возможно, так мы бы и сделали, не будь у меня опыта с этими справочниками.

Проблема в том, что каждая улица в мире была бы на сайте в виде отдельной страницы. Представим, что это 50 миллионов страниц.

И весь трафик на сайт должен приходить с микроНЧ запросов в формате “качество воздуха проспект свободы львов”.

Такая стратегия получения трафика работает только в том случае, если в индексе находятся миллионы страниц. Потому что при нулевой конкуренции, индекс - это единственное условие для того, чтобы получать трафик по запросам.

Но Гуглу плевать на вашу стратегию и потребности. У него есть сервера, плата за эти сервера и ограниченные ресурсы. Поэтому он не будет в здравом уме давать новому ноунейм сайту индекс в десятки миллионов страниц. Это слишком дорого.

По нашему опыту, максимум, который может получить новый сайт в первые месяцы жизни - до 500к страниц и не больше 50% от общего количества.

Т.е. если на сайте 200к страниц, значит при правильных действиях в индекс залетит примеро 100к страниц.

Если на сайте миллион - залетит 500к. Если на сайте пару миллионов - чаще всего всё равно залетит 300-500к страниц.

Возможно в других тематиках иначе, но у нас - так.

Именно поэтому я предложил разбить сайт по странам, делать каждую страну на национальном домене и города - на поддоменах.

Почему так?

Плюсы:

1. Гугл любит национальные домены по локальным запросам

2. Когда мы дробим проект на 100-200 сайтов, мы получаем гораздо больший потенциал индексации: вместо 300-500к проиндексированных страниц с одного сайта, мы можем получить десятки миллионов страниц с сотни сайтов.

3. Поддомены играют в нашу пользу, работая в таких случаях гораздо лучше папок

4. Диверсификация рисков

Минусы:

1. Сложнее продвигать ссылочным

2. Сложнее администрировать, без общей CMS и одинаковой базы данных - беда

3. Надо платить за 200 доменов вместо одного

Но по нашему опыту плюсы настолько сильно перевешивают минусы, что ими можно пренебречь.

Поэтому при создании крупных проектов рекомендую рассматривать всевозможные варианты технической реализации и учитывать краулинговые ограничения Гугла.

Иногда это важнее ссылочного, контента и юзабилити. Потому что бессмысленно вылизывать кнопочки, если 99% твоего сайта не в индексе.

Источник новости https://t.me/pavlutskiy/61...