SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чатыДорвеи / генеренные сайты - Think outside the box – Часть 1


Дорвеи / генеренные сайты - Think outside the box – Часть 1.

Давно не было про дорвеи – соскучились?

Сегодня поговорим про основу дорвее-строительства, точнее автоматизированных или генеренных сайтов. Дорвеи (Doorways) – вообще термин в основном рунетовский, на западе его никогда особо не использовали и не используют.

К тому же термин «дорвеи» утратил свое первоначальное значение, когда doorways использовали в основном для клоаки и массового редиректа юзера из поисковых систем на партнерские программы и прочие веселые странички. Сейчас данный метод хоть и используется, но не так широко и не с тем размахом, сегодня мы поговорим о дорвеях, как о бизнесе и автоматизации добычи трафика.

Основа дорвеев (генеренных / автоматизированных) сайтов – это использование технологий и логики для решения конкретных задач (например, массовой добыче трафика для конвертации его в affiliate-программах).

На западе говорят «Think outside the box» — это важнейшая фраза, которую сегодня буду раскрывать не я, а одно (даже несколько) интервью Дмитрия Еремеева, известного в узких кругах 😎

Внимание на экран:

1) https://seoprofy.ua/blog/intervyu/dmitriy-eremeev - «Think outside the box» в мире SEO – всегда перечитывайте, когда чувствуете выгорание.

2) https://www.business-gazeta.ru/article/62920 - одно из моих любимых, называю его в команде «Спасибо, Дима, я Бентли купил» - наша крылатая фраза.

3) https://thebell.io/eremeev-zag - про «взлом, смекалку, Amazon и как мыслить масштабно в SEO»

Выдержка из интервью:

"Ошибка в реализации алгоритма Google, которая позволяла мне за 15 минут реально ставить любой сайт на любое место, по любому запросу. При условии, что этот сайт должен был пройти Песок и всё. Это была ошибка в передаче веса через 301-й редирект.

В характеристиках страницы, видимо по умолчанию, трастовость становилась абсолютной, то есть там где-то есть какой-то вектор, где один из параметров «ненадежности» не передавался, и поэтому ссылка с плохой страницы или с гостевой, проходя через 301-й редирект, становилась ссылкой как будто она ставилась с сайта Whitehouse.gov. Вот это было очень круто.

И я реализовал схему, суть ее такова — я взял несколько доменов, создал каждому домену по сотни тысяч субдоменов и сделал следующее: первоначально расставил ссылки с ресурсов, с которых можно было поставить ссылки, на эти субдомены; потом на каждом из этих субдоменов я создал robots.txt, который разрешал индексацию только для Google и запрещал всем остальным поисковикам. Далее я находил место, куда можно было залить много страниц контента (важно, чтобы домен был прошедший Песок; например, это мог быть сайт бесплатного хостинга) и заливал туда кучу страниц по сути сгенерированных (могло быть и миллион страниц) и далее делал 301-й редирект со своих уже пролинкованных субдоменов на вот этот уже залитый контент, и этот контент становился в топе сразу же, мгновенно по всем запросам.

При этом, когда его выносили вручную или алгоритмически (например, в конкурентных областях, где всегда был только человеческий контент, выносили очень часто), то моя система автоматически переключала 301-й на новый домен, прошедший Песок, и он снова становился в топ и так появилась история про невидимые ссылки, в то время часто обсуждаемая среди seoшников.

Невидимые, потому что другие поисковики физически не знали, что происходит такая линкосвязь. То есть через msn и прочие инструменты нельзя было отследить, так как ему был дан robots, а Google их ел, он не отражал их ни по инструменту link, ни по какому другому. Так как, во-первых, у него всё это всегда было с запозданием, во-вторых, через 301-й редирект он это просто не отражал.

Я забил там все конкурентные высокочастотные слова, которые существовали — в общем все что было. Я только еле успевал по ним сайты делать. Эта ошибка еще долгое время существовала и на конференции я об этом сказал."

Источник новости https://t.me/gointopru/69...