SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чаты❓ Вопрос #366 Провожу для клиентского сайта эксперименты...


#ответы

❓ Вопрос #366

Провожу для клиентского сайта эксперименты. Например: убрать или добавить описание на страницу листинга категории вниз страницы, добавить большее количество выводимых товаров на одной странице, тегирование над листингом, новые тайтлы и вхождения ключевых слов.

Как не запутаться во всех этих изменениях и действительно понимать, что даёт результат, а что не даёт?

Потому что не всегда есть клиент, который готов платить и ждать результат от экспериментов, если делать по одному изменению, ждать апдейта, делать выводы и приступать к следующему эксперименту.

❗️ Ответ

Единственный способ понять, что именно дало результат — вносить по одному изменению для одной тестовой группы и ждать результат.

Иначе, изменив Title, переписав текст и увеличив количество выводимого товара одновременно, Вы не поймёте, что дало результат, а что нет.

👆Крайне важно: вести учёт по изменению и отслеживать результат (позиции/трафик).

Проводить A/B тестирование лучше на большой выборке, в таком случае результаты будут более достоверные.

Как провести A/B тестирование, чтобы отследить результат и быть уверенным, что именно этот эксперимент повлиял:

1️⃣ Шаг 1. Выделяем тестовую группу страниц и контрольную.

Важно: группы страниц должны быть одного типа (например, только страницы листинга или страницы карточек товара).

Пример: https://take.ms/6Fq54.

2️⃣ Шаг 2. Выделяем запросы, по которым будем отслеживать динамику изменений (и для тестовой, и для контрольной групп).

3️⃣ Шаг 3. Вносим одно изменение только на тестовой группе.

Например, увеличиваем количество выводимого товара на странице с 24 до 32 или добавляем кнопку на мини-карточки товара «Купить в 1 клик».

4️⃣ Шаг 4. Отслеживаем динамику позиций и трафика на страницы контрольной группы и тестовой.

Если трафик и позиции улучшились или ухудшились только на тестовой странице — это влияние эксперимента. Если у обеих групп наблюдаются изменения — с большой долей вероятности повлиял не эксперимент, а что-то другое.

👆Вы можете одновременно проводить несколько экспериментов на сайте, но не на одной группе. Например:

▫️Эксперимент #1. Увеличиваем ассортимент:

Тестовая группа «Тушь для ресниц» + бренд (листинг).

Контрольная группа «Тушь для ресниц» + бренд (листинг).

▫️Эксперимент #2. Внедряем вхождение «Цена» на мини-карточках:

Тестовая группа «Косметика для глаз» + тип (листинг).

Контрольная группа «Косметика для глаз» + тип (листинг).

▫️Эксперимент #3. Добавляем счётчик со скидкой:

Тестовая группа «Шампуни» + тип (карточки товара).

Контрольная группа «Шампуни» + тип (листинг).

Таким образом, процесс будет проходить гораздо быстрее. Но это касается только массовых/шаблонных изменений. Тогда проводить A/B тестирование уместно.

Если же говорить об одной странице и ждать результатов, каждый раз после одного внесённого изменения, процесс оптимизации может затянуться до бесконечности. Если работы над страницей комплексные (замена метаданных, текста и т. д.), то наверняка сказать, что именно дало результат, не получится.

Но есть и исключения. Например, если при внутренней перелинковке Вы используете анкор «тушь для коротких ресниц», а на странице такого вхождения нет, и спустя некоторое время именно этот запрос вырос — можно с полной уверенностью говорить, что именно внутренняя перелинковка дала результат.

👉 Подробнее о сплит-тестах можно почесть у нас в блоге: http://bit.ly/2JcgDab.

👉 via @siteclinic_doctor

Источник новости https://t.me/siteclinic_doctor...