Мнение автора может не совпадать с мнением редакции
«Тестирование объявлений — это не для малого бизнеса. У нас нет ни денег, ни людей — кто и за чей счет этим будет заниматься? Да и трафика мало — результаты не будут достоверными...».
Примерно так специалисты говорят о тестировании объявлений в малом бизнесе.
И в чем-то они правы. Если тестировать руками, то застрянешь в рутине. Плюс методологические проблемы — надо понимать, что и как делать. А если обратиться в агентство, то отдашь немало денег (например, здесь мы рассказывали, как агентства съедают до 80% рекламного бюджета).
Что же остается? Надеяться, что исходные варианты объявлений будут «ничего»? Потихоньку править проседающие объявления наугад?
Мы с этим не согласны. Совсем. И мы докажем, что тестирование в малом бизнесе вполне возможно (и может не стоить их владельцам ни секунды времени).
Что такое А/В-тестирование объявлений и что оно дает
Идеальных объявлений не бывает — кто бы их ни составлял. Всегда можно нарастить CTR, позиции и уменьшить цену клика.
А/В-тестирование (сплит-тестирование) — это способ выявить более удачные варианты объявлений из двух возможных.
Как оно происходит:
создаете два варианта одного и того же объявления, но с отличием (другим заголовком, текстом, быстрыми ссылками и т. п.);
запускаете в показ параллельно старое и новое объявление (обычно аудитория делится 50/50 — то есть половина видит текущее объявление, половина — тестируемое);
по результатам тестирования сравниваете целевые показатели (CTR, конверсия, стоимость клика и др.);
если тестируемое объявление показало лучший результат, то оно запускается в показ вместо текущего; если нет — повторяете тестирование с другим вариантом объявления.
В теории тестировать объявления можно бесконечно — даже если вы получили позитивный результат, можно еще что-то улучшить.
Но на практике после достижения положительного результата тестирование обычно прекращают. Все-таки это затратный процесс. И если вы добились роста CTR, скажем, с 3% до 8%, то дальнейшие тесты могут не дать заметного эффекта.
Технология тестирования по своей сути проста. Но когда доходит до дела, начинаются проблемы. И это не только нехватка рук.
Что не так с тестированием объявлений в небольших масштабах
Допустим, вы запускаете с утра тест и к вечеру получаете такие цифры:
Показы
Клики
CTR
Текущее объявление
33
5
15%
Тестируемое объявление
24
0
0%
Казалось бы, что тут думать — тестируемое объявление проиграло.
Если бы объявления показывались «в вакууме» — без влияния каких-либо факторов — то так бы и было. Увеличение показов приводило бы к пропорциональному росту кликов.
Но в реальности есть масса факторов, влияющих на результаты. Поэтому результаты тестирования должны быть статистически значимыми.
Открываем калькулятор размера выборки для А/В-тестирования и огорчаемся:
Если бы мы показали объявление 1700 раз, и CTR составил около 15%, то это этот результат был бы статистически значимым. У нас же всего 33 показа. Разница очевидна.
Продолжаем тестирование и получаем такие результаты:
Показы
Клики
CTR
Текущее объявление
1986
58
2,9%
Тестируемое объявление
2294
112
4,9%
Видим, что тестируемое объявление обошло текущее по CTR.
Так в чем проблема? Рассчитали объем выборки — запустили тест — получили статистически значимые результаты — приняли решение.
Но посмотрим на этот процесс глазами владельца малого бизнеса с условными 40 тыс. руб. в месяц на контекстную рекламу:
40 тыс. руб. при средней цене клика 40 руб. хватит на 1000 кликов в месяц;
на тестирование всего одного объявления по одному фактору (мы же хотим статистически значимые результаты, правильно?) нужно 170 кликов (17% от общего количества);
допустим, в кампании 50 объявлений — каждое дает в среднем по 20 кликов в месяц; то есть мы наберем необходимые 170 кликов по одному объявлению спустя (!) 8,5 месяцев.
Столько ждать никто не будет. Нужны способы ускорения тестирования и получения значимых (насколько это возможно) результатов на малых выборках.
Как тестировать объявления при малом трафике
Уменьшите уровень значимости
Обычно статистическая значимость принимается на уровне 95%. Но в случае с малыми выборками приходится чем-то жертвовать. Понизьте ее до 90% или даже до 85%. Не самый изящный ход — но он работает.