Table of contents
Kampanie Google Ads mają wiele elementów, które wpływają na ich skuteczność. Jednak drastyczne zmiany w kampaniach mogą wywoływać obawy z rodzaju „a co się stanie gdy” i niemożności porównania zachowania się kampanii w czasie rzeczywistym pod różnymi ustawieniami, tym bardziej uwzględniając zmiany w branży, takie jak sezonowość, konkurencyjność i aktualnie toczące się wydarzenia. A co gdybym powiedziała, że jest na to rozwiązanie?
Eksperymenty Google Ads pozwalają na wygodne przetestowanie nowych ustawień w ramach automatycznego testu, dzielącego ruch z kampanii na kampanię oryginalną i kampanię eksperymentalną według wyznaczonych przez nas proporcji – najlepiej w podziale po 50%. Po uzyskaniu wystarczającej liczby danych, by wyniki były wiarygodne, można taki test zakończyć lub wprowadzić testowane zmiany – zależnie od osiągniętych dla poszczególnych wariantów rezultatów. Jest to szczególnie wartościowa funkcjonalność, kiedy mamy już pewność, że samej struktury konta reklamowego nie da się już poprawić w znaczący sposób, jesteśmy usatysfakcjonowani z wybranych przez nas fraz i wykluczeń, i chcemy przetestować zmiany w skali makro. Tym bardziej, że istotność zmiany jest bardzo ważnym czynnikiem przy opracowywaniu eksperymentu.
Przeprowadzenie takiego eksperymentu do tej pory przechodziło dwuetapowo – najpierw należało stworzyć wersję roboczą kampanii, by wprowadzić wszystkie zmiany, które będą porównywane, a dopiero po jej skonfigurowaniu uruchamialiśmy eksperyment. Nie jest to już konieczne – Google uprościło ten proces i udostępniło dodatkowe opcje eksperymentów, dla wszystkich z nich już przy tworzeniu eksperymentu można ustalić, których kampanii dotyczą i poprzez ten interfejs utworzyć kampanię próbną. Ułatwiono też nazywanie eksperymentalnej kampanii – wystarczy dodać własny sufiks, a będzie on dodany automatycznie do nazwy pochodzącej z kampanii oryginalnej.
Co warto testować?
Możliwości jest sporo, nie mniej warto zachować umiar w doborze zmiennych – gdyż im więcej elementów różni kampanię główną i eksperyment, tym trudniej przypisać zmiany w statystykach do konkretnego czynnika.
Eksperymenty mogą być na przykład używane do sprawdzania zmian w słowach kluczowych, stronach docelowych, strategiach ustalania stawek, grupach odbiorców i innych elementach. Testując zmianę tylko na części ruchu, ryzykujemy mniej i w sposób kontrolowany.
Jak to natomiast wygląda w praktyce? Dzięki eksperymentom możesz dowiedzieć się:
- czy zmiana w nagłówku reklamy wpływa na osiągane rezultaty – i inne zmiany treści o podobnym charakterze.
- czy zmiana strony docelowej przekłada się na większą ilość konwersji – może się okazać, że od miejsca w witrynie na którym wyląduje potencjalny klient, będzie znacząco zależeć czy wykona pożądaną przez nas akcję w witrynie.
- jak na wyniki przekładają się zmiany w wyświetlanych URL – warte uwagi tym bardziej, że jest to jedno z niewielu pól w elastycznych reklamach w wyszukiwarce, które nie pozwala na dodanie wielu wariantów do rotacji.
- jak zmiana puli i dopasowania słów kluczowych wpływa na działanie kampanii – to może być dobra okazja do przetestowania przybliżonego dopasowania słów kluczowych, jeśli żywimy tu obawy przed rozszerzeniem zasięgu i pozwoleniem algorytmom na aż taką swobodę.
- czy rozszerzenie targetowania o nowe obszary geograficzne przyniesie pozytywny rezultat – dzięki temu będziemy mogli ocenić potencjał kampanii w nowych regionach, zachowując te, które już teraz dobrze działają.
A to tylko kilka przykładów scenariuszy eksperymentów. Trzeba jednak mieć na względzie, że w ramach eksperymentów jesteśmy pozbawieni niektórych funkcjonalności. Nie zobaczymy wyszukiwanych fraz, analizy aukcji – zatem zanim dokonamy takiego testu, sprawdźmy czy na pewno objęliśmy wszystkie istotne wykluczenia.
Nie mniej, z uwagi na ograniczenia eksperymentów, przy wyborze testowanego elementu warto przemyśleć jego realne znaczenie – czy dana zmiana w ogóle ma szansę przynieść wymierne rezultaty?
A dostępne mamy 3 typy eksperymentów:
- odnoszące się do zmian w reklamach tekstowych-
- eksperyment w oparciu o różne reklamy wideo (w tym przypadku w ramach jednego eksperymentu możemy zdefiniować od 2 do 4 wariantów)
- eksperyment niestandardowy, podobny do dotychczasowych, gdzie już od nas zależy, które dokładnie ustawienie zmienimy – aczkolwiek ostatnia opcja jest dostępna tylko dla kampanii w wyszukiwarce i kampanii w sieci reklamowej.
Sam charakter kampanii w wyszukiwarce pozwala dodatkowo na decyzję czy podział ruchu w eksperymencie ma być oparty o wyszukiwania czy o cookies – w pierwszym przypadku każde wyszukiwanie na nowo ma przypisywaną główną lub testową wersję kampanii – w drugim przydzieloną wersję przypisuje do danej osoby i już się ona nie zmienia bez względu na liczbę wykonanych zapytań. Wymaga to jednak odpowiednio liczebnej listy użytkowników, więc mówimy w tym przypadku o kampaniach o raczej większym wolumenie ruchu.
O czym warto pamiętać?
Podział kampanii jest oparty na ilości aukcji a nie budżecie, może się zatem zdarzyć, że poszczególne wersje wydadzą budżety w innej wysokości, szczególnie, jeśli ich skuteczność będzie się znacząco różnić. Nie jest to powód do niepokoju, a naturalna kolej rzeczy.
Eksperymenty nie korzystają z danych historycznych oryginalnych kampanii, dlatego pierwsze dwa tygodnie działania nie powinny być brane pod uwagę przy porównywaniu wyników – jest to standardowy okres nauki algorytmów. Rekomenduję zatem na taki test przeznaczyć co najmniej 6 tygodni. Ponadto, każdy eksperyment może się zacząć najwcześniej następnego dnia – by zawsze mieć pełne wyniki z całej doby. Dobrą praktyką jest wręcz ustawienie go odpowiednio z wyprzedzeniem, by ewentualne opóźnienie w akceptacji nowej kampanii nie zakłóciło testu.
Złożone programy testów to także konieczność efektywnego planowania harmonogramu. Można ustawić ich z wyprzedzeniem aż pięć względem jednej kampanii, ale naraz można mieć tylko jeden aktywny eksperyment, kluczowe jest zatem wybrać zmienne o największym znaczeniu.
Jeśli chcemy przetestować zmiany w kampanii, która dzieli budżet z innymi, będziemy musieli je najpierw rozdzielić – nie ma możliwości prowadzenia eksperymentów na kampaniach ze wspólnym budżetem.
Dość istotnym jest, by datę zakończenia eksperymentu ustawić na nawet dalszą datę niż wstępnie przewidujemy jego zakończenie – głównie z tego względu, że o ile trwający eksperyment można przerwać w każdej chwili, tak eksperymentu już zakończonego nie ma możliwości przedłużyć. Już uruchomionego eksperymentu nie można również tymczasowo wstrzymać, będzie on działał aż do jego przerwania lub zakończenia.
Uważajmy też na modyfikacje oryginalnej kampanii w trakcie trwania testu – co prawda Google umożliwia już przy tworzeniu eksperymentu na synchronizację między kampanią główną a kampanią eksperymentalną, jeśli takie zmiany będą miały miejsce, mimo wszystko może to zakłócać wyniki, podobnie jak zmieniałoby działanie kampanii i bez eksperymentu.
Kolejną ważną kwestią jest fakt, że eksperymenty dokonywane są na poziomie kampanii – jeśli chcemy sprawdzić zmianę bardziej globalną – chociażby wpływ strony docelowej na wyniki – na poziomie całego konta, niestety będzie wymagało to ustawienia eksperymentu dla każdej kampanii oddzielnie. Rozsądniej jest wówczas zacząć od wybranych kilku kampanii i na bazie ich testów podjęcie decyzji dla całej struktury konta reklamowego.
Mamy już dane, i co dalej?
Zależnie od wyników (a na ich podstawie naszej decyzji co do dalszych działań), można eksperyment zakończyć bez wprowadzania zmian, zaaplikować zmiany do istniejącej, oryginalnej kampanii, lub stworzyć z eksperymentu nową kampanię. Ostatnia opcja wydaje się najbardziej odpowiednia, jeśli dokonane zmiany chcemy odciąć grubą kreską od tego co było dotychczas.
Statystyki Google prezentują w klarowny sposób, na ile zmiany w wybranych parametrach są statystycznie istotne. Może się jednak zdarzyć, że mimo dłuższego czasu trwania testu, eksperyment nie uzyskał wystarczającej wiarygodności. Może to wynikać z małej intensywności kampanii – a tym samym za małej ilości danych – lub z faktu, że dokonana zmiana nie wpływa na kampanię aż tak znacząco jakbyśmy się tego spodziewali.
W nowym interfejsie eksperymentów mamy już możliwość dopasowania raportu z wyników do naszych oczekiwań – i uwzględnienia tych statystyk, które są dla nas najistotniejsze, i które chcemy – poprzez eksperyment – poprawić.
Przy analizowaniu danych warto też sprawdzić, czy uzyskane wyniki odnoszą się równomiernie do całości kampanii, czy też zależnie od danej grupy reklam znacząco się różnią – i uwzględnić to przy dokonywaniu modyfikacji.
Jeden eksperyment raz na jakiś czas nie przyniesie też takich efektów, jak konsekwentne, regularne sprawdzanie nowych pomysłów na ulepszenie kampanii – każda procentowa poprawa wyniku finalnie może skumulować się do imponujących rozmiarów.
Podsumowując, eksperymenty w Google Ads to zdecydowanie gra warta świeczki. Dobrą praktyką agencji digital, na której skorzystają wszyscy zainteresowani – jest dokumentowanie rezultatów z już przeprowadzonych eksperymentów. To pozwoli chociażby na to, by przy tworzeniu nowych kampanii w ramach tego samego konta od razu uwzględnić wypracowane już wnioski.
Wygląda też na to, że Google coraz chętniej będzie oferować rozwiązania z tego zakresu, by ośmielić niezdecydowanych reklamodawców do popartej rzeczywistymi danymi, odnoszącymi się konkretnie do danego biznesu, przewagi algorytmów. Już teraz pojawiają się testowe rozwiązania obejmujące kolejne segmenty kampanii. Być może z czasem i kampanie Discovery i PLA doczekają się testów o podobnej mnogości opcji.
Co więcej, warto zainteresować się, co oferują w tym temacie dodatkowe narzędzia ułatwiające pracę nad kampaniami, zwłaszcza jeśli używamy ich już do innych celów. Przykładowo, Optmyzr pozwala na wgląd w wiele eksperymentów na różnych kontach reklamowych naraz – co ułatwia kontrolę nad nimi i wyciąganie wniosków. Udanego i owocnego testowania!
Let's talk!
Certified specialist with many years of experience, with Up&More since 2016. Her campaigns have been awarded many times in prestigious industry plebiscites. He has experience with clients from the development, automotive and mobile application industries.