Codziennie bierzemy udział w eksperymentach, choćby nie zdając sobie z tego sprawy. Duże firmy nieustannie dążą do optymalizacji konwersji w swoich produktach cyfrowych. Wykorzystują do tego A/B testy, które pozwalają na łatwe i wiarygodne sprawdzenie, co “klika się” lepiej. A co z mniejszymi firmami? Czy mogą one również korzystać z tej metody, aby poprawić swoje metryki? Jak małe przedsiębiorstwa mogą skutecznie wykorzystać testy A/B testy, jakie są ograniczenia oraz jakich błędów się wystrzegać?
O czym w ogóle są testy A/B? Przykładem może być Netflix. Platforma jednocześnie wypuszcza serial z wieloma wariantami okładki, a na podstawie klikalności i popularności poszczególnych wersji, decyduje, która z nich będzie wyświetlana większej grupie odbiorców. Dzięki temu maksymalizuje wyniki, bo jest w stanie dostosować ilustrację do preferencji, grupy wiekowej czy rynku.
Czym są testy A/B?
Zaczęłam od przykładu, ale przyda się też odrobina teorii. Testy A/B są metodą badawczą, używaną w marketingu, projektowaniu stron internetowych i produktów cyfrowych. Polega na porównywaniu co najmniej dwóch wersji witryny, aplikacji lub choćby e-maila, aby określić, która z nich lepiej spełnia określony cel, np. zwiększenie konwersji, klikalności czy zaangażowania użytkownika.
Wariant A nazywany jest również wariantem kontrolnym i odnosi się do strony, komunikatu czy innej kreacji – przed wprowadzeniem zmiany. Wariant B zawiera zmianę, której wpływ na zachowanie użytkownika jest badany. Każdy eksperyment powinien posiadać także hipotezę, która pomoże adekwatnie skonfigurować test, a także ocenić wyniki po jego zakończeniu.
Przykładem hipotezy może być następujące zdanie: “Wierzymy, iż zmiana komunikatu na stronie głównej na skoncentrowany na realny problem użytkownika, zwiększy liczbę wypełnień formularza kontaktowego”. Dodatkowo warto założyć z góry, jak duży wzrost (lub spadek) w stosunku do wariantu kontrolnego jest oczekiwany – 5, 10 czy 40%? To pomoże w ewaluacji wyników testu.
Główną zaletą testów A/B jest pozyskiwanie danych od prawdziwych użytkowników podczas ich realnych interakcji z produktem. Dzięki temu dane są wartościowe i mogą zostać wykorzystane do podejmowania decyzji produktowych. Daje to dużą przewagę nad panelami badawczymi czy testami użyteczności, które realizowane są „w warunkach laboratoryjnych”, są sytuacją wymuszoną, co może mieć wpływ na rezultat testu. Zachowujemy się inaczej, kiedy wiemy, iż jesteśmy obserwowani.
Przy A/B testach ten problem znika, bo nie ma wymogu informowania użytkownika o tym, iż jest takim testom poddawany. Nieświadomy uczestnik badania widzi tylko jeden z wariantów produktu.
Warianty wyświetlane są użytkownikom w sposób losowy, a wyniki zbiera się przez określony czas. Liczebność grupy i czas testu nie powinny być jednak dziełem przypadku. Zaplanowanie testów jest prawdopodobnie najbardziej wymagającą częścią procesu, ale zdecydowanie warto poświęcić czas na zagłębienie się w to, jeżeli na szali stoi powodzenie projektu.
Na szczęście powstało wiele narzędzi, które ułatwiają podstawowe wyliczenia. Można znaleźć je znaleźć, wyszukując hasło “A/B test calculator”. Należy przygotować się na trochę statystyki oraz matematyki.
Czy konieczna jest specjalistyczna wiedza?
Na ogół do przeprowadzania testów A/B nie jest wymagana zaawansowana wiedza z zakresu statystyki czy analizy danych, jednak podstawy warto znać. Samo uruchomienie testu jest proste i każdy w miarę doświadczony programista powinien sobie z tym poradzić. Wyzwanie może pojawić się na etapie analizy oraz pre-analizy.
Zrozumienie statystyki umożliwia lepsze planowanie testów, w tym ustalenie odpowiedniej wielkości próby (ilu użytkowników) i czasu trwania testu, aby wyniki były wiarygodne. Podczas planowania uwzględnić należy sezonowość produktu czy usługi.
Przykładowo, dla sklepu internetowego z zabawkami, inne rezultaty można otrzymać w marcu, a inne w grudniu, kiedy rodzice (tfu, Mikołaj!) zaopatrują się w prezenty. Tutaj nie ma uniwersalnej reguły, wszystko zależy od usługi. Jednak mówi się, o minimalnym czasie testu, jakim jest 7 dni, aby uwzględnić ruch na przestrzeni pełnego tygodnia.
Znajomość podstawowych koncepcji statystycznych jest kluczowa również do prawidłowego interpretowania wyników testów A/B. Pozwala to na ocenę, czy zaobserwowane zmiany są statystycznie istotne. Oprócz tego, znajomość statystyki pomaga unikać błędów, takich jak nadinterpretacja krótkotrwałych trendów lub zmian, które nie mają rzeczywistego wpływu na zachowania użytkowników.
Jakie korzyści testy A/B mogą dać małym firmom
Testy A/B są doskonałym sposobem, aby przejść z projektowania opartego na własnych przekonaniach, do takiego, w którym stawiamy na realne dane i sygnały od użytkowników. Ta forma testowania nie jest zarezerwowana wyłącznie dla dużych graczy.
Eksperymenty pozwalają na testowanie różnych wariantów komunikacji na stronie internetowej, co pozwala na lepsze zrozumienie klientów i ich preferencji. Testować można treści, obrazki, układ strony, formularze – każda z tych zmian może wpłynąć pozytywnie na konwersję. Zastosowanie testu pomoże lepiej zrozumieć wpływ zmiany na zachowanie oraz zapobiegnie większym stratom, jeżeli zmiana miałaby mieć negatywny wpływ na wyniki.
Dodatkowo, testy A/B nie wymagają dużych nakładów finansowych, dlatego są metodą eksperymentowania dostępną dla wszystkich. Jedynym kosztem będzie przygotowanie drugiego wariantu danego elementu, jego wdrożenie oraz czas potrzebny na analizę. Ta inwestycja może prędko się zwrócić, kiedy dzięki eksperymentom uda się odkryć, iż mała zmiana na stronie przyniesie znaczący wzrost liczby zamówień.
Testy A/B w małych firmach? Oto największe wyzwania
Potencjalne korzyści ze stosowania tej metody są duże, jednak nie ma nic za darmo. Choć testy A/B są narzędziem o dużych możliwościach, to nie wszystkie małe firmy są w stanie z nich w pełni skorzystać. jeżeli jesteś szefem takiego właśnie przedsiębiorstwa, powinieneś zdawać sobie sprawę z dwóch najważniejszych wyzwań.
Mały ruch na stronie
Największym problemem, może być mały ruch na stronie. Niestety, kiedy liczba odwiedzających nie jest odpowiednio wysoka, eksperyment będzie musiał trwać bardzo długo, zanim zbierze się próba, wystarczająca do wyciągnięcia istotnych statystycznie wniosków.
Przy ruchu mniejszym niż 1000 odwiedzających miesięcznie, test będzie trwał kilka miesięcy. Cała idea optymalizacji konwersji i wykorzystywania w tym celu testów A/B, polega na szybkim walidowaniu hipotez i iterowaniu. Kiedy test trwa za długo, może to być demotywujące dla zespołu i skutecznie zniechęcać do kolejnych eksperymentów.
Przy małym wolumenie ruchu i po wyliczeniu długiego czasu zbierania danych, może przyjść pokusa, aby dodać więcej zmian do testu. Spotkałam się już z takimi testami, gdzie zmieniano praktycznie wszystko i porównywano wyniki konwersji. Czy jest to dozwolone? Oczywiście, nie można tego zabronić.
Należy się jednak zastanowić, co jest celem testu? I co za pośrednictwem tego eksperymentu chce się osiągnąć? jeżeli warianty będą różniły się wieloma zmiennymi, to jednym wnioskiem, jaki będzie można na koniec wyciągnąć, będzie “wariant B zawierający połączenie zmian x, y, z, przyniósł wzrost konwersji w stosunku do wersji kontrolnej A”. I dla niektórych, taka informacja może być wystarczająca.
W idealnej sytuacji, kiedy testuje się jedną zmienną, rezultat pozwala się czegoś nauczyć o użytkownikach i ich preferencjach np. “zmiana x w wariancie B przyczyniła się do wzrostu konwersji”. Co ważne, ta zmiana, to nie musi być jedna rzecz, typu kolor czy tekst na przycisku. Różnice mogą być większe np. zmiana komunikacji na stronie skierowana do użytkownika versus komunikacja bezosobowa w wersji kontrolnej, albo zmiana kolorystyki na całej stronie, ale bez modyfikacji układu i tekstów.
Rozwiązaniem, może być skupienie się przede wszystkim na elementach kluczowych dla konwersji – opisy produktów, proces zakupowy, formularz kontaktowy. Bo tam, najszybciej będzie widać rezultaty. Nie ma co się dziwić, iż nie widać efektów, kiedy testom poddaje się stopkę. Przy zmianach mniej widocznych dla użytkownika, lepiej po prostu je wdrożyć i najwyżej cofnąć zmiany, kiedy zaobserwujemy niepokojące spadki w danych.
Nie należy ograniczać się tylko do A/B testów. Istnieje wiele innych metod, dzięki którym można zebrać informację zwrotną od użytkowników, kiedy ruch na stronie jest niski. Przykładem mogą być testy preferencji lub testy użyteczności, stosowane szeroko w projektowaniu doświadczeń użytkowników (ang. UX Design).
Brak kompetencji do analizowania danych
Drugim wyzwaniem może być analiza danych, jeżeli w zespole nie ma osoby z odpowiednimi kompetencjami. W dużych firmach istnieją osobne zespoły skoncentrowane tylko na optymalizacji konwersji na różnych etapach lejka sprzedażowego. Pracują tam ludzie, którzy są w tym kierunku wykształceni, a statystyka i odczytywanie danych, to ich chleb powszedni.
W małej firmie prawdopodobnie nie będzie osobnego zespołu, który zajmuje się analizą danych. Być może, nie będzie choćby jednej osoby, która w pełni skupia się na optymalizacji. Prawdopodobnie ktoś będzie zajmował się tym z doskoku, szczególnie w sytuacji, kiedy planowane testy A/B mają trwać tygodniami, jak nie miesiącami. W takim przypadku, warto zadbać, żeby była to osoba o adekwatnych kompetencjach.
Programy do analizy danych są coraz bardziej przystępne także dla laików. Dashboardy (pulpity nawigacyjne) są kolorowe, raporty czytelne i przejrzyste. Przez to można ulec złudzeniu, iż wnioski są na wyciagnięcie ręki. Spotkałam się już z sytuacjami, kiedy osoby bez odpowiedniej wiedzy, porywały się na analizę danych, bo “data-driven design” jest taki modny. Jednak nie mając odpowiedniej wiedzy, łatwo przeoczyć istotny kontekst danych i źle je zinterpretować.
Niestety, decyzja oparta na źle odczytanych i zinterpretowanych danych może być równie nietrafiona – albo choćby gorsza w skutkach – niż decyzja oparta o własne domysły. Jest to jeszcze bardziej niebezpieczne, kiedy nie ma w zasięgu drugiej osoby, która takie informacje zweryfikuje.
Najczęstsze błędy A/B testowania
W ramach podsumowania i przestrogi, kilka najczęściej popełnianych błędów podczas testów A/B.
- Testowanie zbyt wielu zmiennych naraz. To może prowadzić do niejasnych wyników i trudności w określeniu, co dokładnie wpłynęło na zmianę w konwersji.
- Ignorowanie istotności statystycznej. Bez osiągnięcia istotności statystycznej, istnieje ryzyko wyciągnięcia błędnych wniosków.
- Wyciąganie wniosków zbyt szybko. Wnioskowanie na podstawie niepełnych lub przedwczesnych danych również może prowadzić do nieprawdziwych konkluzji.
- Opieranie się na subiektywnych preferencjach. Zdarza się, iż pomimo zebrania danych, wnioski wyciągane są w sposób subiektywny. Dlatego ważne jest, aby zawsze spisywać hipotezę oraz założyć satysfakcjonujący wzrost metryki, który pozwoli na obiektywną ocenę rezultatu testu.
Podsumowując, testy A/B są potężnym narzędziem w arsenale marketingowym, które może przynieść znaczące korzyści zarówno dużym korporacjom, jak i mniejszym przedsiębiorstwom. Jednakże, dla małych firm, które często borykają się z ograniczonym ruchem na swoich stronach internetowych, wykorzystanie tej metody może stanowić wyzwanie. Mały ruch na stronie oznacza, iż zebranie odpowiedniej ilości danych potrzebnych do uzyskania wiarygodnych wyników testów A/B może zająć znacznie więcej czasu. To z kolei może wpływać na szybkość podejmowania decyzji i implementacji zmian.
W kontekście małego ruchu, kluczowe staje się skupienie na najważniejszych elementach strony lub aplikacji, które mają największy potencjalny wpływ na konwersję. Należy również pamiętać o odpowiednim planowaniu i projektowaniu testów, aby choćby z mniejszej liczby danych móc wyciągnąć użyteczne wnioski.
Małe firmy powinny także być świadome, iż A/B testy to proces ciągłej nauki i adaptacji. Wyniki testów powinny być traktowane jako część ciągłego procesu optymalizacji, a nie jako jednorazowe działanie. Ważne jest, aby nie tracić z oczu celu, jakim jest lepsze zrozumienie i spełnianie potrzeb klientów, a nie tylko chwilowe zwiększenie metryk.
Wreszcie, małe firmy podejmujące się A/B testowania, powinny być przygotowane na to, iż nie każde badanie przyniesie rewolucyjne zmiany. Często to drobne, ale istotne modyfikacje prowadzą do trwałego, choć stopniowego wzrostu efektywności. W tym długoterminowym podejściu kryje się prawdziwa siła testów A/B – zdolność do ciągłego ulepszania i dostosowywania się do zmieniających się potrzeb i oczekiwań klientów.
Prowadzisz sklep internetowy? Przeczytaj jak fałszywe recenzje produktów mogą zaszkodzić Twojemu biznesowi.
Źródło zdjęcia: Aneta Pawlik/Unsplash, Pete Alexopoulos/Unsplash