Los catálogos online ofrecen posibilidades inimaginables en un catálogo impreso. Pensemos por un momento la idea de entregar en una tienda física, por ejemplo, 500 catálogos de un tipo (opción que llamaremos «A»)y otros 500 catálogos distintos (alternativa «B») y que podamos conocer -en tiempo real- cuál de las dos opciones ha sido la más efectiva en ventas. Luego de eso, deberíamos entregar los siguientes 4.000 catálogos de la opción más exitosa a los próximos visitantes. Este escenario es prácticamente imposible de resolver con catálogos en papel. Veamos, pues, las posibilidades de hacer esto en el mundo digital.
¿Qué es una prueba A/B?
Una prueba A/B o *A/B testing* consiste en ofrecer a un grupo de potenciales compradores o a los visitantes de una página web, en forma aleatoria, una u otra opción de contenido y establecer cuál de las dos alternativas ofrecidas ha obtenido un mejor resultado según un objetivo definido previamente.
¿Cómo se define la opción ganadora?
La opción ganadora es aquella que obtuvo una mejor perfomance según el objetivo establecido de antemano. Si nuestra landing page posee un formulario de registro la ganadora será la que mayor cantidad de registrantes obtuvo o si la acción pretendida es la descarga de un ebook, ganará aquella que obtenga un número más alto de downloads.
Ganó la opción A ¿Cómo seguimos?
Los tests A/B producen resultados rápidos y requieren automatizar todo el proceso. Usualmente se ofrecen dos alternativas a un 20% del público objetivo de la campaña. Si llegan 2 visitantes a la página al primero se le ofrece la alternativa A y al segundo la B. El proceso continuará así hasta cubrir aproximadamente una quinta parte del público total esperado. Según el comportamiento medido sobre ese segmento inicial se ofrece, al 80% restante, la opción que ha rendido mejor en las mediciones. Se obtiene -de este modo- un mejor rendimiento final. No es necesario esperar a finalizar la campaña y corregir para la próxima sino que el A/B test nos permite poner a disposición la mejor opción en tiempo real.
Ejemplos de testing A/B en el marketing digital
El marketing digital cuenta con un gran número de áreas dónde se utiliza permanentemente el A/B testing para sacar provecho de las elecciones de los visitantes, por ejemplo:
Email marketing
En el envío de emails el primer ítem que se mide es el asunto (subject) de un email y se prueban dos alternativas distintas. Se considera ganador aquel subject que obtuvo más aperturas.
Dentro del cuerpo del email se pueden ofrecer también dos opciones, con distintas CTAs (Calls to Action) y resulta triunfante el diseño que obtuvo más clics.
Páginas de aterrizaje (landing pages)
Muchas campañas no dirigen al navegante a la página final donde está el producto, sino a una primera página, llamada página de aterrizaje, que está optimizada para lograr un porcentaje mayor de conversiones. Herramientas como UnBounce o Lander -entre otras- ofrecen la posibilidad de diseñar la opción A y la B de una landing page y medir cuál obtiene el mejor rendimiento.
Las pruebas A/B en los catálogos online
Los catálogos digitales pueden aprovechar esta poderosa herramienta del marketing online para ofrecer distintas versiones de un mismo catálogo a un grupo reducido de visitantes y según las métricas obtenidas establecer un ganador y continuar el resto de la campaña con la variante que mejor resultado alcanzó.
Imaginemos una campaña de 15 días de duración, pensemos también que los visitantes de nuestro catálogo se distribuyen uniformemente a lo largo de ese período.
Veamos que sucede:
– Se lanza la campaña con los catálogos A y B
– Día 1 a 3 = 20% de visitantes llegan a uno u otro catálogo
– 10% del total va a la opción A
– 10% restante va a opción B
– Se determina que la opción B tuvo mejor rendimiento (según objetivo)
– Días 4 a 15 = 80% de los visitantes faltantes son dirigidos al catálogo B.
Google Analytics + Google Optimize = A/B testing
La herramienta de analítica web (Google Analytics) hará el trabajo de medir los resultados y le comunicará a Google Optimize quién es el ganador. Con este resultado GO se encargará de llevar a los visitantes al catálogo más atractivo.
Objetivos a definir
Debemos establecer un solo objetivo para el experimento pero existen múltiples posibilidades para establecerlo:
a) Cantidad de páginas vistas
b) Duración de la sesión
c) Cantidad de clics sobre hotspots
d) Porcentaje de conversión
e) Ventas realizadas
f) Promedio de ticket de compra
g) Otras métricas
En un catálogo online podemos ofrecer una versión con precios y otra con diversas mecánicas de descuento y crear un experimento para determinar si son más efectivos los precios o los porcentajes de descuento.
Otra alternativa podría ser cambiar el orden de las secciones dentro del catálogo para conocer si tal o cual sección obtiene mejor resultados de conversión según su ubicación relativa dentro de la publicación.
El uso de las llamadas a la acción (CTA) también puede medirse según su aspecto, texto, color, ubicación, diseño, tamaño, etc. para ir realizando modificaciones pequeñas y progresivas que mejoren los resultados en próximas campañas.
Las combinaciones de aspectos a medir pueden llegar a ser infinitas y también podríamos armar un abanico de posibilidades cuando nos animemos a ir un paso más adelante y en lugar de manejar opciones A y B nos adentremos en el universo de las multivariables, que ofrecen un mayor número de alternativas a modificar y medir.