Devant la déferlante digitale, les marques et les organisations tentent d’optimiser sans cesse l’ergonomie de leur site web. Leur objectif : augmenter leur visibilité et leur taux de conversion. L’AB Testing leur permet de comparer plusieurs versions d’un même site. Dans la plupart des cas, la version originale est confrontée à des versions légèrement modifiées ou améliorées.

Différents groupes d’utilisateurs

Pour les besoins de cette analyse, différents groupes cibles d’utilisateurs du site internet testé sont répartis en groupe A et B. Deux variantes du site sont alors proposées à chaque groupe. Les réactions sont mesurées et comparées aux objectifs qui ont été déterminés en amont.

Différents scénarios

Dans le cas d’une annonce publicitaire (SEA) par exemple, l’objectif sera d’obtenir un clic ou une conversion. Pour une landing page (page retour), le but rechercher sera plutôt un téléchargement ou un abonnement à une newsletter.

Dans quelle mesure l’AB Testing est-il fonctionnel ? 

Cette méthode autorise plusieurs modalités d’analyse : tester le site Internet complet ou se focaliser sur des éléments de détail (choix d’une police de caractère, codes couleurs, etc.). Ces comparaisons permettent ainsi d’optimiser les différents aspects cognitifs et ergonomiques qui doivent être déployés : 

  • Le Web design
  • Les éléments et les fonctionnalités remaniées
  • Les pages retour (landingpages)
  • Les boutons CTA
  • Les annonces publicitaires d’AdWords
  • La newsletter

Case studies

Un de nos clients spécialisé dans le commerce en ligne (e-commerce) avait constaté que les visiteurs qui se rendaient sur son site de vente interrompaient rapidement leurs achats. Pour améliorer la fonctionnalité de son site, nous avons travaillé sur certains éléments du panier d’achat. Nous avons ensuite comparé les résultats de la version originelle avec ceux de la version modifiée. Ce constat nous a permis d’optimiser la fonctionnalité de son service de vente en ligne.

Un autre de nos clients bien implanté sur le Web souhaitait publier des bandeaux publicitaires pour promouvoir un de ses produits. Pour optimiser cette opération, nous avons testé deux versions différentes de l’annonce en utilisant des mots-clés différents à chaque fois.

Les étapes de la mise en œuvre  

Pour la mise en œuvre de chaque A/B Testing, il est nécessaire de planifier un process en 5 étapes.

Mise en évidence du problème

Il importe tout d’abord de repérer ce qui doit être amélioré. Dans cet esprit, la première étape consiste à identifier le problème  : faible taux de clic sur un bouton, etc. Lorsqu’il est repéré, il s’agit de tester des versions différentes pour repérer celle qui offre le plus de clics sur un bouton CTA. 

Recherches théoriques

Pour que l’analyse soit opérante, il faut s’assurer que toutes les hypothèses d’amélioration se réfèrent à des théories éprouvées. Des recherches préalables (techniques et sémantiques) sont donc nécessaires avant de passer à la phase de test. Pour prétendre qu’un bouton vert fonctionne mieux qu’un bouton bleu, il est par exemple nécessaire de se référer aux études qui portent sur l’influence du choix des couleurs sur le comportement des utilisateurs. Cette étape préalable évite les tâtonnements qui peuvent devenir coûteux

Élaboration de l’hypothèse de travail

Suite aux résultats de ces recherches, une thèse est formulée et des scénarios proposés. Il peut s’agir de la mise en place d’un bouton CTA vert qui devrait conduire à un taux de clics plus élevé. On peut opter pour un changement de position du menu qui devrait faciliter la navigation, …  Les variantes sont infinies.

Phase de tests 

Le test va alors s’orchestrer en deux pages : une variante A avec un bouton CTA bleu et une variante B avec un bouton CTA vert. En  cas de split-testing, les deux versions fonctionnent l’une contre l’autre. Techniquement, les pages pourront être séparées ou donner lieu à la création de deux URLs différentes. Un logiciel d’AB Testing dédié permet de renvoyer aléatoirement un utilisateur d’une version à l’autre.

Analyse et rapport

Lorsque l’on estime que le test a atteint un nombre d’utilisateurs représentatifs (échantillon), l’évaluation peut alors être lancée. Et s’il s’avère que le taux de clic augmente grâce à l’implémentation du bouton CTA vert, cette version est alors adoptée. 

précautions à prendre 

  • Un AB testing n’est pertinent que si tous les élément sont analysés avec rigueur et minutie. C’est d’ailleurs pourquoi il faut éviter de modifier plusieurs éléments en même temps.
  • En matière d’analyse statistique, les données sont moins parlantes sur les petits sites Internet qui disposent d’un trafic faible. 

Outils disponibles sur le marché

  • Proposée gratuitement en ligne, l’option « Content experiments » de Google Analytics est plutôt adaptée aux petites structures.
  • Le programme payant Optimizely propose les mêmes services que le précédent, mais offre un éventail de fonctionnalités beaucoup plus large.
  • Intuitif et facile à installer, Kameleoon offre également un forfait gratuit aux petits sites dotés d’un trafic qui ne dépasse pas les 2500 visiteurs par mois. La version plus étoffée est payante.
  • Pour les sites de plus grande envergure dotés d’un budget important, le programme Visual Website Optimazer offre un très large panel d’options pertinentes mais parfois coûteuses (HP Optimost, SiteSpect, etc.).