L’une des questions fréquemment posées provient d’utilisateurs intéressés par un test de concurrence (type test A/B commenté) ou un test de préférence mais qui ne savent pas quel genre de test est bon pour eux, ou quel genre de résultats ils pourraient attendre pour chaque type de test, ou bien la manière de commencer des tests d'utilisabilité. Concernant la dernière question, nous sommes tentés de répondre : en utilisant le test d’utilisabilité de Testapic bien entendu. Mais les deux premières questions peuvent encore être assez déroutantes. Il faut aborder les différences entre ces deux types de tests (test A/B et test de préférence) car les deux peuvent être très utiles pour la collecte de certains types d'informations.

Test d'utilisabilité A/B

Le test A/B est une méthode très populaire pour les tests de variations dans les sites en production (= en ligne). Vous pouvez ainsi avoir 2 variantes d'un texte, bouton ou autre chose et trouver celui qui fonctionne le mieux. Ceci est réalisé par l'envoi d'environ 50% du trafic des sites avec des variations différentes (A ou B - et non deux) pour voir celle qui fonctionne le mieux. Pour des tests d'utilisabilité A/B, le concept est très similaire. Quelques soient les idées que vous avez à tester, quelques soient les variations auxquelles vous pouvez penser, il vous suffit de les télécharger toutes les 2, de définir une tâche, et de voir ce qui fonctionne le mieux auprès de votre cible de testeurs définit sur Testapic. La grande amélioration est que vous n'avez pas besoin d'apporter des modifications à votre site en direct, et il est facile d'ajouter des tâches multiples pour tester différentes variantes même sur des prototypes. Les tests d'utilisabilité A/B est intéressants pour tester des alternatives, par la structure de navigation, la conception des boutons, les emplacements des boutons - basiquement n’importe quoi ; même une petite variation, peut faire une différence pour l'utilisateur final et l'utilisabilité de votre site.

Tests de préférence

Les tests de préférence sont définis lorsque 2 images / wireframes / screenshots sont présentés côte à côte, et les utilisateurs peuvent choisir lequel ils préfèrent sur la base des critères de test que vous avez défini pour eux - généralement quelle «conception préférez-vous ? ». Les tests préférence sont vraiment utiles pour tester une gamme de choses différentes : il peut vous aider à mieux comprendre les conventions de conception, pour regarder les préférences à travers les différences de ciblage, pour comprendre comment de petites différences peuvent affecter vos utilisateurs et ainsi de suite. Comme avec les tests d'utilisabilité A/B, il y a une vaste gamme de choses différentes que vous pouvez tester et les bénéficies que votre site peut retirer par ce genre de tests.

Quelques exemples: Tests A/B et tests de préférence

Bien sûr, il est facile de parler de ces méthodes d'essai différentes, mais le moyen le plus efficace pour comprendre ce qu'ils signifient réellement est de les voir en action:

Le test A/B

Un grand exemple de ceci est un test qui compare Bing et Google. Evidemment les objectifs des deux sites sont très similaires, mais la façon dont ils sont structurés est très différente. Nous voulions trouver celui qui fonctionne le mieux – non pas concernant les résultats de recherche, mais en termes d’utilisabilité et d'optimisation. Quelques-uns des objectifs des deux moteurs de recherche ont été analysés. Dans l'exemple ci-dessus, la publicité a été analysée dans le cadre d’un test - la publicité étant une partie essentielle de source de revenus pour un moteur de recherche. Dans la première partie du test, les utilisateurs sont soit dirigés soit vers un screenshot de Bing ou Google, et essayent de trouver le lien pour la publicité avec ce fournisseur.

Test A/B : Résultats des tests de zone de chaleur - Google vs Bing

Lorsque l'on regarde les résultats ci-dessus, il est possible de voir que non seulement le temps de clic moyen est beaucoup plus faible pour Google dans cet exemple (un peu plus de 7 secondes pour Google à près de 11 secondes pour Bing), mais aussi le taux de réussite des utilisateurs qui trouvent le bon bouton est beaucoup plus élevé (77% pour Google contre 65% pour Bing). Cela signifie que Bing devrait vraiment se concentrer davantage sur l'emplacement de ce bouton en essayant de le rendre plus visible.

Test de préférence

D’après un article sur les studios Spyre qui traite de l'expérience utilisateur et de la psychologie de la couleur, il a été montré que la couleur rouge était généralement utilisée pour afficher une confirmation (message positif) aussi bien que pour l'échec (message d'avertissement). Ce que les tests ont montré avec une écrasante majorité, c'est que 88% des gens associent rouge avec l'échec. Les tests ont aussi montré que le rouge était la couleur qui se démarque le plus. La plupart des utilisateurs pensent que le rouge est le plus logique pour un texte d'avertissement - un énorme 97% des utilisateurs ont choisi le rouge pour le texte d'avertissement. D’après une autre question du test, 74% des utilisateurs choisissent le vert pour un message de réussite. Bien que ces résultats paraissent évidents, dans de nombreux exemples fondés sur la culture, le sexe, l'âge ou un certain nombre d'autres facteurs, les gens choisissent des options différentes dans ce type de test. Si vous voulez rendre votre site aussi efficace que possible pour vos visiteurs, vous devriez vraiment réaliser ce type de tests. Maintenant que vous connaissez la différence entre les tests d'utilisabilité A/B et les tests de préférence, vous pouvez travailler sur ce qui est la meilleure option pour vous la prochaine fois que vous vous apprêtez à tester.

Test de concurrence

Testapic a regroupé ces 2 types de test sous un seul et même test qui est le test de concurrence qui permet de faire du test d’utilisabilité A/B mais aussi du test de préférence sur 2 éléments au travers d’un scénario de test sur mesure. Source

Published by : - Classés dans : Best practices