8 / 07 / 2009Balancing Security with Usability : results from a new study shedding light on this design challenge

E-commerce sites are failing to present security measures in a user-friendly way”.

This article struck me as very interesting as I am presently conducting usability testing with a financial services’ Web site, on its newly redesigned information on security section aiming at better serve and educate their online clients about security issues.

The challenge is to reassure fearful clients regarding all the measures offered to them, and sometimes even guaranteed to them. But the key question is how much information is enough in such contexts? For some users, reassuring them implies exhaustivity, and for other, it means clear but short basic security statements along with the right cues during interaction, like the security lock icon which should always be there, right in your face.

Here are the first lines of the article but the best part are the results!

“Experts at a recent roundtable event hosted by Oracle debated the results of a survey which casts new light on the problems faced by online merchants in balancing security with usability, and maintaining customer loyalty.

There were calls for e-commerce firms to better communicate with customers on the security steps being taken, and to approach online fraud prevention in a more sophisticated and multi-layered way.

The study, entitled Online Security: A Human Perspective, was commissioned by Oracle and carried out by user experience consultancy Foviance. The firm surveyed 550 UK consumers, gathering quantitative data which was then enhanced with qualitative data from the results of a diary study and focus groups.

The results:

They suggest an “almost frightening lack of understanding and awareness about online security and the resulting threats…with only 15 per cent of respondents admitted to not understanding the risks”[...]“People were using vocabulary they didn’t understand [like phishing and malware] because they’d heard it in the press”. [...]The survey found that many current security measures are “cumbersome and non-intuitive”, forcing many to circumvent such measures with risky strategies, such as writing passwords on bills or in diaries.”

Read more! Here is the full article by Phil Muncaster, from V3.co.uk, formerly VNUNET.com.
July 6th, 2009.

It is interesting to read the results in the light of Jakob Nielsen’s recent alertbox (June 23rd, 2009) discussing Usability issues around masking password design practices, and claiming that “Usability suffers when users type in passwords and the only feedback they get is a row of bullets. Typically, masking passwords doesn’t even increase security, but it does cost you business due to login failures.”

30 / 11 / 2008Guerrilla usability testing

Il y a toujours beaucoup de résistance de la part des entreprises à s’engager dans des tests d’utilisabilité. Et lorsque l’on a réussi à faire franchir l’étape de compréhension de l’importance cruciale de faire tester les sites par les usagers en substitut ou complément aux évaluations expertes, la principale raison invoquée en “résistance” après les budgets ($$$) est le plus souvent le temps…et à raison, car le temps est aussi rare que les budgets dans les projets…

Trouver le bon équilibre entre savoir où “couper” dans le temps, sans compromettre en “qualité” de résultats est un grand défi auquel on est souvent confronté en tant qu’ergonomes des interfaces internes ou consultants….voici donc une réflexion à ce sujet: “Quick turnaround usability”. Il s’agit d’un article assez récent, extrait de Boxes and Arrows (sept 2008) qui explore ce défi de façon intéressante. Il s’agit de s’outiller pour trouver le juste milieu méthodologique entre “discount usability” et “cheap usability”…

Également, pour tous ceux qui souhaitent fournir de la “documentation comestible” (info that busy managers or executives can digest…) sur les tests d’utilisabilité à leurs clients intéressés. L’article “How to conduct guerrilla testing to perfect usability“, tout fraîchement “pressé”…sur TechRadar.com, constitue de quoi les informer sur le processus de tests d’utilisabilité de façon à la fois simple et claire, et relativement succcincte. Bref, c’est un bon document de vulgarisation de l’approche, mais dont l’information clé demeure “juste” en couvrant tous les points essentiels et leurs enjeux (par opposition à des articles aux descriptions vagues, ultra simplistes et très souvent réductrices).

Encore une fois, il s’agit de bien couvrir le spectre entre “la totale” et “l’accommodement raisonnable”, et cerner les limites infranchissables du “compromis acceptable” dans cette forme de “d’utilisabilité-guerrilla” à laquelle on doit souvent avoir recours…sous risque de haute peine de traîtrise à la discipline qui nous nourrit…et aux principes fondamentaux qui sous-tendent son efficacité à améliorer la qualité électronique d’un système.

C’est aussi dans cette capacité du “juste” compromis qu’on peut voir la différence entre de l’ergonomie improvisée à partir de deux livres de Jakob Nielsen et celle qui s’appuie sur la formation et l’expérience…Souvent, je trouve que les tests d’utilisabilité sont traités par leurs analystes un peu à la manière des sondages, c’est à dire qu’on peut arriver à leur faire dire à peu près “n’importe quoi n’importe comment” si on se penche un tout petit peu sur l’approche méthodologique sous le capot…

16 / 09 / 2008Speed testing…

Après le speed dating, speed jobbing,…voici le speed testing!
Et on teste quoi? Des sites Web.

Usertesting.com (merci Kam!!)

Knotice
(merci Sylvain!)

Des tests usagers automatisés? Why not?
What are the benefits?
J’en vois plein! :-)
What are the limits?
On sait tous ce que donne les traducteurs automatisés…

Je n’ai malheureusement pas le temps d’élaborer ce billet aujourd’hui comme je le souhaiterais mais dieu sait si j’en aurais à dire…et vous aussi sûrement!

N’hésitez-pas à me dire ce que vous en pensez, y a un beau débat à faire là dessus! :-)

17 / 10 / 2007Usability testing: Not a matter of users so much as of analysts – be it for the quantity or the quality approaches

Je trouve souvent que certains articles ont tendance à donner l’impression que pour réussir un bon test d’utilisabilité, tout est une question d’usagers: le bon nombre (quantité), les bons usagers (segments cibles), etc. Cela obstrue souvent l’immense travail d’analyse et le rôle crucial des analystes…et ce, que l’on parle d’approche quantitative ou qualitative.

Ce billet fait suite à la lecture de deux articles parus cette semaine par Jakob Nielsen du NN/g et Rachel Hinman d’Adaptive Path sur les tests d’utilisabilité et l’analyse des données ou encore tout le data qui provient de ces tests. J’aimerais insister ici sur la réalité derrière cet “écran usagers”…j’utilise ici le terme “écran” dans le double sens de ce qui se passe derrière le moniteur, mais aussi au sens de la “façade usagers” que l’on expose le plus souvent concernant les tests d’utilisabilité (en reléguant un peu trop à l’arrière boutique tout le “back-end” des analystes sur lesquels ces tests reposent également beaucoup pour produire des résultats de tests informatifs…).

Oui ce sont des tests avec des usagers, certes, mais ne nous laissons pas leurrer, derrière l’écran ce n’est pas tant une question de nombre d’usagers que de nombre d’alanystes (lire : de temps d’analyse peu importe le nombre d’analystes sur la job)…pour pouvoir traiter tout le data qui est extrait des tests – et dieu sait s’il y en a…des heures de vidéos et de verbatim, des milliers de lignes de notes, etc. Ceux qui sont passés par là devant ou derrière l’écran ou comme client à lire les gros rapports s’en souviennent j’en suis sûre!!!

Le premier article est l’Alertbox de Nielsen de cette semaine (15 octobre 2007). Cela présentait les tests d’utilisabilité simultanés auprès de plusieurs usagers (MUST: Multiple-User Simultaneous Testing). L’essentiel de son texte décrit cette approche moins courante pour des raisons de coûts évidentes, ainsi que les conditions de réalisation de ces tests (ex.: avoir plusieurs facilitateurs formés et on vous propose une formation de facilitateurs en passant!), et il met l’emphase sur les cas où il est préférable d’avoir de nombreux usagers comme pour les jeux vidéos (venant de lui: on comprend qu’il veut dire au moins plus que 5! ;-).

Il est clair que pour des résultats dits statistiques, chaque condition testée nécessite au moins 20 cas pour que le niveau de signification des résultats soient valides, au sens de généralisables à l’ensemble de la population. Tout ça c’était déjà bien clair pour nous tous. Aucun problème. Ce qui m’a surpris cependant, c’est qu’aucune mention n’est faite de l’armée d’analystes en arrière nécessairement nécessaires pour processer tout cela, car permettez-moi le jeu de mots facile mais: analyser le data est un must, c’est le cas de le dire…

Donc tester selon la méthode MUST – terme que Nielsen dit avoir emprunté à Dennis Wixon qui entretient en passant d’intéressants propos sur les critères d’évaluation de l’efficacité des différentes méthodes d’utilisabilité – (N.B.: obtenir le texte intégral nécessite un accès à la ACM Digital Library), ne prend pas seulement beaucoup d’usagers mais aussi beaucoup d’analystes ou de temps d’analystes…il ne faudrait pas l’oublier! C’est mon point ici et je vais l’appuyer avec le second article vu cette semaine dont je vous parlais.

Dans la newsletter d’Adaptive Path d’aujourd’hui le 17 octobre, dans son essai sur les “A-HA moments” Rachel Hinman nous rapporte très bien cette tendance à vouloir “faire oublier” la réalité du temps d’analyse, soit la vraie réalité derrière “l’écran” des tests usagers, la réalité de matière grise et de temps de réflexion qui donne des résultats concrets d’évaluation des interfaces et par conséquence, de pistes de (re)conception. Je vous avoue que je suis particulièrement sensible à cette réalité car je la vis doublement en recherche au doctorat où pour fins d’apprentissage et de rigueur, la dimension méthodologique n’est pas en option…mais pour plus de clarté, je vais citer les propos de Hinman ici:

I always get a little miffed when I hear user-experience folk describe their data analysis process as looking for “a-ha moments.” It seems like an evasive answer to a simple process question. But more importantly, it leaves one with the impression that coming up with research insights is an experience of epiphany, like Newton sitting under the apple tree discovering gravity.

In a recent talk about his current book, The Myths of Innovation, Scott Berkun emphasized that humans love stories of epiphanies because they diminish the sweat-effort, failure, and plain old hard work that goes into coming up with something that is truly innovative. He explained how the story of Newton sitting under the apple tree conveniently de-emphasizes his 15 years of dedication and study to the subject.

[capture de l'image de l'article de Hinman - site d'Adaptive Path]

Pour compléter mon point, je vous recommande également une autre approche de test d’utilisabilité. Il s’agit d’une approche qui ne mise pas sur la quantité d’usagers mais plutôt sur la qualité via la complémentarité des méthodes. De MUST on passe cette fois à CUT, pour Cooperative Usability Testing. Cette approche combinatoire est proposée par Frokjaer et Hornsbaek de l’Université de Copenhague au Danemark qui tentent de répondre à certains biais du test U classique. Voici le résumé de l’article pour vous mettre en appétit: “Cooperative usability testing: Complementing Usability Tests with User-Supported Interpretation Sessions” (N.B.: l’accès à l’article intégral nécessite un compte à la Digital ACM library):

“Recent criticism of think-aloud testing (TA) discusses discrepancies between theory and practice, the artificiality of the test situation, and inconsistencies in the evaluators’ interpretation of the process. Rather than enforcing a more strict TA procedure, we describe Cooperative Usability Testing (CUT), where test users and evaluators join expertise to understand the usability problems of the application evaluated. CUT consists of two sessions. In the interaction session, the test user tries out the application to uncover potential usability problems while the evaluators mainly observe, e.g. as in TA or contextual inquiry. In the interpretation session, evaluators and test users discuss what they consider the most important usability problems, supported by a video of the interaction session. In an exploratory study comparing CUT to TA, seven evaluators find that interpretation sessions contribute important usability information compared to TA. Also test users found participation in the interpretation session interesting.

Je dois vous dire que l’an dernier, dans le cadre d’un de mes cours portant sur l’approche interprétative, j’ai expérimenté une variante de cette méthode en réutilisant/réanalysant les verbatims des usagers à des fins de séance d’interprétation sur des thèmes spécifiques que nous avons laissé émerger du data. C’était proche donc mais ce n’était pas de l’interprétation par les usagers eux-mêmes – pour des raisons d’efficacité/de temps car il aurait fallu ensuite par dessus tout le data d’observation, analyser leur réinterprétation de la séance, ce que nous ne pouvions nous permettre dans le cadre d’un exercice de fin de session…Une chose est sûre, c’est qu’ici il ne s’agit pas d’une approche quantitative des tests U mais plus d’une approche qualitative avec moins d’usagers, cependant dans ce cas également, la quantité d’analyse à faire des interprétations est tout aussi importante…et prend autant de temps d’analyse…on ne peut la contourner pour obtenir de la qualité!

Pour la petite info, je peux vous dire que les résultats combinés du test usager avec l’approche interprétative furent surprenamment riches et très concluants! Cela permettait de dégager le lien entre les tâches effectuées sur un site par un usager et la symbolique de ce que représente cette activité pour l’usager et surtout par rapport à l’imbrication de l’activité et du contexte concret dans lequel elle se déroule (type d’industrie, type de site, type de compagnie, type de pages, type de comparables online – et offline! -, types de préférences, etc.). Donc par exemple, je suis usager et je navigue sur un site de nouvelles pour un test, je le fais comme tâche mais dans la vraie vie, je le fais surtout pour me tenir informé-e et pour cela je clique sur le gros titre ou dans la section “Sports” ou “Culture”, etc., mais au delà de cela, “qu’est-ce que cela représente/veut dire pour moi comme usager de consommer de l’information en général?” Et y a-t-il une représentation différente de l’activité quand elle est effectuée dans sa version papier vs dans sa version en ligne?

Car pour comprendre ce que représente une tâche sur un site par exemple, en fait il faut la comprendre aussi globalement que cela, dans la représentation mentale que s’en fait l’usager de façon générale (offline et online) et spécifique (dans les interfaces concrètement testées).

Pour moi, dans la même perspective que soulignée par Hinman dans son essai en rapport à l’innovation, cet exemple “expérimental” est une combinaison de méthodes que je vais désormais retenir absolument pour tout ce qui est nouveaux produits interactifs ou sites qui nécessitent de comprendre comment l’usager s’approprie la nouveauté et s’adapte symboliquement à elle…

Avec la vague de nouvelles interfaces AJAX et multimodales qui déferlent de plus en plus un peu partout, les produits actuels “brisent” de plus en plus le moule/pattern classique des interfaces Web traditionnelles que nous avons largement testées – ou fait testées- depuis une dizaine d’années, il va donc bien falloir que les méthodes d’évaluation de ces interfaces/produits/services évoluent en conséquence! Le test d’utilisabilité n’y fera pas exception!

Comme lien complémentaire en rapport avec ce propos méthodologique, je vous mentionne que dans la conférence intitulée L’ergonomie a-t-elle toujours la cote?donnée dans le cadre des conférences des midis-express de l’API en novembre 2006, Camille et moi avions recensé différentes évolutions méthodologiques actuelles et parfois encore expérimentales. Pour ceux que cela intéresse, voici le billet écrit à l’époque de l’événement sur ErgonomiA et où vous pouvez télécharger la présentation (le recensement figure dans les dernières diapos du ppt).

4 / 04 / 2006Usability remote testing

Usability remote testing
by Menghini Calderon Fabrizio Antonio from webpronews.com April 3rd, 2006

The diffusion of screen sharing software and remote control applications is slowly changing how usability evaluations are conducted because usability experts can now interact with users geographically distant and with different cultural backgrounds.
Read more…

17 / 11 / 2005Professional usability testing and return on investment

by Charles L. Mauro from MaurioNewMedia found on Taskz.com

Le genre de white paper qui vaut de l’or et qui est pourtant accessible gratuitement…des arguments solides alliant technologie, ergonomie et marketing, avec schémas et matrice à l’appui pour dynamiter vos pitchs de vente pour intégrer l’utilisabilité au développement des sites Web!

Voici le résumé de ce rapport, extrait tel quel du document.

Professional usability engineering and testing is a well-established development discipline that has been used extensively to create some of our most successful military and commercial systems. With the maturation of the web as a delivery model for information and E-Commerce, the formal science of usability will become increasingly important. This paper discusses the return on investment (ROI) implications of integrating formal usability testing methods into web development projects. Online and traditional lab-based approaches are discussed and compared for their respective strengths and weaknesses. The white paper provides detailed technical descriptions of current online usability testing methods and draws conclusions about the future of this important new customer response testing methodology. It includes a comprehensive trade-off matrix useful in making decisions about important technological approaches and research benefits. This white paper covers material delivered in a series of Executive Briefing Sessions presented by Charles L. Mauro, President MauroNewMedia. The sessions were held in New York City, Stanford, Connecticut and Chicago in late 2002.”

Pour lire le rapport complet

4 / 11 / 2005Online travel usability study

Online travel usability study

Une autre belle initiative, utile et instructive à l’occasion du World Usability Day!
Ça vaut la peine de lire le résumé des résultats!

Human Factors International, TechSmith, and Michigan State University collaborated to fund and conduct a research project to highlight at World Usability Day on November 3rd, 2005.

The primary goal of this usability test was to study the relative ease of use for three travel sites when making holiday travel plans and to explore whether there was a difference in assessment between expert and novice users. The secondary goal of the study was to determine the degree to which remote tests are consistent with and as robust as the in-person tests.

Read the summary report.

Watch video highlights of participant interactions at http://www.techsmith.com/community/worldusabilityday.asp

220-802 050-SEPROAUTH-02 M70-101 70-458 70-462 100-101 640-554 700-505 70-457 70-460 C2150-197 EX0-001 070-243 70-466 C_THR12_66 C4040-225 1Z0-061 70-331 EX300 1Z0-060 MB2-701 70-467 EX200 M70-301 70-489 C2180-278 MB7-702 MB2-702 70-487 70-243 70-414 70-466 200-120 MB2-703 070-462 70-462 70-461 9L0-012 C_BODI_20 PRINCE2 1Z0-851 70-432 1Y0-253 070-496 100-101 648-244 070-668 C4040-252 650-752 70-642 HP0-Y50 E20-385 500-285 70-410 70-461 70-462 70-483 EX300 070-461 MB2-702 MB7-702 220-802 400-101 646-206 700-501 70-480 C4040-108 MB2-701 70-412 70-466 200-120 C4040-225 1Z0-061 70-347 C4090-452 MB2-703 400-101 70-410 70-417 70-463 70-488 70-462 C2090-303 C2090-614 70-461 70-486 70-411 400-101 646-206 300-206 70-243 74-325 C2020-622 Windows 7 key Windows 8 key Office 2013 microsoft office 2010 cheap Windows 7 key Office 2007 key Office 2010 key Office 2008 key Windows 7 Windows 8 Office 2013 microsoft office 2010 cheap Windows 7 key microsoft Office 2007 key microsoft Office 2010 key windows 7 key windows 8 key Office 2013 key windows 81 key microsoft 2010 key office 2010 office 2007 key buy windows 7 key cheap windows 7 key dowload office 2010 key cheap windows xp key cheap windows 2008 buy microsoft 7 key windows 2011 key windows 2011 adobe photoshop key rolex replica watch swiss replica watches replica watches for men replica watches Rolex replica watches rolex swiss replica watch top rolex replica swiss rolex replica watches cheap replica omega rolex replica watches latest replica omega watches replica omega watches 70-432 1Y0-253 070-496 100-101 648-244 070-668 C4040-252 650-752 70-642 HP0-Y50 E20-385 500-285 70-410 70-461 220-801 220-802 N10-005 SY0-301 000-221 00-780 N0-101 1z0-051 C4090-450 C4120-783 EX200 MB2-700 MB3-700 MB6-869 OG0-093 VCP-510 VCP550 70-486 70-418 400-101 70-410 050-SEPROAUTH-02 200-120 MB2-703 070-462 1Z0-554 1Z0-567 200-001 250-310 250-371 640-878 70-461 70-462 200-120 70-488 MB2-703 70-410 70-461 70-480 70-532 200-120 MB2-703 070-462 70-462 70-461 070-410 JN0-102 70-411 C_TADM51_731 C4090-958 70-483 EX300 070-461 MB2-702 MB7-702 220-802 MB2-703 70-411 MB5-705 C_TADM51_731 70-346 70-486 70-347 70-480 70-483 70-412 70-463 MB2-700 70-417 C_TAW12_731 400-101 MB2-702 70-487 400-101 646-206 700-501 70-480 C4040-108 MB2-701 070-411 100-101 640-554 700-505 70-457 70-460 C2150-197 EX0-001 070-243 70-466 700-501 050-SEPROAUTH-02 M70-101 70-458 CCD-410 70-341 70-464 70-680 74-335 350-018 C_TFIN52_66 70-243 VCP-550 70-414 70-466 100-101 JN0-102 VCP550 640-554 70-331 EX300 1Z0-060 MB2-701 70-467 EX200 350-001 700-505 640-911 M70-301 70-489 400-101 70-410 050-SEPROAUTH-02 200-120 MB2-703 070-462 70-462 70-461 070-410 JN0-102 70-411 CCD-410 70-341 70-464 70-680 74-335 M70-201 117-101 810-420 C2180-276 C4040-221 1Z0-599 350-029 820-421 C_THR12_66 117-102 70-342 MB5-705 C_TADM51_731 70-346 70-486 70-347 70-480 70-483 70-412 70-463 MB2-700 70-417 70-480 C4040-108 MB2-701 070-411 100-101 640-554 700-505 70-457 70-460 C2150-197 EX0-001 070-243 70-466 C_THR12_66 C4040-225 1Z0-061 70-347 C4090-452 VCP-550 070-177