Quando eficiência demais vira desculpa para não incluir quem realmente importa.

Tem uma frase que todo mundo em UX já ouviu, decorou e talvez até repetiu em reuniões:
“Com cinco usuários, você encontra 85% dos problemas de usabilidade.”
Jakob Nielsen escreveu isso em 2000, com base em estudos estatísticos bem conduzidos. Desde então, essa afirmação virou quase um mandamento.
Mas como todo mantra que simplifica o complexo, ele corre o risco de apagar o que mais importa: quem são essas cinco pessoas?
A fórmula é boa. O uso dela, nem sempre.
Vamos deixar uma coisa clara, Nielsen não está errado. Ele mesmo aponta que a lógica dos 5 usuários funciona quando o público é homogêneo, quando o comportamento das pessoas tende a seguir um padrão similar, com tarefas próximas, repertório digital semelhante e barreiras de acesso parecidas.
Mas e quando o público é profundamente diverso, como é o caso do Brasil?
Quando a realidade social, econômica, funcional e cultural das pessoas está em extremos tão distintos que nem o mesmo produto digital é usado da mesma forma por dois grupos?
Usar o modelo sem adaptação é mais do que ineficiente, é irresponsável.
Um país que não cabe em cinco testes
Vamos aos dados. O Brasil tem uma população de mais de 203 milhões de pessoas, com cenários de desigualdade tão marcantes que a ideia de “usuário médio” simplesmente não se sustenta:
- Mais de 18 milhões de brasileiros têm algum tipo de deficiência, segundo o Censo 2022;Mais da metade da população se declara preta ou parda;Milhões vivem em zonas rurais, ribeirinhas ou em comunidades sem conectividade;Quase 12 milhões de pessoas ainda são analfabetas;Uma parte significativa da população tem acesso limitado a equipamentos, dados móveis ou letramento digital;
Em um país assim, é inviável assumir que 5 pessoas podem representar todas. Não existe grupo homogêneo. A média não representa ninguém. E o “usuário típico” é uma ilusão reconfortante para quem não quer lidar com a complexidade.
Testar com cinco pessoas pode ser suficiente
O problema nunca foi o número. O problema é usar esse número como desculpa para não incluir diversidade na pesquisa.
O que acontece, na prática, é que esses cinco usuários muitas vezes vêm da bolha de sempre:
- Pessoas com acesso à internet de qualidade;Alfabetizadas;Brancas;Sem deficiência;Boa familiaridade com tecnologia;Vivem nos grandes centros urbanos.
Mas se seus testes não incluem:
- Quem navega com leitor de tela?Quem não enxerga cores?Quem usa teclado em vez de mouse?Quem depende de Libras, lupa ou contraste invertido?Quem mora longe dos grandes centros urbanos?Quem nunca usou um aplicativo de banco, mas precisa dele para receber o Bolsa Família?Quem tem deficiência cognitiva, ansiedade, dislexia ou outras condições que interferem na forma de interagir com interfaces?
Então os dados que você coleta contam só uma fração da história e geralmente a parte mais confortável.
Ignorar esses perfis é validar a ausência deles e um teste que não contempla quem mais enfrenta barreiras não é apenas limitado é cúmplice da exclusão.
A acessibilidade começa antes da interface
Muita gente acredita que a acessibilidade se resolve com um ajuste:
- Colocar aria-label;Corrigir contraste;Garantir foco visível;Ativar navegação por teclado;Outros acham que a acessibilidade se resume a checar se a WCAG foi seguida.
Mas não é só isso. Se você não pensou em acessibilidade desde o início, ela não está ali, está só adaptada, remendada, improvisada.
A acessibilidade começa na pesquisa, na forma como definimos quem participa, quais contextos serão considerados e quais realidades serão representadas.
Começa no planejamento, quando desenhamos os critérios de recrutamento. Quando a gente se pergunta:
“Estamos incluindo alguém que normalmente ficaria de fora?”
“Estamos entendendo as barreiras de uso antes de presumir os comportamentos?”
“Estamos incluindo quem não fala com facilidade, não enxerga, não escuta, não lê como a maioria?”
A inclusão verdadeira acontece quando a complexidade é permitida. Quando o caos do mundo real entra na sala de testes.
Nielsen avisou. Só não lemos até o fim
Essa crítica não é sobre invalidar o trabalho de Nielsen , longe disso.
Ele mesmo, tanto em 2000 quanto em 2012, escreveu com todas as letras:
“Se você tem múltiplos grupos de usuários distintos, precisa testar com mais perfis.”
“Cinco usuários por grupo.”
“Diversidade exige testes diferentes.”
Ou seja, a diversidade já estava prevista no modelo. O que aconteceu é que o mercado escolheu lembrar só do número mágico.
Preferimos repetir o gráfico bonito, o argumento de ROI, a frase de efeito nos slides.
Enquanto isso, ignoramos a parte que mais importa: quem foi incluído e quem continua invisível no processo?
Você não precisa abandonar a ideia dos 5 usuários. Mas precisa parar de usá-la como justificativa para deixar de fora quem realmente deveria estar no centro do processo.
Testar com 5 pessoas pode, sim, gerar bons aprendizados. Mas só se, ao longo do tempo, você tiver testado com 5 de cada realidade que compõe o Brasil.
No fim das contas, não é sobre quantidade. É sobre responsabilidade, ética e disposição para enfrentar a complexidade. Porque a forma como definimos quem participa da pesquisa revela, na prática, quem estamos realmente dispostos a incluir.
Caso queira seguir nesse papo, me encontre no LinkedIn.
Referências
- Why You Only Need to Test with 5 Users — Jakob Nielsen, 2000How Many Test Users in a Usability Study? — Jakob Nielsen, 2012Censo Demográfico — IBGE 2022PNAD Contínua— IBGE
Testar com 5 pessoas é suficiente? E quando a diversidade pede mais? was originally published in UX Collective 🇧🇷 on Medium, where people are continuing the conversation by highlighting and responding to this story.