Quantificando dados qualitativos em pesquisas de UX
Alguns benefícios e práticas
por Larissa Tramontin e Luiz Henrique Simões, do time da Sensorama Design
Diante de um “boom” de informações relacionadas a big data, analytics e da ciência de dados como um todo, vemos a atenção às informações qualitativas cada vez mais ofuscadas pelo poder de síntese e exatidão dos números. No debate sobre o valor do design e da pesquisa para a experiência do usuário e do cliente prevalece uma diversidade de gráficos e estimativas no discurso de diferentes líderes. Quem nunca se deparou com exposições assim, não?
Estamos falando da experiência do usuário, uma pessoa, algo que antropólogos, psicanalistas e cientistas sociais em geral empenham anos para entender. Afinal, o que é experiência? Como podemos estabelecer padrões de sucesso e falha em relação a algo tão subjetivo e volátil? E junto do dilema, para quem é designer de experiência, surgem as questões sobre como atribuir valor à experiência diante do foco numérico, mesmo que toda informação numérica precise ser explicada através de palavras — reiterando a importância do contexto.
Bom, poderíamos fazer uma dissertação que “mostra por a + b” o quanto o mundo gira em torno da análise qualitativa de nossa realidade. Ao invés disso, seguiremos a máxima: “Se não pode vencê-los, junte-se a eles” 😎 e ao final do texto esperamos ter mostrado o quão pobres os dados numéricos são quando interpretados sozinhos.
Vamos começar
Pensando naqueles que não estão muito habituados a essa realidade, apresentaremos, neste artigo, uma visão de como podemos aproveitar métodos e ferramentas de análise quantitativa para apoiar os dados qualitativos de uma pesquisa (e vice-versa), bem como alguns benefícios proporcionados por esse processo, tanto para o pesquisador quanto para o stakeholder.
“Será que esse papo é para mim?”
Caso você esteja se perguntando se essas dicas serão aderentes ao seu dia a dia, sugerimos que você responda às seguintes perguntas em relação à sua rotina de trabalho:
- Você precisa lidar com uma quantidade excessiva de dados?
- Você precisa apresentar esses dados para alguém de forma consolidada e rápida?
Caso tenha respondido “sim” às duas perguntas, você está no lugar certo. Esse material foi desenvolvido aproveitando um contexto de pesquisas de UX, branding, market research, service design, entre outros temas semelhantes. As possibilidades que serão apresentadas aqui podem ser incorporadas à realidade de qualquer segmento.
Práticas básicas para começar a quantificar suas pesquisas
Se o tema de uma pesquisa for o interesse de um certo público em relação a podcasts, por exemplo. Vamos conhecer pessoas que ouvem, outras que apenas conhecem mas não interagem, as verdadeiramente viciadas, além daquelas que nunca ouviram a palavra podcast. Para cada uma delas, naturalmente, toda pesquisa passa a segmentar informações que se assemelham, certo? E que tal começar a contar essas similaridades e diferenças?
Tenha em mente que o contexto do resultado numérico quem dá é a pesquisa. Se trinta pessoas não gostam de podcast e, entre elas, doze não gostam de rádio, talvez o problema não seja exatamente o podcast. Para todo achado qualitativo, relacione os números na jornada, de modo que eles contem a história do processo sendo mapeado.
Levando em conta a amostra utilizada em uma pesquisa, tenha cuidado para não enfatizar dados quantitativos em detrimento dos dados qualitativos. Nem sempre o primeiro é suficiente para justificar os resultados sozinho, especialmente se for uma amostra pequena, e lembramos que a ideia é que um complemente o outro. Dentro de times mais maduros em pesquisas de métodos mistos, os profissionais em estatística podem, por exemplo, usar de procedimentos que tratem pequenas quantidades de dados qualitativos a fim de inferir resultados mais precisos a partir do relacionamento entre informações, como a correlação de Kendall. Primeiro, vamos construir o básico.
Para que tenhamos mais facilidade e sucesso na construção quantitativa da pesquisa, é necessário nos tornarmos mais próximos de ferramentas como Excel ou Airtable. E calma: tanto o Miro, quanto o Figma e outras amizades continuarão entre nós. Apresentamos a seguir um exemplo simples e rápido que pode ser feito em formulários gratuitos, como o Google Forms, e ser usado por você enquanto entrevista alguém via Google Meet, Zoom etc.
Deste modo, você assegura que ao final terá uma planilha montadinha e uma interface simples para usar enquanto registra seus achados, sem precisar preocupar-se com formatações ou preenchimento de células apertadas com texto enquanto conduz a entrevista. A seguir, cada linha representa informações de uma única pessoa, enquanto cada coluna representa uma variável da pesquisa. Desse modo, fica muito mais fácil para as ferramentas que tiram algumas estatísticas descritivas trabalharem, tornando informações qualitativas em representações visuais.
O que é preciso fazer até aqui?
Pensar numa forma de fazer do seu roteiro de entrevistas um Google Forms, para que depois seja fácil exportar um arquivo Google Sheets para análise e categorização.
Agora, podemos começar a pensar em categorizar informações qualitativas a fim de perceber a frequência delas em nossas entrevistas (ou respostas). Posteriormente, analisamos as diferenças e similaridades, fazemos agrupamentos de perfis de usuários e/ou uso ou outras tantas possibilidades que se abrem a cada nova pesquisa.
Não estamos inventando nada novo, nem tentando reinventar a roda. Estamos falando de padrões de coleta e disposição de dados e muitas pessoas que estão lendo isso já utilizaram processos semelhantes no TCC, pós-graduação, contextos de operação, etc.
No exemplo, Maria respondeu que ouve podcasts e, dentro de suas respostas abertas, nos forneceu informações interessantes:
- Prefere ouvir a caminho do trabalho
- Durante a pandemia, ouve tomando café
A partir de uma resposta conseguimos identificar algumas ideias-chave. Essas categorias nos ajudam a contextualizar a jornada/processo que estamos analisando. Neste caso, as palavras e expressões “pandemia”, “café” e “ a caminho do trabalho” são mencionadas. É bem simples, né? Basicamente a gente vai quebrando as informações e as investigando, como Descartes descreveu o processo empírico, na fundação da ciência: “separar o todo e estudar as partes”.
Se tivermos 10 usuários respondendo, talvez consigamos encontrar a frequência da categoria “pandemia”, por exemplo, como presente em 70% das respostas, o que nos ajudaria a identificar similaridades e assim por diante.
Ao analisarmos o exemplo da tabela abaixo, vamos perceber que as linhas da “Maria” estão repetidas, certo? Essa é uma forma de isolar as categorias identificadas para conseguir tratar cada uma delas como um dado distinto. Isso é importante a partir do momento que você queira filtrar as informações num software como Google Sheets/Excel, ou decida visualizar esses dados em um sistema de Business Intelligence (BI), por exemplo.
Porém, caso você precise de uma consolidação mais simples, existem ferramentas como o Airtable ou o Notion que permitem a inserção de mais de uma categoria em um mesmo campo da tabela, bem como a visualização em gráficos e outras funcionalidades. Aliás, se você estiver pensando em como armazenar os dados da pesquisa de maneira que ela possa ser reaproveitada em outro projeto ou time, de forma fácil e rápida, essas plataformas são ótimas alternativas.
Benefícios para o pesquisador e stakeholder
Algo que toma um tempo necessário e precioso para toda pessoa pesquisadora é o momento de debruçar-se nos achados, vislumbrá-los dentro de um panorama real, do dia-a-dia das pessoas, e criar soluções que as beneficie. Ou seja, a análise dos dados coletados.
Quando consolidamos uma pesquisa de forma quantitativa, identificamos algumas oportunidades, como: economia de tempo, visão mais abrangente do problema de maneira rápida e eficiente, e — talvez o mais importante — contextualização da informação qualitativa em vez de depreciá-la ou inviabilizá-la. Esse processo pode acelerar a tomada de decisão sobre onde aprofundar-se ou quais recomendações devem nascer dos resultados.
É interessante que pensemos em como referenciar nossos projetos, de forma que naturalmente construamos uma teia de conhecimento. Um exemplo mais direto e simples é o final de qualquer trabalho de conclusão de graduação: as referências bibliográficas nada mais são do que atestados de que o conhecimento está sendo construído diante de uma continuidade histórica e similaridade entre temas, né? Uma forma de começarmos a fazer isso é criar um conjunto de referências que remetam a cada etapa de um projeto, por exemplo. Se numa dada amostra conseguimos aprender que podcasts são majoritariamente ouvidos em dispositivos móveis, podemos dar um rótulo a este aprendizado e referenciá-lo. Basicamente como fazemos num TCC ou dissertação acadêmica.
Ok, e como operacionalizar isso?
Uma forma de fazê-lo é usando as ferramentas aqui já citadas, como o Notion, Airtable, Excel. O problema do Excel consiste em que cada arquivo tem um tanto de informações que têm sentido estar lá, mas não dá pra usar sempre o mesmo excel para conduzir todos os projetos e pesquisas. E qual seria uma boa alternativa?
Uma boa maneira de agregar valor durante a consolidação das informações ou apresentação da pesquisa aos stakeholders, fugindo um pouco da simples “inclusão de gráficos em uma apresentação”, é a utilização de ferramentas de análise de dados e Business Intelligence (BI), como Google Data Studio ou Power BI, por exemplo.
Aqui na Sensorama Design fazemos uso dessas ferramentas em alguns projetos, desde que o esforço seja coerente aos resultados esperados pelos nossos clientes ou que traga a riqueza de informação necessária ao diagnóstico e às recomendações em torno do problema abordado (nesse caso o próprio time de pesquisa é beneficiado pelos insights). Além disso, o stakeholder poderá compartilhar esse relatório com outros times interessados nos mesmos dados.
Voltando à nossa discussão sobre referências, é possível utilizar ferramentas de BI para manter diferentes análises juntas num sistema maior, angariado por um conjunto de etiquetas (as famosas tags) responsáveis por fazer a ponte entre projetos relacionados aos mesmos usuários, processos, plataformas, etc.
Se você já tiver uma base de dados organizada o resultado é bastante simples e recompensador, pois a visão interativa dos dados poderá trazer novas perspectivas e insights. O Google Data Studio, por exemplo: é do próprio Google, não precisa ser instalado no computador, é gratuito e faz integração com as planilhas do Google Sheets — o que facilita todo o processo. Você não precisa saber muito de Excel ou ciência de dados para utilizar esses sistemas, basta ser curioso e ter vontade de aprender.
Ainda aproveitando o exemplo da pesquisa sobre podcasts, imagine que você precise realizar novas entrevistas (podendo ser com a mesma amostra ou não) em um mesmo projeto, mas, desta vez, para descobrir quais são as plataformas mais utilizadas pelos usuários (desktop/mobile). Não seria interessante aproveitar a mesma base de dados (imagem 3) para enriquecer o conhecimento sobre o tema? Isso poderia ser feito apenas adicionando novas perguntas ao Google Forms ou editando a planilha manualmente, sempre respeitando a lógica de colunas e linhas. Alinhando esse exemplo aos benefícios de utilizar uma plataforma de BI, na imagem abaixo trouxemos uma demonstração de como essa base de dados poderia ser visualizada.
Considerações
Alguns cuidados são muito importantes e devem ser observados quando você estiver preparando seu trabalho.
Avalie muito bem aonde você pretende chegar com a análise e quais serão os “entregáveis” desejados por você ou pelo cliente, especialmente se você ainda estiver aprendendo a usar novas ferramentas para consolidação dos dados.
Pense que a chave para conseguir escalar seus achados qualitativos é definir um bom sistema de nomenclaturas e ligações entre as informações qualitativas.
Caso você esteja pensando em construir um “repositório de pesquisa”, por exemplo, é fundamental que sejam definidas algumas categorias-chave (como um ID do entrevistado — nome ou telefone) e informações de apoio que podem ser coerentes durante a análise por parte de pessoas mais distantes da pesquisa, como a data de input do dado ou cidade em que o usuário está localizado, garantindo que as informações não fiquem perdidas e sejam facilmente identificadas.
Conclusão
Considerando que as organizações estão investindo cada dia mais na estruturação e análise dos dados que orbitam os seus negócios, fica claro que o aproveitamento dessas metodologias pode agregar muito valor às entregas para seus clientes, além de facilitar o seu trabalho. Tenha em mente que muitas vezes o cliente está habituado a olhar para números e não para dados qualitativos, e você estará apresentando algo mais familiar à rotina dele.
Por fim, entendemos que ter raciocínio lógico é importante para quem estiver na responsabilidade de quantificar os dados, mas não tenha medo de aprender e busque desafiar seu time nesse sentido. É mais fácil do que você imagina.
Links para o exemplo utilizado neste artigo:
Gostou das dicas? Caso queira acessar os documentos, a seguir estão os links para acessar a base de dados e acessar a visualização consolidada.
*This article is also available in English. Follow this link and check it out. :)