Finding examples

Li a monografia de Claybony Souza Moraes, que se formou em Análise de Sistemas pela UNEB, com um trabalho também em IHC: Um estudo de usabilidade para software de prescrição de treinamento neuromuscular (Digital Trainer), 2010.

Como o título sugere, ele faz uma análise e melhoria do Digital Trainer, um software feito pela Polisystem, empresa dele e do irmão (pelo que me lembro), que oferece apoio na construção e manutenção de programas de exercícios em academias (para instrutores usarem).

Ele lista os aspectos de usabilidade a serem considerados de acordo com Nielsen, com a ISO 9241 (parte 11) e com alguns outros autores, como Preece, Rogers & Sharp (2005). Detalha também, um pouco, métodos para avaliar uma interface, de acordo com três abordagens: testes, inspeção e investigação.

Médotos de teste de usabilidade:

  • thinking aloud protocol
  • perfomance measurement
  • métodos empíricos
  • co-discovery method

Uma coisa que ele fala que não entendi bem é que

Netto et. al (2004), ressaltam que testes de usabilidade avaliam somente o produto em termos meramente quantitativos, enquanto testes de comunicabilidade produzem tanto dados quantitativos como qualitativos, sugerindo a aplicação de ambos os testes complementarmente para uma única interface.

A parte que não entendo é que, de minhas leituras que citam testes de usabilidade, nenhuma me deu a entender que eram avaliações meramente quantitativas. Talvez ler o que Netto et. al dizem ajude a entender isso e ver se faz sentido para meu contexto ou não.

Métodos de inspeção:

  • avaliação heurística
  • percurso cognitivo
  • inspeção de padrões
  • revisão de guidelines

métodos de investigação:

  • investigação contextual
  • estudos etnográficos ou de campo
  • entrevistas
  • questionários
  • grupos focais

Claybony utiliza testes de usabilidade (10 usuários, sendo 5 novatos e 5 experientes, em cada rodada de testes) e avaliação heurística (três pessoas que desenvolviam o software) para analisar o Digital Trainer. Assim ele contrabalançou a opinião dos especialistas (heurísticas) com a experiência relatada pelos usuários, e operou e comparou métricas quantitativas e qualitativas, conseguindo, por exemplo, avaliar que houve redução de tempo para execução de tarefas específicas e redução de quantidades de cliques por tarefa.

Há muitos livros e artigos citados, preciso olhar novamente com calma a lista de referências. De antemão, uma das coisas que ele cita que quero ler, pra variar, é Nielsen, sobre a quantidade de usuários necessária em um teste de usabilidade: http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/.

A referência de Netto et. al é: OLIVEIRA NETTO, Alvim Antônio de. IHC – Interação Humano Computador: modelagem e gerência de interfaces com o usuário. Florianópolis: Visual Books, 2004. 120 p. (ao menos, creio que seja, porque na parte das referências só aparece esta, e nenhum Netto et al.).

Para amanhã: voltar a escrever, ou ler a monografia de Jussi? Que tal ambas as coisas?

39 dias: HCI e – qual é o meu problema?

Comecei um curso de Interação Humano Computador pela UC San Diego (https://class.coursera.org/hci-004/class/index), no Coursera. Inscrevi-me porque considerei que seria uma abordagem interessante para aumentar os conhecimentos necessários pro projeto de TCC. O curso termina dia 9 de dezembro. Creio que valéra.

Algumas anotações, das vídeo-aulas das duas primeiras semanas:

A meta da prototipação é… feedback.

Focus on goals. Evolve the design.

What do prototypes prototype?

Feel

Implementation

Role

Se protótipos são perguntas, faça muitas!!

——————————————————

Aspectos a considerar no momento de escolher o(s) método(s) de avaliação de interface:

  • confiabilidade / precisão
  • generalização
  • realismo
  • capacidade de comparação
  • quantidade de trabalho envolvido

=> O que você quer aprender?

——————————————————

O que se pode aprender através da observação participativa (participant observation)?

  1. What do people do now?
  2. What values and goals do people have?
  3. How are these particular activities embedded in a larger ecology?
  4. Similarities and differences across people?
  5. … And other types of context, like time of the day

To learn more: Kuniavsky – Observing the user experience. Beyer and Holtzblatt – Contextual design

——————————————————

Entrevistas:

Escolha dos participantes

  • representantes dos usuários-alvo
  • podem ser usuários de um sistema similar (caso, por exemplo, se esteja querendo criar uma versão melhor de algo)
  • podem ser não usuários, caso a ideia seja aumentar o público alvo de um determinado tipo de software

——————————————————

Outcome of activity analysis:

  • what are the steps?
  • what are the artifacts?
  • what are the goals (how you’ll measure success)?
  • what are the pain points (or opportunities)?

——————————————————

O tradicional “projeto final” do curso, que foca em avaliar na prática os estudantes, é para desenvolver um protótipo de interface funcional, para um software baseado na web ou mobile, desde o momento de observar usuários para encontrar um problema real, passando por diversos níveis de prototipação, avaliação com usuários e iterações. Estou pensando em mesclar os direcionamentos do projeto lá para me ajudar na metodologia de melhoria da interface do fazDelivery, também.

Enquanto isso, preciso repensar e refinar meu problema de pesquisa, voltar a escrever a monografia e começar a prototipar e/ou avaliar as interfaces atuais, porque sei que haverá muito feedback dos orientadores neste ponto também…

Avanços. E exemplos de Interfaces de Busca (ou recomendação) Inovadoras

2 e 3 de maio

Título sugerido pelo professor: Análise de Interfaces Homem Humano Computador Inovadoras para Sistema de Busca Baseado em Palavras-Chave

Declaração de Orientação: entregue (uhu! aos pouquinhos, chegarei lá). Encomenda do orientador: exemplos de interfaces de busca inovadoras.

7 de maio

Tomei a liberdade de incluir interfaces de recomendação, porque, como comentei n’outro post, há um campo comum entre as duas, em meu entendimento, na medida em que posso entender que uma recomendação é uma predição de resultados com base em gostos (ditos ativa ou passivamente) do usuário.

Burger King recomenda!

Burger King recomenda!

Destaques: três sliders permitem que o visitante altere dinamicamente os resultados mostrados nas sugestões do cardápio, de acordo com o que mais se adequa a sua vontade no momento. Pode-se variar a “leveza do produto” (+/- light); “sabor” (+/- doce); ou quanta energia se precisa (+/- energia). A partir disso, o sistema não apenas lista resultados (mostrando apenas o que, segundo seu algoritmo, se enquadra no pedido do usuário) como os ordena.

HotMap - interface antes dos resultados.

HotMap – interface antes da exibição dos resultados.

O HotMap traz alguns elementos visuais para que o usuário possa rapidamente ter uma noção geral dos resultados e da relevância destes, e também permite que os resultados sejam reordenados, trocando a importância dos termos de pesquisa, ou excluindo algum. Para permitir a avaliação da relevância de cada resultado, a frequência de aparecimento de cada termo é representada com um quadrado colorido (quanto mais forte a cor, mais ocorrências). Assim é possível avaliar rapidamente um resultado mesmo sem abri-lo, e também comparar vários resultados. Off-topic sobre performance: eles estão em beta 0.9.5. Não sei se isso justifica, mas não consegui obter resultados para as três buscas que tentei fazer (tissu routine; computer; innovative search interfaces).

Conheci o HotMap através do artigo: A Comparative User Study of Web Search Interfaces: HotMap , Concept Highlighter, and Google (2006). O mesmo grupo fez as duas ferramentas, e testa como usuários se saíram com buscas com elas e com o Google, em termos de tempo de resposta e avaliação da relevância de resultados. Ainda não terminei de ler o artigo, mas ele me parece, também, uma boa fonte para entender como posso vir a fazer avaliações comparativas de interfaces (incluindo aí questões de relevância de resultados e técnicas utilizadas para cada caso).

Pesquisando um pouco mais sobre “innovative search interfaces“, encontrei:

  • um post de 2009 que traz uma opinião curta de dez motores de busca interessantes e inovadores precisarei olhar com mais calma os resultados e filtrar os que apresentam inovações de interface, mas acho que há algum potencial aqui.
  • Testei rapidamente o KartOO, porque o autor falou especialmente bem dele, mas em um uso mais superficial não consegui entender como é inovador ou útil. De fato precisarei olhar mais detalhadamente as sugestões.
  • o livro Search User Interfaces, também de 2009 e, no site do mesmo, o primeiro capítulo, para leitura. Acredito que pode ser um material interessante para me familiarizar com alguns conceitos (no entanto, como é de 2009, precisarei pesquisar o que o autor fez depois disso, para  não correr o risco de me basear em algo obsoleto).

Bueno, creio que o caminho agora é continuar. Status:

  • apresentar título ao orientador – ok!
  • entregar Declaração de Orientação –ok;
  • Anteprojeto (23%) – pending!
    • problema de pesquisa – ok;
    • título – ok;
    • bibliografia inicial – ok;
    • leitura e escrita (5%) – pending!!
      • comecei a ler artigos direcionados;
      • comecei algum nível de pesquisa por trabalhos relacionados;
      • montei estrutura do anteprojeto no LaTeX.